====== CTDB ====== Beispiel anhand von einem 4 Node Glusterfs Cluster unter Ubuntu ===== Installation ===== apt-get install ctdb ---- \\ ===== Konfiguration ===== vim /etc/default/ctdb CTDB_RECOVERY_LOCK=/mnt/gluster_clients/gvol01/ctdb/lock CTDB_NODES=/etc/ctdb/nodes CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses CTDB_LOGGING=file:/var/log/ctdb.log \\ **CTDB_RECOVERY_LOCK** \\ Ein Lockfile das von allen CTDB Nodes erreicht werden muss. Sprich hier wird ein Shared-Filesystem benötigt. Ich habe dazu das GlusterFS via FUSE auf jedem der 4 Nodes gemountet. \\ \\ **CTDB_NODES** \\ Hier werden alle Nodes die am CTDB Cluster teilnehem via IP hinterlegt vim /etc/ctdb/nodes 192.168.88.101 192.168.88.102 192.168.88.103 192.168.88.104 \\ **CTDB_PUBLIC_ADDRESSES** \\ IPs die bei einem Ausfall einer oder auch mehrere Nodes übernommen werden sollen. Teilt man hier mehrere IPs zu versucht CTDB diese gleichmäßig über alle Nodes zu verteilen. In meinem Fall verwende ich 4 IPs die dann so verteilt werden das auf jeder Node eine aktiv ist. Fällt eine Node aus wird die IP auf eine andere Node migriert. Die Aufteilung der IPs kann man so sehr gut für ein DNS Round Robin nutzen um die Last zuverteilen. vim /etc/ctdb/public_addresses 192.168.88.105/24 ens160 192.168.88.106/24 ens160 192.168.88.107/24 ens160 192.168.88.108/24 ens160 \\ **CTDB_LOGGING** \\ Klassisches Logfile ---- \\ ===== Starten ===== Gestartet wird via init Script oder systemctl. Es empfiehlt bei den ersten Startversuchen das Logfile offen zu haben. ---- \\ ===== Befehle ===== Interessante Befehle sind: ctdb status ctdb uptime ctdb ip ctdb ping -n all