У меня такая ситуация: НА Кластер - 2 ноды. машины различны ток в ядрах (1-но и 2-ву ядерные). Делал до этого кластер (пробную модель) на Vbox - все хорошо заработало. Начал переносить на физические машини - пошли траблы. Вот что я делал:
1. Подключение, синхронизация обеих нод - ок
2. Назначение 1-й ноды мастер - ок
3. Создание на обеих нодах файловых систем и точек монтирования - ок
4. Монтирование первой ноде файловую системы - ок
5. Тестирование репликации нод - ок
6. Запуск heartbeat на обеих нодах - ок
7. Запуск httpd на 1-й ноде - ок (но виртуальный хост не пингуется и не работает так как надо. в ifconfig новое оборудование eth1:0 не отображается)
При перезапуске heartbeat на одной из нод на некоторое время включается виртуальный хост и пинг идет.
Это 1 из глюков. 2-й: При перезагрузки главной ноды, вторичная на пару секунд принимает значение мастер и монтирует диск, но потом сново переходит в слейв. После загрузки первой ноды - они нормально друг друга находит и синхронизируются (все хорошо), НО(!) 1-я нода загружается в состоянии слейв. получается слейв/слейв и приходится по новой вручную 1-ю ноду настраивать.
3-й: иногда у первой ноды не изменяя статуса (мастер) отмонтируется файловая система (sdb диск).
ha.cf:
logfacility local0
keepalive 2
deadtime 30
initdead 120
bcast eth0
auto_failback on
node node1.company.ru
node node2.company.ru
respawn hacluster /usr/lib/heartbeat/ipfail
use_logd yes
logfile /var/log/ha.log
debugfile /var/log/ha-debug.log
haresources:
node1.company.ru IPaddr::192.168.146.4/24 drbddisk::r0 \
Filesystem::/dev/drbd0::/mnt/drbd0::ext3::defaults httpd
drbd.conf:
global { usage-count yes; }
common { syncer { rate 20M; } }
resource r0 {
protocol C;
startup {
}
disk {
on-io-error detach;
}
net {
}
on node1.company.ru {
device /dev/drbd0;
disk /dev/sdb;
address 192.168.146.150:7789;
meta-disk internal;
}
on node2.company.ru {
device /dev/drbd0;
disk /dev/sdb;
address 192.168.146.134:7789;
meta-disk internal;
}
}