Подскажите плиз DRBD+Heartbeat+ разные сервисы, режим Primary/Secondary 2-е ноды с 2-я ланами каждая (eth0 смотрит в сеть, eth1 кривой шнурок под DRBD) Как заставить подняться 2-ю ноду если отвалились HDD, пропал линк на eth0? Вынимаю диски из корзины node1, поидее должна подняться node2 в Primary. На node 2 drbd status «Connected Secondary/Primary UpToDate/Diskless» и дальше ничего Вынимаю шнурок из Eth0 на node1 На node 2 drbd status «Connected Secondary/Primary UpToDate/UpToDate» и дальше ничего. Выключаю node1 по питанию, все ок, На node 2 drbd status " WFConnection Primary/Unknown UpToDate/DUnknown" ha.cf: keepalive 1 deadtime 10 debug 1 debugfile /var/log/ha-debug warntime 5 initdead 120 #ucast eth1 10.5.0.1 auto_failback on bcast eth0 ping_group group1 192.168.11.1 192.168.11.2 192.168.11.4 respawn hacluster /usr/lib/heartbeat/ipfail node iBank2Data1 iBank2Data2
drbd.conf: # You can find an example in /usr/share/doc/drbd.../drbd.conf.example
#include «drbd.d/global_common.conf»; #include «drbd.d/*.res»; global { usage-count no; }
common { handlers { pri-on-incon-degr «echo o > /proc/sysrq-trigger ; halt -f»; pri-lost-after-sb «echo o > /proc/sysrq-trigger ; halt -f»; local-io-error «echo o > /proc/sysrq-trigger ; halt -f»; outdate-peer «/usr/lib/heartbeat/drbd-peer-outdater -t 5»; # pri-lost «echo pri-lost. Have a look at the log files. | mail -s 'DRBD Alert' root»; # split-brain «echo split-brain. drbdadm — --discard-my-data connect $DRBD_RESOURCE ? | mail -s 'DRBD Alert' root»; }
startup { wfc-timeout 0; degr-wfc-timeout 120; # 2 minutes. # wait-after-sb; }
disk { on-io-error detach; no-disk-flushes; no-md-flushes; }
syncer { rate 100M; al-extents 257; }
net { sndbuf-size 512k;
timeout 60; # 6 seconds (unit = 0.1 seconds) connect-int 10; # 10 seconds (unit = 1 second) ping-int 10; # 10 seconds (unit = 1 second) ping-timeout 5; # 500 ms (unit = 0.1 seconds)
max-buffers 2048;
after-sb-0pri discard-younger-primary; after-sb-1pri consensus; after-sb-2pri disconnect; rr-conflict disconnect; } }
resource iBank2Data {
protocol C;
on iBank2Data1 { device /dev/drbd0; disk /dev/sdb1; meta-disk internal; address 10.5.0.1:7788; }
on iBank2Data2 { device /dev/drbd0; disk /dev/sdb1; meta-disk internal; address 10.5.0.2:7788; } }