Имеется кластер высокой доступности из двух машин adam и eva. На всех есть три домена, назвал их mt, ast, zer. Подразумеваю что в штатном режиме работают так adam=mt, eva=ast+zer. Для этого сделал отдельные DRBD диски на LVM томах. Все работает замечательно, спасибо многим кто помогал мне здесь что бы понять как это все построить. Дырка в понимании у меня в pacemaker. Поставил его, настроил. Но вот с конфигурацией скорее всего где-то ошибся. Меня беспокоят два вопроса
- Временные интервалы, за что они все же отвечают и как их правильно выставить под мои задачи? Мне нужно увеличить время ожидания выключения домены mt, но как только делаю этот параметр в 400 секунд, он перестает запускаться, выскакивают ошибки drbd.
- Как все таки понять что произошло когда ошибки возникают, а то там куча какой-то информации, а как ей пользоваться?
- Как правильно Stonitch организовать
Привожу свою конфигурацию
:~# crm configure show
node adam \
attributes standby="off"
node eva \
attributes standby="off"
primitive drbd_ast ocf:linbit:drbd \
params drbd_resource="ast" \
op monitor interval="20s" timeout="20s" \
op demote interval="0" timeout="90s" \
op promote interval="0" timeout="90s"
primitive drbd_mt ocf:linbit:drbd \
params drbd_resource="mt" \
op monitor interval="20s" timeout="20s" \
op demote interval="0" timeout="90s" \
op promote interval="0" timeout="90s"
primitive drbd_zer ocf:linbit:drbd \
params drbd_resource="zer" \
op monitor interval="20s" timeout="20s" \
op demote interval="0" timeout="90s" \
op promote interval="0" timeout="90s"
primitive kvm_ast ocf:variantb:kvm \
params config="/etc/ha_cluster/ast.config" shutdown_timeout="2" \
meta allow-migrate="false" target-role="Started" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="90" \
op monitor interval="10" timeout="30" depth="0"
primitive kvm_mt ocf:variantb:kvm \
params config="/etc/ha_cluster/mt.config" shutdown_timeout="2" \
meta allow-migrate="false" target-role="Started" is-managed="true" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="90" \
op monitor interval="10" timeout="30" depth="0"
primitive kvm_zer ocf:variantb:kvm \
params config="/etc/ha_cluster/zer.config" shutdown_timeout="2" \
meta allow-migrate="false" target-role="Started" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="90" \
op monitor interval="10" timeout="30" depth="0"
primitive stssh stonith:external/ssh \
params hostlist="1.1.1.1 1.1.1.2"
ms drbd_ast-clone drbd_ast \
meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms drbd_mt-clone drbd_mt \
meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms drbd_zer-clone drbd_zer \
meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
clone fencing stssh
location kvm_ast_location kvm_ast 50: eva
location kvm_mt_location kvm_mt 50: adam
location kvm_zer_location kvm_zer 50: eva
colocation kvm_ast-together-drbd_ast inf: kvm_ast drbd_ast-clone:Master
colocation kvm_mt-together-drbd_mt inf: kvm_mt drbd_mt-clone:Master
colocation kvm_zer-together-drbd_zer inf: kvm_zer drbd_zer-clone:Master
order kvm_ast-after-drbd_ast inf: drbd_ast-clone:promote kvm_ast:start
order kvm_mt-after-drbd_mt inf: drbd_mt-clone:promote kvm_mt:start
order kvm_zer-after-drbd_zer inf: drbd_zer-clone:promote kvm_zer:start
property $id="cib-bootstrap-options" \
dc-version="1.0.9-unknown" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
no-quorum-policy="ignore" \
stonith-enabled="false"
rsc_defaults $id="rsc-options" \
resource-stickiness="100"
Online: [ eva adam ]
kvm_ast (ocf::variantb:kvm): Started eva
kvm_mt (ocf::variantb:kvm): Started adam
kvm_zer (ocf::variantb:kvm): Started eva
Master/Slave Set: drbd_ast-clone
Masters: [ eva ]
Slaves: [ adam ]
Master/Slave Set: drbd_mt-clone
Masters: [ adam ]
Slaves: [ eva ]
Master/Slave Set: drbd_zer-clone
Masters: [ eva ]
Slaves: [ adam ]
Clone Set: fencing
Started: [ eva adam ]
Прокомментируйте кто может, любой информации даже для размышления буду очень рад.