Это моя текущая установка для проверки концепции
node ha1
node ha2
primitive HA-mysql lsb:mysql \
op monitor interval="15s"
primitive VIP ocf:heartbeat:IPaddr2 \
params ip="10.100.0.10" nic="eth1" \
op monitor interval="10s"
group HA-Group VIP HA-mysql \
meta resource-stickiness="101"
location PREFER-NODE1 HA-Group 100: ha1
property $id="cib-bootstrap-options" \
dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false" \
no-quorum-policy="ignore"
Если я правильно читаю документацию, установка достаточно высокого значения липкости должно предотвратить проблему, когда обслуживание ресурсов возвращается к основному узлу, когда он восстанавливается после сбоя. Достаточно высоким, в этом случае я должен установить значение липкости для HA-Group, которое не менее
100 < $stickiness-of-group + $stickiness-of-VIP + $stickiness-of-HA-mysql
100 < $stickiness + 0 + 0
100 < $stickiness
поэтому я использую 101.
Желаемое поведение, которое я ищу:
Однако в текущей конфигурации, когда я повторно подключаю ha1, группа ресурсов немедленно обслуживается ha1, как только она обнаруживается как работающая.
Еще одно сообщение в блоге, которое я ссылаюсь на липкость: http://foaa.de/old-blog/2010/10/intro-to-pacemaker-part-2-advanced-topics/trackback/index.html#stickiness-vs-location-where-is-the-node- и где-он останется
P / S: Я использовал гораздо более высокое значение для групповой липкости, например 200, 500, 1000, но все равно получаю такое же поведение.
PP / S: моя версия кардиостимулятора
ii pacemaker 1.0.9.1+hg15626-1 HA cluster resource manager
работает на debian squeeze
Linux ha1 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux
Distributor ID: Debian
Description: Debian GNU/Linux 6.0.6 (squeeze)
Release: 6.0.6
Codename: squeeze
PPP / S: даже если я уменьшу конфигурацию до этого, липкость все равно не будет работать
node ha1
node ha2
primitive VIP ocf:heartbeat:IPaddr2 \
params ip="10.100.0.10" nic="eth1" \
op monitor interval="10s" \
meta resource-stickiness="1"
property $id="cib-bootstrap-options" \
dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false" \
no-quorum-policy="ignore"
В значительной степени я нашел ответ после довольно долгих усилий. Очевидно, что отключение - не лучшая симуляция, даже если установлена липкость. Чтобы достичь того, что намеревается решить настройка липкости, сервер должен быть полностью мертв или, по крайней мере, отключен сервис corosync.
Ссылка: https://www.mail-archive.com/pacemaker@oss.clusterlabs.org/msg16791.html