Назад | Перейти на главную страницу

Обслуживание ресурсов возвращается к основному узлу, даже если установлена ​​липкость

Это моя текущая установка для проверки концепции

node ha1
node ha2
primitive HA-mysql lsb:mysql \
        op monitor interval="15s"
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s"
group HA-Group VIP HA-mysql \
        meta resource-stickiness="101"
location PREFER-NODE1 HA-Group 100: ha1
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"

Если я правильно читаю документацию, установка достаточно высокого значения липкости должно предотвратить проблему, когда обслуживание ресурсов возвращается к основному узлу, когда он восстанавливается после сбоя. Достаточно высоким, в этом случае я должен установить значение липкости для HA-Group, которое не менее

100 < $stickiness-of-group + $stickiness-of-VIP + $stickiness-of-HA-mysql
100 < $stickiness + 0 + 0
100 < $stickiness

поэтому я использую 101.

Желаемое поведение, которое я ищу:

  1. Сначала отключите ha1, затем группа ресурсов обслуживается ha2
  2. Повторно подключите ha1, тогда группа ресурсов по-прежнему обслуживается ha2

Однако в текущей конфигурации, когда я повторно подключаю ha1, группа ресурсов немедленно обслуживается ha1, как только она обнаруживается как работающая.

Еще одно сообщение в блоге, которое я ссылаюсь на липкость: http://foaa.de/old-blog/2010/10/intro-to-pacemaker-part-2-advanced-topics/trackback/index.html#stickiness-vs-location-where-is-the-node- и где-он останется

P / S: Я использовал гораздо более высокое значение для групповой липкости, например 200, 500, 1000, но все равно получаю такое же поведение.

PP / S: моя версия кардиостимулятора

ii  pacemaker                           1.0.9.1+hg15626-1            HA cluster resource manager

работает на debian squeeze

Linux ha1 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux
Distributor ID: Debian
Description:    Debian GNU/Linux 6.0.6 (squeeze)
Release:        6.0.6
Codename:       squeeze

PPP / S: даже если я уменьшу конфигурацию до этого, липкость все равно не будет работать

node ha1
node ha2
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s" \
        meta resource-stickiness="1"
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"

В значительной степени я нашел ответ после довольно долгих усилий. Очевидно, что отключение - не лучшая симуляция, даже если установлена ​​липкость. Чтобы достичь того, что намеревается решить настройка липкости, сервер должен быть полностью мертв или, по крайней мере, отключен сервис corosync.

Ссылка: https://www.mail-archive.com/pacemaker@oss.clusterlabs.org/msg16791.html