Я играю с надстройкой высокой доступности Red Hat, все вроде работает нормально, но у меня есть одна проблема:
Каждый раз, когда я перезагружаю один из узлов 7test2
, группа ресурсов g1
мигрирует в 7test1
(по замыслу), а затем, когда 7test2
возвращается группа сетевых ресурсов g1
мигрирует обратно, как будто у него какая-то липкость или что-то в этом роде.
[root@7test1 ~]# cat /etc/redhat-release
Red Hat Enterprise Linux Server release 7.1 (Maipo)
[root@7test1 ~]# rpm -q pcs
pcs-0.9.137-13.el7.x86_64
[root@7test1 ~]# pcs status
Cluster name: 7test
Last updated: Thu Apr 23 17:11:10 2015
Last change: Thu Apr 23 17:00:02 2015
Stack: corosync
Current DC: 7test1.uftwf.local (1) - partition with quorum
Version: 1.1.12-a14efad
2 Nodes configured
3 Resources configured
Online: [ 7test1.uftwf.local 7test2.uftwf.local ]
Full list of resources:
rhevm (stonith:fence_rhevm): Started 7test1.uftwf.local
Resource Group: g1
IPaddr (ocf::heartbeat:IPaddr2): Started 7test2.uftwf.local
MailTo (ocf::heartbeat:MailTo): Started 7test2.uftwf.local
PCSD Status:
7test1.uftwf.local: Online
7test2.uftwf.local: Online
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[root@7test1 ~]#
Как установить липкость ресурсов в кардиостимуляторе?
Чтобы отобразить текущее значение определенного свойства кластера, используйте следующую команду.
pcs property list --all
Чтобы отобразить текущее значение определенного свойства кластера, используйте следующую команду.
pcs property show property
Чтобы установить значение свойства кластера, используйте следующую команду ПК.
pcs property set property=value
Вы можете установить значение resource-stickiness
, мета-параметр ресурса, который указывает, насколько ресурс предпочитает оставаться там, где он есть (значение по умолчанию - 0) для данного ресурса или группы, с помощью следующей команды:
# pcs resource meta resource_id resource-stickiness=100
Например:
# pcs resource meta dns_ip resource-stickiness=100
# pcs resource show dns_ip
Resource: dns_ip (class=ocf provider=heartbeat type=IPaddr2)
Attributes: ip=10.0.0.1 cidr_netmask=24
Meta Attrs: resource-stickiness=100
Operations: start interval=0s timeout=20s (dns_ip-start-timeout-20s)
В большинстве случаев крайне желательно предотвратить перемещение исправных ресурсов по кластеру. Для перемещения ресурсов почти всегда требуется период простоя. Для сложных сервисов, таких как базы данных, этот период может быть довольно продолжительным.
Чтобы решить эту проблему, в Pacemaker есть концепция закрепления ресурсов, которая контролирует, насколько сильно служба предпочитает работать там, где она есть. Вы можете думать об этом как о «стоимости» любого простоя. По умолчанию Pacemaker предполагает, что перемещение ресурсов связано с нулевыми затратами, и будет делать это для достижения «оптимального» [6] размещения ресурсов. Мы можем указать разную степень липкости для каждого ресурса, но часто бывает достаточно изменить значение по умолчанию.
⸺ из clusterlabs.org