Назад | Перейти на главную страницу

узел в кластере не останавливает ресурс после отключения сетевого интерфейса

У меня есть сценарий ниже:

двухузловой кластер Debian 10 с кардиостимулятором, corosync и crmsh

shbk-1(node 1):
ens36 10.10.10.5

shbk-2(node 2):
ens36 10.10.10.10 

virtual_ip: 192.168.1.67 (it set on ens36)

/ etc / hosts:

127.0.0.1       localhost
10.10.10.5      shbk-1
10.10.10.10     shbk-2
10.10.10.15     db-1
10.10.10.20     db-2

/etc/corosync/corosync.conf

totem {
        version: 2
        cluster_name: cluster
        crypto_cipher: none
        crypto_hash: none
        transport: udpu

  interface {
    ringnumber: 0
    bindnetaddr: 10.10.10.0
    broadcast: yes
    mcastport: 5407
  }
}

logging {
        fileline: off
        to_stderr: yes
        to_logfile: yes
        logfile: /var/log/corosync/corosync.log
        to_syslog: yes
        debug: off
        logger_subsys {
                subsys: QUORUM
                debug: off
        }
}

quorum {
        provider: corosync_votequorum
        two_node: 1
        expected_votes: 2

}

nodelist {
        node {
                name: shbk-1
                nodeid: 1
                ring0_addr: 10.10.10.5
        }
        node {
                name: shbk-2
                nodeid: 2
                ring0_addr: 10.10.10.10

        }
}
service {
        name: pacemaker
        ver: 0
}

crm configure show

node 1: shbk-1
node 2: shbk-2
primitive ping-gateway ocf:pacemaker:ping \
        params host_list=192.168.1.1 multiplier=1000 dampen=1s \
        op monitor interval=1s
primitive shbk_server systemd:shbk_server \
        op monitor interval=5s
primitive stonith_shbk stonith:external/ssh \
        params hostlist="shbk-1 shbk-2"
primitive virtual_ip IPaddr2 \
        params ip=192.168.1.67 nic=ens36 cidr_netmask=24 \
        op monitor interval=10s \
        meta migration-threshold=10 is-managed=true
primitive webserver nginx \
        params configfile="/etc/nginx/nginx.conf" \
        op start timeout=40s interval=0 \
        op stop timeout=60s interval=0 \
        op monitor interval=10s timeout=60s \
        meta migration-threshold=10
group lord_balancing virtual_ip webserver shbk_server ping-gateway
clone fencing_shbk stonith_shbk
property cib-bootstrap-options: \
        have-watchdog=false \
        dc-version=2.0.1-9e909a5bdd \
        cluster-infrastructure=corosync \
        cluster-name=debian \
        stonith-enabled=true \
        no-quorum-policy=ignore \
        stonith-action=poweroff
rsc_defaults rsc-options: \

crm ресурс показать

 Resource Group: lord_balancing
     virtual_ip (ocf::heartbeat:IPaddr2):       Started
     webserver  (ocf::heartbeat:nginx): Started
     shbk_server        (systemd:shbk_server):  Started
     ping-gateway       (ocf::pacemaker:ping):  Started
 Clone Set: fencing_shbk [stonith_shbk]
     stonith_shbk       (stonith:external/ssh): Started
     Started: [ shbk-2 ]

если я тестирую свой кластер с помощью «crm cluster stop», он работает правильно, но если я тестирую свой кластер с помощью «ifconfig ens36 down» для проверки сетевого подключения, ничего не происходит. (работающий узел все еще работает, а резервный узел все еще не работает). Я хочу протестировать подключение со шлюзом по умолчанию для ping, и если подключение к шлюзу по умолчанию падает, убейте мою группу ресурсов (lord_balancing) и переместите их на другой узел. Буду признателен, если вы опубликуете решение с corosync.conf и полной конфигурацией. Спасибо