Назад | Перейти на главную страницу

балансировка нагрузки виртуального IP-адреса pacemaker с помощью clone и clusterip

Я пытаюсь сделать шлюз с балансировкой нагрузки для группы натренированных машин. У меня есть 3 узла centos. Первоначально предполагалось, что только один узел будет иметь IP-адрес внутреннего шлюза, и это хорошо работает. Транспортные потоки.

Затем я пробую балансировку нагрузки на шлюзе с помощью параметра clusterip_hash / clone. Внизу есть создание ресурса с ПК, мое небольшое ограничение местоположения (не перемещайте ip на машину, у которой нет "интернета") и, наконец, команда clone.

После клонирования ресурса я вижу, что они работают правильно на двух хостах, и к каждому из них добавлено правило iptables:

Chain INPUT (policy DROP)
target     prot opt source               destination         
CLUSTERIP  all  --  anywhere             gateway              CLUSTERIP hashmode=sourceip-sourceport clustermac=81:48:85:71:7F:47 total_nodes=2 local_node=2 hash_init=0

Проблема заключается в том, что как только запись arp изменяется с текущего реального физического Mac любого шлюзового компьютера на clustermac, показанный в iptables, все машины с natted теряют подключение к Интернету.

Я добавил ведение журнала iptables для отброшенных пакетов, но вроде ничего не отбрасывается. При этом вроде ничего не проходит. (10.10.0.52 - случайно выбранный хост natted, пытающийся проверить связь с Google, если виртуальный IP-клон удален и заменен на один плавающий IP-адрес, трафик снова будет течь)

[root@three ~]# tcpdump -nni enp1s0 icmp
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on enp1s0, link-type EN10MB (Ethernet), capture size 65535 bytes
16:40:36.898612 IP 10.10.0.52 > 8.8.8.8: ICMP echo request, id 18875, seq 188, length 64
16:40:37.906651 IP 10.10.0.52 > 8.8.8.8: ICMP echo request, id 18875, seq 189, length 64

Конфигурация кардиостимулятора, выполняется через ПК:

pcs  resource create ip_internal_gw ocf:heartbeat:IPaddr2 params ip="10.10.0.250" cidr_netmask="24" nic="enp1s0" clusterip_hash="sourceip-sourceport" op start interval="0s" timeout="60s" op monitor interval="5s" timeout="20s" op stop interval="0s" timeout="60s"

pcs resource clone ip_internal_gw meta globally-unique=true master-max="2" master-node-max="2" clone-max="2" clone-node-max="1" notify="true" interleave="true"

pcs constraint location ip_internal_gw rule id=ip_internal_gw_needs_internet score=-INFINITY not_defined pingd or pingd lte 0


[root@three ~]# pcs status                                                                                                                                                                                                                                                                                                    
Cluster name: 
Last updated: Wed May 25 16:51:15 2016          Last change: Wed May 25 16:35:53 2016 by root via cibadmin on two.gateway.shire
Stack: corosync
Current DC: two.gateway.shire (version 1.1.13-10.el7_2.2-44eb2dd) - partition with quorum
3 nodes and 5 resources configured

Online: [ one.gateway.shire three.gateway.shire two.gateway.shire ]

Full list of resources:

Clone Set: ping-clone [ping]
    Started: [ one.gateway.shire three.gateway.shire two.gateway.shire ]
Clone Set: ip_internal_gw-clone [ip_internal_gw] (unique)
    ip_internal_gw:0   (ocf::heartbeat:IPaddr2):       Started three.gateway.shire
    ip_internal_gw:1   (ocf::heartbeat:IPaddr2):       Started two.gateway.shire

Что блокирует трафик? Я уверен, что мне не хватает чего-то базового.

Кажется, что:

iptables -A PREROUTING -t mangle -i eth0 -m cluster --cluster-total-nodes 2 --cluster-local-node 1 --cluster-hash-seed 0xdeadbeef -j MARK --set-mark 0xffff
iptables -A PREROUTING -t mangle -i enp1s0 -m cluster --cluster-total-nodes 2 --cluster-local-node 1 --cluster-hash-seed 0xdeadbeef -j MARK --set-mark 0xffff

помог запустить его.