Я установил связь LACP на 2 соединениях 1 Гбит / с на сервере HP под управлением Debian 8.x, ранее эта конфигурация была выполнена на CentOS 7.x без каких-либо проблем.
Проблема, с которой я столкнулся, - это eth0 через минуту после того, как загрузка ОС перейдет в состояние перемешивания, после завершения этапа «мониторинга».
Actor Churn State: churned
Partner Churn State: churned
Я прочитал в Интернете и, кажется, не могу найти много информации о том, что может вызвать это, у меня был DC, проверявший конфигурацию коммутатора, и он идентичен рабочей настройке CentOS.
Я прикрепил файл конфигурации сети ниже, соединение работает, однако использует только eth1, поэтому преимущества связи не предоставляются.
cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 70:10:6f:51:88:8c
Active Aggregator Info:
Aggregator ID: 2
Number of ports: 1
Actor Key: 9
Partner Key: 14
Partner Mac Address: 54:4b:8c:c9:51:c0
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 70:10:6f:51:88:8c
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: churned
Partner Churn State: churned
Actor Churned Count: 1
Partner Churned Count: 1
details actor lacp pdu:
system priority: 65535
system mac address: 70:10:6f:51:88:8c
port key: 9
port priority: 255
port number: 1
port state: 71
details partner lacp pdu:
system priority: 65535
system mac address: 00:00:00:00:00:00
oper key: 1
port priority: 255
port number: 1
port state: 1
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 70:10:6f:51:88:8d
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
system priority: 65535
system mac address: 70:10:6f:51:88:8c
port key: 9
port priority: 255
port number: 2
port state: 63
details partner lacp pdu:
system priority: 127
system mac address: 54:4b:8c:c9:51:c0
oper key: 14
port priority: 127
port number: 29
port state: 63
Сетевые интерфейсы
auto eth0
iface eth0 inet manual
bond-master bond0
auto eth1
iface eth1 inet manual
bond-master bond0
auto bond0
iface bond0 inet manual
bond_miimon 100
bond_mode 802.3ad
bond-downdelay 200
bond-updelay 200
bond-slaves none
auto vlan520
iface vlan520 inet static
address 62.xxx.xxx.40
netmask 255.255.255.0
gateway 62.xxxx.xxxx.1
vlan-raw-device bond0
auto vlan4001
iface vlan4001 inet static
address 172.16.1.1
netmask 255.255.255.0
vlan-raw-device bond0
/etc/modprobe.d/bonding.conf
alias bond0 bonding
options bonding mode=4 miimon=100 lacp_rate=1
Любая помощь будет оценена по достоинству.
Спасибо, Эш
Пожалуйста, обратитесь к следующей статье: https://access.redhat.com/solutions/4122011
Короткий ответ: это связано с последним обновлением ядра. Они подозревают, что следующая фиксация связана с проблемой LACP: https://git.kernel.org/pub/scm/linux/kernel/git/davem/net.git/commit/?id=ea53abfab960909d622ca37bcfb8e1c5378d21cc
Пока решение не станет доступным, имеет смысл загрузиться с более старым ядром. Проблема, о которой говорилось, происходит в следующей версии в ОС на базе RedHat:
ядро-3.10.0-957.1.3.el7
Я постараюсь поддерживать этот пост в актуальном состоянии, поскольку похоже, что последнее обновление ядра затронуло довольно много пользователей.
Дополнительная ссылка: