Назад | Перейти на главную страницу

Debian LACP Bond eth0 Состояние перемешивания

Я установил связь LACP на 2 соединениях 1 Гбит / с на сервере HP под управлением Debian 8.x, ранее эта конфигурация была выполнена на CentOS 7.x без каких-либо проблем.

Проблема, с которой я столкнулся, - это eth0 через минуту после того, как загрузка ОС перейдет в состояние перемешивания, после завершения этапа «мониторинга».

Actor Churn State: churned
Partner Churn State: churned

Я прочитал в Интернете и, кажется, не могу найти много информации о том, что может вызвать это, у меня был DC, проверявший конфигурацию коммутатора, и он идентичен рабочей настройке CentOS.

Я прикрепил файл конфигурации сети ниже, соединение работает, однако использует только eth1, поэтому преимущества связи не предоставляются.

cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 70:10:6f:51:88:8c
Active Aggregator Info:
    Aggregator ID: 2
    Number of ports: 1
    Actor Key: 9
    Partner Key: 14
    Partner Mac Address: 54:4b:8c:c9:51:c0

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 70:10:6f:51:88:8c
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: churned
Partner Churn State: churned
Actor Churned Count: 1
Partner Churned Count: 1
details actor lacp pdu:
system priority: 65535
system mac address: 70:10:6f:51:88:8c
port key: 9
port priority: 255
port number: 1
port state: 71
details partner lacp pdu:
system priority: 65535
system mac address: 00:00:00:00:00:00
oper key: 1
port priority: 255
port number: 1
port state: 1

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 70:10:6f:51:88:8d
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
system priority: 65535
system mac address: 70:10:6f:51:88:8c
port key: 9
port priority: 255
port number: 2
port state: 63
details partner lacp pdu:
system priority: 127
system mac address: 54:4b:8c:c9:51:c0
oper key: 14
port priority: 127
port number: 29
port state: 63

Сетевые интерфейсы

auto eth0
iface eth0 inet manual
bond-master bond0

auto eth1
iface eth1 inet manual
bond-master bond0

auto bond0
iface bond0 inet manual
    bond_miimon 100
    bond_mode 802.3ad
    bond-downdelay 200
    bond-updelay 200
    bond-slaves none

auto vlan520
iface vlan520 inet static
    address  62.xxx.xxx.40
    netmask  255.255.255.0
    gateway  62.xxxx.xxxx.1
    vlan-raw-device bond0

auto vlan4001
iface vlan4001 inet static
    address  172.16.1.1
    netmask  255.255.255.0
    vlan-raw-device bond0

/etc/modprobe.d/bonding.conf

alias bond0 bonding
    options bonding mode=4 miimon=100 lacp_rate=1

Любая помощь будет оценена по достоинству.

Спасибо, Эш

Пожалуйста, обратитесь к следующей статье: https://access.redhat.com/solutions/4122011

Короткий ответ: это связано с последним обновлением ядра. Они подозревают, что следующая фиксация связана с проблемой LACP: https://git.kernel.org/pub/scm/linux/kernel/git/davem/net.git/commit/?id=ea53abfab960909d622ca37bcfb8e1c5378d21cc

Пока решение не станет доступным, имеет смысл загрузиться с более старым ядром. Проблема, о которой говорилось, происходит в следующей версии в ОС на базе RedHat:

ядро-3.10.0-957.1.3.el7

Я постараюсь поддерживать этот пост в актуальном состоянии, поскольку похоже, что последнее обновление ядра затронуло довольно много пользователей.

Дополнительная ссылка:

https://patchwork.ozlabs.org/patch/437496/