Назад | Перейти на главную страницу

склеивание драйвера в centos 5.5, не работает режим balance-rr

Я создал интерфейс связывания в centos 5.5, я выбрал режим balance-rr, используя подчиненные eth6 и eth7, и ссылка на eth6 и eth7 в порядке, вот файл конфигурации:

[root@50:B3:42:00:00:A3 network-scripts]# cat ifcfg-bond1 
DEVICE=bond1
IPADDR=172.16.252.225
NETMASK=255.255.0.0
GATEWAY=172.16.0.1
MTU=9000
ONBOOT==yes
BOOTPROTO=none
USERCTL=on
BONDING_OPTS="mode=balance-rr miimon=100"

[root@50:B3:42:00:00:A3 network-scripts]# cat ifcfg-eth6
DEVICE=eth6
USERCTL=no
ONBOOT=yes
MASTER=bond1
SLAVE=yes
BOOTPROTO=none
[root@50:B3:42:00:00:A3 network-scripts]# cat ifcfg-eth7
DEVICE=eth7
USERCTL=no
ONBOOT=yes
MASTER=bond1
SLAVE=yes
BOOTPROTO=none

и интерфейс связывания создан успешно, параметры в sysfs:

[root@50:B3:42:00:00:A3 network-scripts]# cat /sys/class/net/bond1/bonding/slaves 
eth6 eth7
[root@50:B3:42:00:00:A3 network-scripts]# cat /sys/class/net/bond1/bonding/mode 
balance-rr 0
[root@50:B3:42:00:00:A3 network-scripts]# cat /sys/class/net/bond1/bonding/mii
miimon      mii_status  
[root@50:B3:42:00:00:A3 network-scripts]# cat /sys/class/net/bond1/bonding/miimon 
100

[root@50:B3:42:00:00:A3 network-scripts]# cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.4.0 (October 7, 2008)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth6
MII Status: up
Link Failure Count: 0
Permanent HW addr: 50:b3:42:00:00:74

Slave Interface: eth7
MII Status: up
Link Failure Count: 0
Permanent HW addr: 50:b3:42:00:00:75

и я могу пропинговать интерфейс связи, статус ссылки нормальный:

# ping 172.16.252.225 
PING 172.16.252.225 (172.16.252.225) 56(84) bytes of data.
64 bytes from 172.16.252.225: icmp_seq=1 ttl=64 time=1.88 ms
64 bytes from 172.16.252.225: icmp_seq=2 ttl=64 time=0.122 ms
64 bytes from 172.16.252.225: icmp_seq=3 ttl=64 time=0.112 ms
64 bytes from 172.16.252.225: icmp_seq=4 ttl=64 time=0.110 ms
64 bytes from 172.16.252.225: icmp_seq=5 ttl=64 time=0.117 ms

затем я использую IOmeter для чтения потока и записи на диски через интерфейс связывания, чтобы увидеть распределение потока данных, режим интерфейса связывания - balance-rr, я использую команду для анализа потока данных:

sar -n DEV 2 100

но результат не такой, как ожидалось:

# sar -n DEV 2 100
Linux 2.6.18-194.17.1.el5 (50:B3:42:00:00:A3)   04/28/2012

06:32:32 PM     IFACE   rxpck/s   txpck/s   rxbyt/s   txbyt/s   rxcmp/s   txcmp/s  rxmcst/s
06:32:34 PM        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00
06:32:34 PM      eth0    318.78   4316.24  19691.88 439105.58      0.00      0.00      0.00
06:32:34 PM    inner0      0.00      0.51      0.00     47.72      0.00      0.00      0.00
06:32:34 PM      eth5      1.02      0.00     93.40      0.00      0.00      0.00      0.00
06:32:34 PM      eth6   4499.49      0.00 2631274.62      0.00      0.00      0.00      0.00
06:32:34 PM      eth7    236.55      0.00  14350.76      0.00      0.00      0.00      0.00
06:32:34 PM      eth8      0.00      0.00      0.00      0.00      0.00      0.00      0.00
06:32:34 PM      sit0      0.00      0.00      0.00      0.00      0.00      0.00      0.00
06:32:34 PM     bond0      0.00      0.00      0.00      0.00      0.00      0.00      0.00
06:32:34 PM     bond1   4736.04      0.00 2645625.38      0.00      0.00      0.00      0.00

мы можем видеть, что поток данных не сбалансирован, большая часть потока данных идет на eth6, некоторые параметры были установлены неправильно или есть другие ошибки, вы можете мне помочь? большое спасибо !!!

информация о машине и системе:

Linux 2.6.18-194.17.1.el5 x86_64  GNU/Linux

версия драйвера склеивания:

 v3.4.0 (October 7, 2008)

NIC :

intel 82574L 1000Mb/s

переключатель:

H3C S5800

# interface GigabitEthernet1/0/7 port link-aggregation group 1
# interface GigabitEthernet1/0/9 port link-aggregation group 1
# interface GigabitEthernet1/0/12 port link-aggregation group 1
# interface GigabitEthernet1/0/22 port link-aggregation group 

Моя машина подключена к этим 4 портам на коммутаторе. В то же время я настроил тип линк-порта соответствующего интерфейса как доступ.

Вы не показываете конфигурацию коммутатора. Как правило, для правильной работы режима balance-rr требуется конфигурация Etherchannel (Cisco) или транка на коммутаторе. Есть ли у вас группировка на Коммутатор H3C S5800?

Видеть заметки здесь.

The balance-rr, balance-xor and broadcast modes generally
require that the switch have the appropriate ports grouped together.
The nomenclature for such a group differs between switches, it may be
called an "etherchannel" (as in the Cisco example, above), a "trunk
group" or some other similar variation.