Назад | Перейти на главную страницу

Озадаченный простой пропускной способностью облигаций, не могу получить больше, чем гиг.

У меня есть сервер DL380 с установленным QLogic Gigabit Ethernet. Просто пытаюсь создать связь, но не получается получить более 1 гигабайта. Все 3 кабеля от 2-х серверов подключены к коммутатору S40, где я создал LACP (Lag), соединение появляется, и лаг показывает активность, но я просто не могу получить пропускную способность более 1 Гб. Тестирую с iperf3. Пробовал все разные режимы соединения, rr, 802.3d, все, но не мог просто превышать 900 Мбит / с или около того. Я чего-то упускаю, но не могу понять.

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 9c:8e:99:0b:78:70
Active Aggregator Info:
    Aggregator ID: 4
    Number of ports: 3
    Actor Key: 9
    Partner Key: 418
    Partner Mac Address: 00:01:e8:d5:f4:f3

Slave Interface: enp3s0f1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 9c:8e:99:0b:78:70
Slave queue ID: 0
Aggregator ID: 4
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
    system priority: 65535
    system mac address: 9c:8e:99:0b:78:70
    port key: 9
    port priority: 255
    port number: 1
    port state: 63
details partner lacp pdu:
    system priority: 32768
    system mac address: 00:01:e8:d5:f4:f3
    oper key: 418
    port priority: 128
    port number: 12
    port state: 63

Slave Interface: enp4s0f0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 9c:8e:99:0b:78:72
Slave queue ID: 0
Aggregator ID: 4
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
    system priority: 65535
    system mac address: 9c:8e:99:0b:78:70
    port key: 9
    port priority: 255
    port number: 2
    port state: 63
details partner lacp pdu:
    system priority: 32768
    system mac address: 00:01:e8:d5:f4:f3
    oper key: 418
    port priority: 128
    port number: 7
    port state: 63

Slave Interface: enp4s0f1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 9c:8e:99:0b:78:74
Slave queue ID: 0
Aggregator ID: 4
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
    system priority: 65535
    system mac address: 9c:8e:99:0b:78:70
    port key: 9
    port priority: 255
    port number: 3
    port state: 63
details partner lacp pdu:
    system priority: 32768
    system mac address: 00:01:e8:d5:f4:f3
    oper key: 418
    port priority: 128
    port number: 5
    port state: 63

Пробовал всевозможные вещи Google, но, похоже, не работает. И у меня нет идей. Благодарю, если кто-то может вести меня в правильном направлении.

Спасибо.

@ewwhite право. Я просто кое-что объясню. Когда вы тестируете связь между двумя машинами, вы используете только одну сетевую карту, LACP не будет разделять пакеты между несколькими интерфейсами для одного потока / потока. Например, один поток TCP всегда будет отправлять / получать пакеты на одном и том же сетевом адаптере. Таким образом, вы можете увидеть более высокую скорость только при тестировании с более чем одним пунктом назначения. Там есть хороший ответ, где это описано.

Похоже, что связывание и LACP - одни из худших понятий в сетевых технологиях.

Но краткое объяснение заключается в том, что вы никогда не получите более одного соединения с одной парой источник-назначение. Если вам нужна большая пропускная способность для одного соединения, вам придется перейти на 10GbE.