У меня установлена сеть 10G между двумя моими серверами (скажем, Server1 и Server2), и я использую iperf
инструмент для измерения пропускной способности сети. Вот тестовые примеры, которые я выполнил,
Тестовый пример 1: (Прямая передача данных)
Изготовление Server 1
так как iperf server
и Server 2
так как iperf client
.
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.0 sec 8.81 GBytes 7.56 Gbits/sec
Тестовый пример 2: (обратная передача данных)
Изготовление Server 2
так как iperf server
и Server 1
так как iperf client
.
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.1 sec 1.05 GBytes 893 Mbits/sec
Более того, у меня одинаковая конфигурация на обоих серверах.
ОПЕРАЦИОННЫЕ СИСТЕМЫ: Redhat 7.4
MTU: 9000 bytes
Информация о сетевой карте 10G (через ethtool) на обоих серверах тоже одинаковы.
Settings for em2:
Supported ports: [ TP ]
Supported link modes: 100baseT/Full
1000baseT/Full
10000baseT/Full
Supported pause frame use: Symmetric
Supports auto-negotiation: Yes
Advertised link modes: 100baseT/Full
1000baseT/Full
10000baseT/Full
Advertised pause frame use: Symmetric
Advertised auto-negotiation: Yes
Speed: 10000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 0
Transceiver: external
Auto-negotiation: on
MDI-X: Unknown
Supports Wake-on: umbg
Wake-on: g
Current message level: 0x00000007 (7)
drv probe link
Link detected: yes
Сетевой коммутатор: SG350XG-2F10 12-Port 10G Stackable Managed Switch
Вот диаграмма сетевого подключения для лучшего понимания.
Может ли кто-нибудь подсказать, почему существует разница в скоростях прямого и обратного движения?
Не уверен, в чем причина. Какую версию iperf вы используете как на клиенте, так и на сервере. iperf -v должен предоставить это.
Ты можешь попробовать iperf 2.0.14a после свежей компиляции? Обратите внимание: этот код все еще находится в стадии разработки. Это может помочь или не ответить на ваш вопрос.
Боб