Я ИТ-специалист, работающий в домашнем офисе. У меня проблемы с производительностью (копии файлов NAS), которые я пытаюсь изолировать с помощью iperf. У меня вопрос по iperf.
Инфраструктура - гигабитные коммутаторы (Netgear), а не перекрестные коммутаторы. Все переходники GigE.
Сервер 1 - Ubuntu 12.04, работает Samba
Сервер 2 - NAS4Free - работает на VMware ESXi 5.5
Моя первоначальная проблема - передача больших файлов (1 ГБ), в частности получение (клиент запрашивает файл с сервера), очень медленная, в 10 раз медленнее на сервере NAS4Free, чем на сервере Samba. В общем, я тестирую с помощью клиента Windows, но получаю аналогичные результаты от клиента Linux (также Ubuntu). Это предоставлено в информационных целях. Я думаю, что результаты iperf подчеркивают проблему, и в этом заключается мой вопрос.
Я запустил iPerf, используя настройки по умолчанию (TCP). Оба сервера примерно одинаковы, показывая скорость передачи 690 МБ и 683 МБ. Это приличная пропускная способность, и это не проблема.
Я запустил iPerf, настроенный для UDP (и сервер, и клиент). Я увеличил пропускную способность на 100 единиц - до 800 м (iperf -c ip-addr -u -b 800m). Эти результаты ясно показывают проблему на устройстве NAS4Free (работающем под VMware).
В Ubuntu / Samba - я вижу, когда достигаю предела пропускной способности. Джиттер и сбросы остаются низкими, в худшем случае на 700 м, где джиттер был 0,053, и я потерял 193 кадра из 527954, что составило 0,037% потерь.
У меня есть еще две виртуальные машины на хосте ESXi под управлением Ubuntu 12.04. Они используют те же драйверы на виртуальных сетевых адаптерах, что и на устройстве NAS4Free. Как и в случае автономного модуля Ubuntu / Samba, не было чрезмерной потери пакетов, даже когда передача перегружала линию.
На NAS4Free - это другая история, и я начинаю получать потери пакетов между 300 и 400 м, и становится только хуже. Кажется, в этом проблема.
Performance Table
Bandwidth Jitter Lost/Total Datagrams
-b 100m = 101Mbits/sec 0.030 ms 0 / 85471 (0%)
-b 200m = 202Mbits/sec 0.026 ms 196 /172284 (0.11%)
-b 300m = 301Mbits/sec 0.031 ms 514 /256312 (0.2%)
-b 400m = 390Mbits/sec 0.037 ms 11861/343757 (3.5%)
-b 500m = 391Mbits/sec 0.053 ms 45983/378627 (12%)
-b 600m = 393Mbits/sec 0.061 ms 146109/480261 (31%)
Есть мысли о том, что вызывает это? На что я должен смотреть? Какие тесты мне следует запустить?
Заранее благодарю за любую помощь. Извинения заранее. Я не часто публикую (нигде), поэтому надеюсь, что предоставил надлежащий объем информации в разумном формате.