Назад | Перейти на главную страницу

Очень плохая производительность nfs / cifs

Я монтирую NAS под Ubuntu Linux 10.04.

К сожалению, у меня очень плохая производительность чтения / записи, хотя я экспериментировал с различными параметрами (должен признать, что я действительно не знаю, что там делать - я просто изменил размеры буфера и тому подобное).

Я нашел несколько подсказок, что Linux cifs-client известно как-то проблематично. Но используя nfs-common скорее, чем cifs дает аналогичные результаты с точки зрения производительности.

Странная вещь: когда я пытаюсь создать защищенную копию (scp) все работает нормально. К сожалению, безопасный вход разрешен только администратору NAS, так что это не вариант для повседневного использования :(.

Изменить: я пробовал монтировать с и без асинхронный вариант и протестировал желоб для блоков разного размера. Вот некоторые результаты тестов:

с участием /etc/fstab

xxx.xx.xx.xx:Share  /media/Share       nfs    rw,nodev,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountvers=3,mountproto=tcp   0       0

dd говорит мне:

dd if=/dev/zero of=/media/Share/bigfile bs=1M count=20
20+0 Datensätze ein
20+0 Datensätze aus
20971520 Bytes (21 MB) kopiert, 33,4046 s, 628 kB/s

dd if=/dev/zero of=/media/Share/bigfile bs=1k count=2000
2000+0 Datensätze ein
2000+0 Datensätze aus
2048000 Bytes (2,0 MB) kopiert, 3,60063 s, 569 kB/s

с участием /etc/fstab

xxx.xx.xx.xx:Share  /media/Share       nfs    rw,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountvers=3,mountproto=tcp,async   0       0

dd говорит мне:

dd if=/dev/zero of=/media/Share/bigfile bs=1M count=20
20+0 Datensätze ein
20+0 Datensätze aus
20971520 Bytes (21 MB) kopiert, 34,2046 s, 613 kB/s

dd if=/dev/zero of=/media/Share/bigfile bs=1k count=2000
2000+0 Datensätze ein
2000+0 Datensätze aus
2048000 Bytes (2,0 MB) kopiert, 3,79684 s, 539 kB/s

Изменить: я попытался получить доступ к другому NAS в сети с очень похожими результатами. Похоже, проблема действительно в моей клиентской системе.

Я благодарен за любые подсказки по решению этой проблемы.

Обычно подозревается синхронная запись. Попробуйте смонтировать NFS с опцией async.

Я никогда не играл с такими большими размерами и размерами. Попробуйте что-нибудь про 8k и посмотрите, может ли это вам поможет.

Редактировать:

Можете ли вы проверить на NAS, что он экспортирует файловую систему с опцией async?

Я бы тоже попробовал другой вариант, начиная с уменьшения их количества:

rw,hard,async
rw,hard,async,rsize=8192,wsize=8192
rw,hard,async,rsize=8192,wsize=8192,vers=3
rw,hard,async,rsize=8192,wsize=8192,vers=3,relatime
...

и т.д

Можете ли вы войти в NAS и следить за его производительностью? Один случай, с которым я столкнулся, - это NAS, порождающий несколько демонов NFS и умирающий под нагрузкой при подключении клиента.