Назад | Перейти на главную страницу

mdadm raid10 или проблемы с производительностью nfs?

У меня есть новое устройство mdadm RAID10, которое исправно, построено из 4 дисков SATA 3 со скоростью вращения 7200 об / мин:

# cat /proc/mdstat 
Personalities : [raid10] [raid1] 
md2 : active raid10 sdc3[5] sda3[4] sdb3[1] sdd3[3]
      3885267968 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

(Есть 2 других устройства mdadm, но md2 является подходящим)

Поверх md2 находится файловая система ext4, созданная с помощью:

mkfs.ext4 -m0 -L bups -b 4096 -E stride=8,stripe-width=32 /dev/md2

У этого есть ужасная производительность при использовании его в качестве цели резервного копирования через NFS. При записи одного клиента я вижу такие цифры с ожиданием ввода-вывода от ~ 30% до 50%. top:

Device:            tps    MB_read/s    MB_wrtn/s    MB_read    MB_wrtn
sda             197.00         0.00         1.07          0          1
sdb             189.00         0.00         1.09          0          1
sdc             300.00         0.00         1.78          0          1
sdd             290.00         0.00         1.78          0          1
md2             785.00         0.00         2.86          0          2

Средняя нагрузка высокая:

# uptime
 11:40:38 up 21:21,  1 user,  load average: 9.90, 9.18, 8.92

С помощью dd показывает достойную производительность:

# dd if=/dev/zero of=/bup/test.dd bs=4096 count=1024000
1024000+0 records in
1024000+0 records out
4194304000 bytes (4.2 GB) copied, 18.7801 s, 223 MB/s

Возможности подключения гигабитные. Это CentOS 6.2 x64 на совершенно новом HP DL160 Gen8 с 16 ГБ ОЗУ, который должен быть выделенной целью резервного копирования, но не с такой производительностью.

РЕДАКТИРОВАТЬ

Контроллер - HP B120i в режиме SATA AHCI.

/etc/exports на сервере:

/bup/phdv   172.31.42.30(rw,no_root_squash)

/etc/fstab извлечь на клиенте (также CentOS 6.4 x64):

svr-bup1.example.com:/bup/pronto    /mnt/bup    nfs soft    0 0

РЕДАКТИРОВАТЬ 2

Соответствующая информация от /proc/mounts:

svr-bup1.example.com:/bup/pronto /mnt/bup2 nfs4 rw,relatime,vers=4,rsize=1048576,wsize=1048576,namlen=255,soft,proto=tcp6,port=0,timeo=600,retrans=2,sec=sys,clientaddr=2001:xxxx:xxxx:xxxx::240,minorversion=0,local_lock=none,addr=2001:xxxx:xxxx:xxxx::210 0 0

При увеличении сервера RPCNFSDCOUNT число в /etc/default/nfs-kernel-server может помочь;
на клиентах, возможно, стоит попробовать поменьше rsize и wsize ценности...