Я использую 3 узла proxmox 3.4 с использованием общего хранилища NFS с выделенным сетевым коммутатором 1 ГБ.
root@lnxvt10:~# pveversion pve-manager/3.4-11/6502936f (running kernel: 2.6.32-43-pve) root@lnxvt10:~# mount | grep 192.168.100.200 192.168.100.200:/mnt/volume0-zr2/proxmox1/ on /mnt/pve/freenas2-proxmox1 type nfs4 (rw,noatime,vers=4,rsize=32768,wsize=32768,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.100.30,minorversion=0,local_lock=none,addr=192.168.100.200)
Мои виртуальные машины основаны на qcow2.
У меня очень низкая производительность. Виртуальные машины (как Windows, так и Linux) очень медленные и обычно зависают на iowait, но при мониторинге ситуации на стороне NAS нет такой нагрузки, как ожидалось: использование Ethernet составляет около 20/30 Мбит / с.
Я не думаю, что проблема связана только с сетью, потому что iperf получает разумную скорость
Client connecting to 192.168.100.200, TCP port 5001 TCP window size: 19.6 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.100.30 port 56835 connected with 192.168.100.200 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-30.0 sec 3.26 GBytes 933 Mbits/sec
Также dd в файловой системе NAS дает лучший результат:
[root@freenas2] /mnt/volume0-zr2/proxmox1# dd if=/dev/zero of=file.dd bs=320M count=10 10+0 records in 10+0 records out 3355443200 bytes transferred in 16.386541 secs (204768244 bytes/sec)
Хорошо, узким местом может быть комбинация NFS / qcow2, но возможны ли такие плохие результаты?
РЕДАКТИРОВАТЬ
root@lnxvt10:~# pveperf CPU BOGOMIPS: 105594.48 REGEX/SECOND: 1245255 HD SIZE: 94.49 GB (/dev/mapper/pve-root) BUFFERED READS: 167.64 MB/sec AVERAGE SEEK TIME: 8.36 ms FSYNCS/SECOND: 961.94 DNS EXT: 58.04 ms DNS INT: 2002.71 ms (mydomain)
Спецификация NAS (hdparm недоступен): Том Freenas 9.3 ZFS ZRAID2 с 6 дисками SATA Hitachi Deskstar 7K3000