Я не могу понять, почему у меня такие ужасные времена из-за моего mdadm и, в частности, из-за разделов lvm в нем.
Сделал рейд:
mdadm --create --verbose /dev/md0 --level=5 --chunk=1024 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1]
2930279424 blocks level 5, 1024k chunk, algorithm 2 [4/4] [UUUU]
Затем я создал физический том, группу томов и логические тома, затем отформатировал логические тома в ext4, используя следующие команды, которые я получил отсюда: http://busybox.net/~aldot/mkfs_stride.html
mkfs.ext3 -b 4096 -E stride=256,stripe-width=768 /dev/datavg/blah
Теперь я запутался, у меня эти уровни раньше работали очень быстро в mdadm, но теперь, когда я "оптимизировал" все, это медленнее, например, раньше:
/dev/datavg/lv_audio:
Timing buffered disk reads: 598 MB in 3.01 seconds = 198.85 MB/sec
но теперь после:
/dev/datavg/audio:
Timing buffered disk reads: 198 MB in 3.00 seconds = 65.96 MB/sec
Жалко! Что здесь произошло? Я неправильно выполнил инструкцию? Могу ли я вернуть разделы ext4 в исходное состояние, как они были? (Раньше я использовал значения по умолчанию, и они были в порядке!)
Я не проводил много тестов, но заметил, что RAID5 с четным количеством устройств работает медленно - есть чтение-изменение-запись даже с простыми dd
в мкр.
blockdev --getra /dev/datavg/audio
==? blockdev --getra /dev/md0
==?
Кроме того, я бы предпочел тестирование с time dd if=...device... of=/dev/null bs=128M count=NNN iflag=direct