Я заметил, что запись в raid-6 очень низкая, но когда я делаю тесты с hdparm, скорость разумная:
dd if=/dev/zero of=/store/01/test.tmp bs=1M count=10000
Выдает: 50Мб / с или даже меньше.
Hdparm дает: hdparm --direct -t / dev / vg_store_01 / logic_vg_store_01 дает 450 МБ / с
Почему записи в файл ниже, чем при тесте hdparm? Нужно ли настраивать какие-то ограничения ядра?
У меня есть адаптер Areca 1680 с дисками SAS 16x1Tb, Scientific linux 6.0
РЕДАКТИРОВАТЬ
Виноват. Извините, все единицы указаны в МБ / с
Подробнее об оборудовании:
2 контроллера Areca в двухъядерной машине. ОЗУ 16 ГБ
Прошивка для sas backplane и areca недавняя.
диски - seagate 7.200 об / мин 16x1Tb x2 raidbox. каждые 8 дисков являются raid6, поэтому всего 4 тома с lba = 64.
два тома, объединенные полосатым lvm и отформатированным ext4
размер полосы 128
когда я форматирую объем, который я вижу с помощью iotop, он пишет 400 МБ / с
iostat также показывает, что оба диска-члена lvm пишут со скоростью 450 МБ / с.
НАКОНЕЦ ЗАПИСЬ с 1600 ГБ / с
Один из рейдов снижал производительность из-за неисправного диска. Странно, что диск в режиме jbod дает 100МБ / с с hdparm как другие. После тяжелого ввода-вывода он сообщал в файлах журнала об ошибке записи (а не 10 из них). Рейд по-прежнему не был провальным или унизительным.
После замены моя конфигурация следующая:
группа томов с размером полосы 128 КБ
отформатирован в XFS
непосредственный
hdparm --direct -t / dev / vg_store01 / vg_logical_store01
/ dev / vg_store01 / vg_logical_store01: Время чтения диска O_DIRECT: 4910 МБ за 3,00 секунды = 1636,13 МБ / с
Нет прямого
hdparm -t / dev / vg_store01 / vg_logical_store01
/ dev / vg_store01 / vg_logical_store01: Считывание с буферизованного диска по времени: 1648 МБ за 3,00 секунды = 548,94 МБ / с
** dd test DIRECT **
dd if = / dev / zero of = / store / 01 / test.tmp bs = 1M count = 10000 oflag = direct 10000 + 0 записей из 10000 + 0 записей из 10485760000 байт (10 ГБ) скопировано, 8,87402 с, 1,2 ГБ / с
** БЕЗ ПРЯМОГО **
dd if = / dev / zero of = / store / 01 / test.tmp bs = 1M count = 10000 10000 + 0 записей из 10000 + 0 записей из 10485760000 байт (10 ГБ) скопировано, 19.1996 с, 546 МБ / с
Проверьте, совпадает ли ваша FS с размерами RAID. Я получаю 320 МБ / с на массиве RAID-6 с 8 дисками SATA по 2 ТБ на XFS, и я думаю, что это ограничено оценкой канала SAS 3 Гбит / с, а затем производительностью RAID-6. Вы можете получить некоторые идеи по выравниванию из эта тема.
К сожалению, вы сравниваете яблоки с апельсинами.
450 МБ / с = 56 МБ / с, что примерно соответствует тому, что вы видите в реальной жизни. Они оба дают вам одно и то же чтение (но одно в битах, другое в байтах). Вам нужно разделить 450 на 8, чтобы получить одинаковую меру для обоих.
(В вашем вопросе у вас есть заглавные буквы наоборот, теперь я могу только надеяться / предполагать, что это ошибка опечатки, потому что если вы перевернете заглавные буквы, вы получите почти идеальное совпадение)
Проверьте, можете ли вы включить кеш записи на контроллере рейда
Лучше всего, если у вас есть аккумулятор на вашем контроллере, иначе вы можете потерять данные при сбое питания
Разве тест hdparm в основном не выполняет тесты чтения с буферизацией? Вы не можете сравнивать скорости буферизованного чтения с фактическими скоростями записи и ожидать, что они будут одинаковыми на устройстве RAID6.
Хотя я ожидал бы лучшей производительности, чем запись 50 МБ / с на RAID6 такого размера с качественными дисками (1 ТБ SAS или 1 ТБ SATA?), Я бы не ожидал скорости записи 450 МБ / с.
но когда я делаю тесты с hdparm, скорость разумная
hdparm
делает не тест записывать производительность, это "только чтение". Более того, он фактически тестирует блокировать Производительность ввода-вывода при чтении, но способ вызова dd
заставляет проверить оба записывать и производительность файловой системы также (и запись в RAID-5,6 заметно медленнее, чем чтение по дизайну). Если ваша FS EXT3, например, e. g., вы можете легко потерять производительность, если не отформатируете его должным образом (взяв не с учетом параметра полного размера полосы вашего RAID).
Кроме того, довольно много людей склонны использовать полосы небольшого размера, что приводит к неоптимальному вводу-выводу на диск. Какой размер полосы был выбран при создании этого RAID?
Другой вопрос, как dd
цифры различаются, но различаются bs
параметр? Вы пробовали использовать для него полный размер полосы записи?