Назад | Перейти на главную страницу

Очень низкая производительность raid6

Я заметил, что запись в raid-6 очень низкая, но когда я делаю тесты с hdparm, скорость разумная:

dd if=/dev/zero of=/store/01/test.tmp bs=1M count=10000

Выдает: 50Мб / с или даже меньше.

Hdparm дает: hdparm --direct -t / dev / vg_store_01 / logic_vg_store_01 дает 450 МБ / с

Почему записи в файл ниже, чем при тесте hdparm? Нужно ли настраивать какие-то ограничения ядра?

У меня есть адаптер Areca 1680 с дисками SAS 16x1Tb, Scientific linux 6.0

РЕДАКТИРОВАТЬ

Виноват. Извините, все единицы указаны в МБ / с

Подробнее об оборудовании:

2 контроллера Areca в двухъядерной машине. ОЗУ 16 ГБ
Прошивка для sas backplane и areca недавняя.
диски - seagate 7.200 об / мин 16x1Tb x2 raidbox. каждые 8 ​​дисков являются raid6, поэтому всего 4 тома с lba = 64.

два тома, объединенные полосатым lvm и отформатированным ext4

размер полосы 128

когда я форматирую объем, который я вижу с помощью iotop, он пишет 400 МБ / с

iostat также показывает, что оба диска-члена lvm пишут со скоростью 450 МБ / с.

НАКОНЕЦ ЗАПИСЬ с 1600 ГБ / с

Один из рейдов снижал производительность из-за неисправного диска. Странно, что диск в режиме jbod дает 100МБ / с с hdparm как другие. После тяжелого ввода-вывода он сообщал в файлах журнала об ошибке записи (а не 10 из них). Рейд по-прежнему не был провальным или унизительным.

После замены моя конфигурация следующая:

группа томов с размером полосы 128 КБ

отформатирован в XFS

непосредственный

hdparm --direct -t / dev / vg_store01 / vg_logical_store01

/ dev / vg_store01 / vg_logical_store01: Время чтения диска O_DIRECT: 4910 МБ за 3,00 секунды = 1636,13 МБ / с

Нет прямого

hdparm -t / dev / vg_store01 / vg_logical_store01

/ dev / vg_store01 / vg_logical_store01: Считывание с буферизованного диска по времени: 1648 МБ за 3,00 секунды = 548,94 МБ / с

** dd test DIRECT **

dd if = / dev / zero of = / store / 01 / test.tmp bs = 1M count = 10000 oflag = direct 10000 + 0 записей из 10000 + 0 записей из 10485760000 байт (10 ГБ) скопировано, 8,87402 с, 1,2 ГБ / с

** БЕЗ ПРЯМОГО **

dd if = / dev / zero of = / store / 01 / test.tmp bs = 1M count = 10000 10000 + 0 записей из 10000 + 0 записей из 10485760000 байт (10 ГБ) скопировано, 19.1996 с, 546 МБ / с

Проверьте, совпадает ли ваша FS с размерами RAID. Я получаю 320 МБ / с на массиве RAID-6 с 8 дисками SATA по 2 ТБ на XFS, и я думаю, что это ограничено оценкой канала SAS 3 Гбит / с, а затем производительностью RAID-6. Вы можете получить некоторые идеи по выравниванию из эта тема.

К сожалению, вы сравниваете яблоки с апельсинами.

450 МБ / с = 56 МБ / с, что примерно соответствует тому, что вы видите в реальной жизни. Они оба дают вам одно и то же чтение (но одно в битах, другое в байтах). Вам нужно разделить 450 на 8, чтобы получить одинаковую меру для обоих.

(В вашем вопросе у вас есть заглавные буквы наоборот, теперь я могу только надеяться / предполагать, что это ошибка опечатки, потому что если вы перевернете заглавные буквы, вы получите почти идеальное совпадение)

Проверьте, можете ли вы включить кеш записи на контроллере рейда

Лучше всего, если у вас есть аккумулятор на вашем контроллере, иначе вы можете потерять данные при сбое питания

Разве тест hdparm в основном не выполняет тесты чтения с буферизацией? Вы не можете сравнивать скорости буферизованного чтения с фактическими скоростями записи и ожидать, что они будут одинаковыми на устройстве RAID6.

Хотя я ожидал бы лучшей производительности, чем запись 50 МБ / с на RAID6 такого размера с качественными дисками (1 ТБ SAS или 1 ТБ SATA?), Я бы не ожидал скорости записи 450 МБ / с.

но когда я делаю тесты с hdparm, скорость разумная

hdparm делает не тест записывать производительность, это "только чтение". Более того, он фактически тестирует блокировать Производительность ввода-вывода при чтении, но способ вызова dd заставляет проверить оба записывать и производительность файловой системы также (и запись в RAID-5,6 заметно медленнее, чем чтение по дизайну). Если ваша FS EXT3, например, e. g., вы можете легко потерять производительность, если не отформатируете его должным образом (взяв не с учетом параметра полного размера полосы вашего RAID).

Кроме того, довольно много людей склонны использовать полосы небольшого размера, что приводит к неоптимальному вводу-выводу на диск. Какой размер полосы был выбран при создании этого RAID?

Другой вопрос, как ddцифры различаются, но различаются bs параметр? Вы пробовали использовать для него полный размер полосы записи?