Назад | Перейти на главную страницу

Размер полосы RAID-0 для Ceph OSD

У меня есть 3 сервера, которые я буду использовать для нового кластера Ceph. Это моя первая "игровая площадка" Ceph ... Каждый сервер имеет жесткие диски 2x1TB и 6x2TB, подключенные к двум отдельным 4-канальным контроллерам SAS, каждый с кеш-памятью 1GB + BBU, поэтому я планирую оптимизировать их по пропускной способности.

Первые два диска будут использоваться в качестве массива RAID-1 для ОС и, возможно, журналов (все еще исследуют этот вопрос).

Диски с 3 по 8 будут представлены как отдельные устройства RAID-0 для использования кэшей контроллера. Однако я не понимаю, какой размер рубца будет лучшим, и, поскольку я не могу изменить его позже, не теряя данных, я решил спросить здесь. Кто-нибудь может объяснить? По умолчанию для контроллеров (LSI 9271-4i) 256k. Я вижу некоторые документы, в которых упоминается stripe width (например. Вот) по умолчанию - 64 КБ, но я все еще не уверен в этом. Интересно, что на эту тему нет дискуссий. Может быть, потому что многие люди запускают такие настройки в режиме JBOD или потому, что это не имеет большого значения ...

Поскольку это будет мой первый кластер, я постараюсь максимально использовать настройки по умолчанию.

Максасила в основном правильная, но кое-что не понимает. Сами кеши дисков должны иметь отключенный кеш записи, так как он не работает от батареи. Использование контроллера SAS с батарейным питанием для кеша записи RAID0, хотя это нормально и повышает производительность, это отличается от собственного внутреннего кеша записи диска (который, я согласен, должен быть отключен).

Год назад у нас было такое же решение. Согласно Эта статья, Использование RAID 0 может в некоторых случаях повысить производительность. Согласно жесткому диску CEPH и рекомендациям FS, предлагается отключить кэш жесткого диска. Итак, я думаю, что основные моменты из этих двух статей вместе: лучше использовать JBOD и отключить кеш записи жестких дисков.