Назад | Перейти на главную страницу

Какие файловые системы с общими дисками люди успешно использовали с iSCSI?

Настройка выглядит примерно так.

Цель состоит в том, чтобы несколько компьютеров подключили один LUN к цели iSCSI. Идеально монтируется на чтение / запись и с поддержкой ACL.

Серверы работают под управлением GNU / Linux, поэтому предпочтительно, чтобы файловая система была доступна в ванильном ядре. Хотя при необходимости могу заняться компиляцией сторонних модулей.

Я сейчас изучаю GFS2 и OCFS2. Какие успешные развертывания сделали люди подобным образом? Есть какие-то проблемы, на которые я должен обратить внимание?

Я успешно протестировал GFS на Red Hat Cluster Suite в LAB. Устройство ограждения использует SNMP IFMIB для отключения сетевого порта, вы также можете добавить диск кворума для дополнительной безопасности. Здесь вы можете найти технические примечания

http://honglus.blogspot.com.au/2011/05/passed-25-rhca-ex436-clustering-and.html

GFS зависит от Red Hat Cluster Suite, что нелегко реализовать. Если вам действительно не нужна функция кластера, просто нужно одновременно записывать на совместно используемое блочное устройство, проверьте IBM GPFS, это намного проще реализовать, а лицензионная плата составляет всего несколько сотен долларов.

Пока используемый стек iSCSI имеет очень сильную поддержку резервирования SCSI3, все должно быть хорошо. Детали реализации файловой системы не должны иметь значения. Наибольшую озабоченность вызывает качество целевого программного обеспечения iSCSI, поскольку ошибки в нем приведут к сбоям в файловой системе и общему сбою кластеризации. В таких случаях вам нужно что-то, что полностью дает сбой, и все общепринятые кластерные файловые системы делают это.

У меня 8 веб-серверов / серверов приложений, устанавливающих несколько файловых систем OCFS2. Там хранятся обычные вещи, конфигурации Apache, журналы, vhosts и т. Д., А также код приложения. Я не участвовал в первоначальной реализации, поэтому я не могу много говорить об этом, но из того, что я припоминаю, это довольно стандартно с некоторыми изменениями.

Что касается подводных камней, он может быть несколько хрупким. Я имею в виду, что у нас было много случаев, когда, когда сервер покидал кластер и снова присоединялся к кластеру, нагрузка на все серверы резко возрастала в течение нескольких минут. Я думаю, что это была ошибка, IIRC после некоторых обновлений поведение исправлено.

Файл конфигурации кластера должен поддерживаться в одном и том же состоянии на каждом узле, что может быть проблемой.

Для нас обновления будут проблемой. Мы находимся на 1.4, я думаю, и обновление до 1.6 означает простои для всего кластера, поскольку версии несовместимы. Вы не можете смешивать две версии. Может быть, при новом развертывании это не так уж и важно.

Кроме того, имейте в виду, что кластер fs будет нести больше накладных расходов, чем обычный fs. Чем больше узлов вы добавите, тем серьезнее проблема. Решение - больше оборудования (и хорошая настройка).