Я недавно купил новый сервер HP DL380 G6. Я заменил штатный контроллер smart array p410 на LSI 9211-8i.
Я планирую использовать ZFS в качестве базового хранилища для XEN, которое будет работать на том же самом baremetal.
Мне сказали, что вы можете использовать диски SATA с контроллерами интеллектуальных массивов, но из-за того, что потребительские диски не имеют TLER, CCTL и ERC, это не рекомендуется. Так ли это?
Мне было интересно, действительно ли при использовании контроллера LSI в JBOD (сквозном режиме RAID) типы дисков, которые я использую, оказывают такое же влияние, как и на контроллер интеллектуального массива?
Я знаю, что попытка использовать систему RAID без поддержки кэша записи для виртуализации не способствует производительности. Но я думал о добавлении SSD для ZFS. Будет ли это иметь значение?
Я считаю, что так одержим использованием ZFS для дедупликации и сжатия. Я не думаю, что контроллер интеллектуального массива может выполнять какие-либо из этих функций.
Пожалуйста, не делай этого.
Если вы собираетесь запускать ZFS в Linux, делайте это с нуля без уровня виртуализации. Универсальная виртуализация и решения ZFS симпатичны, но в производстве это не стоит усилий.
Что касается дисков, вы можете использовать диски SATA на контроллере HP Smart Array, а также на контроллере LSI 9211-8i. В конфигурации ZFS отказ дисков SATA может иметь неблагоприятное воздействие на систему при работе с контроллером LSI.
Использование потребительских дисков - это именно то, что нужно. Займитесь этим, зная предостережения.
Редактировать:
Итак, вы хотите запустить файловую систему ZFS, чтобы обеспечить хранилище для локальных виртуальных машин?
В HP Smart Array P410 хороший RAID-контроллер. Что наиболее важно, ваш, вероятно, имеет кэш записи с резервным питанием от батареи или флэш-памятью. Это важно для повышения производительности. Правильное достижение того же в ZFS (на ЗИЛ) намного дороже и требует больше инженерной мысли. ZFS может не предложить вам многого по сравнению с традиционной файловой системой, такой как XFS, для этой конкретной цели.
Это было бы иначе, если бы вы использовали ZFS на выделенном сервере для предоставления хранилища для Другой гипервизоры.
Использование дисков потребительского уровня в аппаратном обеспечении серверного уровня возможно, но не рекомендуется, если вы собираетесь пользоваться поддержкой поставщика. Они будут чертовски скулить, почему вы заменили идеально поддерживаемые диски такими, не имеющими поддержки. Кроме того, это не проблема, и backblaze доказал это (http://www.getoto.net/noise/2013/11/12/how-long-do-disk-drives-last/).
Что касается выбора дисковода. Ищите диски, которые поддерживают NCQ, и все будет в порядке.
Использование дисков в режиме JBOD вызывает проблемы. Вполне возможно, что LSI-контроллер покажет вам только один большой диск (а вы этого не хотите). Что вам нужно, так это сквозной режим (в основном используйте контроллер как расширитель для подсчета портов. Проверьте, так ли это.
ZFS на Linux: не самая удачная идея. Он все еще недостаточно стабилен, но его можно использовать. Дедупинг на zfs: Довольно большой отказ, если вы планируете серьезно нагружать машину. Он имеет тенденцию кушать много оперативной памяти (в диапазоне 2-4 Гб на каждые 200-500 Гб удаленных данных). Возможно, он улучшился, но не проверял в ближайшее время. Сжатие может подойти, хотя это зависит от данных.
SSD: Да, это будет здорово. Есть несколько областей (ЗИЛ уже упоминался выше), которые значительно улучшатся, если разместить их на отдельном диске (а если на SSD, то еще больше).
Если вы категорически против ZFS, я бы предложил использовать Solaris / nexenta / opensolaris или BSD в качестве хоста хранения, а затем экспортировать его на хосты XEN через iscsi / ata-over-eternet / и т. Д.
Я настоятельно рекомендую хотя бы бегло просмотреть блог backblaze и найти идеи, которые они используют при создании своих POD.