Назад | Перейти на главную страницу

Как физические диски, проходящие через ESXi, работают по сравнению с проходящими через HBA?

Контекст:

У меня есть операционная система SAN (Nexenta), работающая на ESXi. К нему уже подключено несколько HBA через VT-d. Все HBA для ОС SAN заполнены (нет свободных разъемов). Недавно я купил несколько твердотельных накопителей SATA для Nexenta и подключил их непосредственно к контроллеру SATA на материнской плате.

Я могу добавить эти новые твердотельные накопители в виртуальную машину Nexenta, добавив «физические диски» в профиль виртуальной машины в vSphere. В качестве альтернативы я мог бы затем подключиться к одному из HBA, но мне пришлось бы отключить / переместить существующие диски, что влечет за собой значительные проблемы.

Вопрос:

Мой вопрос: предполагая, что мои HBA-адаптеры не выполняют какого-либо модного кэширования и т. Д. И имеют ту же доступную пропускную способность шины и спецификацию SATA, что и встроенный контроллер (тот, который подключен к новым твердотельным накопителям), есть ли разница в производительности между подключением физические диски к виртуальной машине через vSphere disk добавить функциональность и подключить их к HBA, который передается на виртуальную машину через VT-d? Применяет ли метод добавления диска vSphere некоторое поведение при ретрансляции / пересылке запросов, которое может отрицательно повлиять на производительность диска по сравнению с исходной скоростью?

Анекдоты для ответов - это хорошо, но статистика лучше: я знаю, что поначалу я, вероятно, не заметлю разницы в производительности, поскольку SSD быстрые. Но я работаю в этой области достаточно долго, чтобы знать, что если есть проблема с разницей в производительности, она проявится во время критически важных операций в самый неподходящий момент :)

Пожалуйста, ознакомьтесь с примечаниями о настройке ZFS «все в одном» в моем сообщении по адресу: Размещение сервера ZFS в качестве виртуального гостя.

Если вы говорите о создании пула SSD или добавлении дисков в качестве необработанных сопоставлений устройств (RDM), игнорируйте остальную часть этого ответа. Предпочтение будет отдаваться HBA, а не RDM. При необходимости используйте расширители SAS. Основные причины - легкая переносимость, простота настройки (вы не хотите этот или этот) и соответствие тому, что вы уже настроили. Влияние на производительность незначительно. Накладных расходов на управление нет.


Если вместо этого вы думаете об использовании файлов VMDK на дисках, представленных ESXi, общий ответ таков: вы можете пойти любым путем. Разница в производительности, вероятно, не будет иметь значения. Предполагается, что приложение добавляет ЗИЛ журнал или L2ARC устройства кэширования в вашу виртуализированную систему ZFS. Бывают случаи, когда я добавляю SSD в физическую систему и добавляю VMDK поверх, чтобы представить их виртуальной машине NexentaStor. В других случаях я могу представить экземпляру весь необработанный диск.

Я основываю его на удобстве и производительности. Если бы производительность была превыше всего, мы бы не стали виртуализировать хранилище, верно? Удобная часть обладает гибкостью, позволяющей обеспечить разумный прирост производительности существующей системы без дополнительных затрат. весь 100 ГБ + SSD для использования ЗИЛ (для моих целей нужно всего 4 ГБ). Это оставляет место для L2ARC, если я ограничен каким-то другим образом.

Итак, мои вопросы будут такими:

  • Контроллер SATA вашей материнской платы поддерживается / распознается ESXi? Это 6G?
  • Что делаешь? ЗИЛ? L2ARC? Обе? Это важно, потому что L2ARC не требует больших затрат на запись, а производительность чтения будет зависеть от набора данных и коэффициента попадания в кеш. Если ZIL, вам нужна запись с более низкой задержкой, и вам нужно убедиться, что ваше устройство не будет замедлить тебя.
  • Вы изучали свой профиль чтения / записи? arcstat, сводка и зилстат даст вам некоторое представление о том, что возможно. Это также хороший способ проверить это. Попробуйте использовать VMDK, представленный ESXi, и определите узкие места при типичной рабочей нагрузке.
  • Какие типы SSD вы будете добавлять? Вы говорите о SATA, так что это сразу исключает доступные SSD высокого класса SAS. Будете ли вы использовать SSD 6G SATA?