Я читал несколько статей о хранилище на VMware ESXi. Было упомянуто о преимуществах использования vMotion, DRS и т. Д. Для достижения высокой доступности. Единственное, что я продолжал видеть, было слово «Общее хранилище».
Что это значит?
Прямо сейчас я запускаю свой сервер ESXi с бэкэндом iSCSI (один сервер Linux).
Это считается общим хранилищем, даже если только один сервер может подключаться к одной цели.
Учитывая, что NFS допускает множество подключений к одним и тем же данным, есть ли у нее преимущества перед iSCSI?
Может кто-нибудь подскажет?
Я подумываю преобразовать свой сервер iSCSI в NFS.
Также ESXi (4.0+) поддерживает NFSv4?
Что здесь не упоминается, так это то, что файловая система VMFS, а НЕ iSCSI как таковая, делает совместное использование хранилища способным. Не все файловые системы разрешают доступ более чем из одной системы одновременно. Ясно, что NFS делает. Важно отметить, что iSCSI - это блочный уровень поверх IP, а NFS - это протокол / файловая система на уровне файлов. У NFS есть масса преимуществ, которые просто недоступны для iSCSI. Я работаю в Nexenta, и каждый день мы часами обсуждаем, что лучше. В конечном итоге все сводится к потребностям вашей среды и уровню знаний iSCSI и NFS со стороны персонала, который, как ожидается, будет ее поддерживать.
Несколько инициаторов iSCSI могут подключаться к одной цели, и при условии, что конфигурация позволяет нескольким клиентам, получить доступ к одному и тому же LUN. VMFS позволяет это, и именно так работают кластеры DRS. Без этой возможности вы не смогли бы сделать многое из того, что предлагает кластеризация, например Vmotion и т. Д.
NFS по умолчанию является общей файловой системой. Когда вы создаете хранилище данных на NFS, предполагая, что вы экспортируете NFS во все заметки в кластере DRS, все файлы, хранящиеся в хранилище данных NFS, доступны со всех хостов в кластере.
Опять же, разница в том, что NFS - это файловая система. iSCSI - это протокол SCSI-3, доставляемый через IP. Не все файловые системы, доставляемые через iSCSI, изначально могут использоваться совместно. NFS изначально является общей файловой системой.
Другой аспект заключается в том, что вы не можете уменьшить размер вашего раздела iSCSI / VMFS в вашей SAN, однако вы можете уменьшить размер раздела NFS в зависимости от того, какой SAN у вас есть. Netapp может уменьшить размер раздела NFS (если, конечно, есть свободное место).
Небольшой побочный эффект для ваших виртуальных машин, когда вы используете NFS, вы не сможете увидеть производительность диска вашей виртуальной машины.
К одной цели iSCSI может подключаться более одного инициатора, если цель настроена для этого.
Все преимущества общего хранилища в ESXi доступны как с iSCSI, так и с NFS. Кроме того, то, что «лучше» использовать, является субъективным и здесь не к месту.
Я предпочитаю iSCSI NFS для работы хранилищ данных, потому что
iSCSI гораздо безопаснее, поскольку позволяет взаимную аутентификацию. Пропускная способность ввода-вывода iSCSI меньше, чем у NFS. iSCSI использует MPIO (Multi Pathing), плюс вы получаете блочное хранилище и маскировку LUN.
Хранилища данных NFS в моем случае были по крайней мере подвержены повреждению с помощью SRM. Скорость NFS раньше была немного лучше с точки зрения задержки, но теперь она номинальная со всеми улучшениями, которые были внесены в конвейер. На мой взгляд, NFS дешевле, так как можно смонтировать почти все, что является общим.
Я, конечно, предпочитаю iSCSI, но решения iSCSI или даже FC немного дороже. Я бы смонтировал NFS и iSCSI DS, запустил VMwark и посмотрел, каковы ваши IOP, это, вероятно, будет лучшим способом. Что касается связывания сетевых карт, где бы вы связались? Уровень устройства (ваш NAS) или уровень VKernel?
И чтобы ответить на ваш вопрос, ESXi 4 / 4.1 поддерживает только NFSv3.
Я ежедневно работаю в среде устранения неполадок NetApp, и вот несколько примечаний, которые я хотел бы добавить, которые могут повлиять на окончательное решение о том, какой метод подключения к внутреннему хранилищу может быть им наиболее подходящим.
iSCSI может иметь значительно меньшие накладные расходы, поскольку это блочный протокол (управление файловой системой на стороне хоста), и с ним можно использовать MPIO, как указано выше, что является большим преимуществом для него.
Но следует также отметить, что если вы планируете использовать тонкое предоставление (без гарантии места в хранилище) в своей среде, вам также может потребоваться реализовать некоторую стратегию, чтобы снова освободить блоки на стороне хранилища после того, как они будут освобождены от host lun (с использованием VAAI, UNMAP API - http://blogs.vmware.com/vsphere/2012/04/vaai-thin-provisioning-block-reclaimunmap-in-action.html ). Кроме того, я считаю, что VMware могла на некоторое время отключить VAAI UNMAP в некоторых выпусках из-за некоторых последствий для производительности ( http://blogs.vmware.com/vsphere/2011/09/vaai-thin-provisioning-block-reclaimunmap-issue.html ).
Если кто-то использует NFS, то блоки изначально управляются устройством хранения, и, таким образом, перфорация для очистки после освобождения блоков не требуется.
Еще одно соображение в большой картине ...