Назад | Перейти на главную страницу

Как включить многопутевый ввод-вывод для хранилища VMware ESXi с поддержкой NFS?

Прямо сейчас у меня есть 3 хоста VMware ESXi, использующих оптоволоконный канал 4Gb для нашего NetApp для хранения. Я хочу перейти на NFS через Ethernet 10 Гб.

Каждый сервер ESXi имеет два порта Ethernet 10 Гбит / с, а каждый контроллер в моем NetApp имеет два порта Ethernet 10 Гбит / с. Единственное, что мне осталось достать, - это коммутаторы Ethernet.

Я хотел бы иметь два коммутатора Ethernet для резервирования, чтобы, если один коммутатор выйдет из строя, хранилище все равно будет работать, как и многопутевой ввод-вывод с двумя коммутаторами, который у меня есть сейчас.

Но как сделать то же самое для NFS через Ethernet? Я знаю, как обращаться со стороной ESXi и стороной уравнения NetApp, но я просто не знаю, что делать со стороной переключения.

Я знаю, как связать соединительные линии LACP / etherchannel, но это не работает между физически отдельными коммутаторами.

Итак, можете ли вы порекомендовать пару коммутаторов Cisco для этой цели и какие функции Cisco IOS я бы использовал для включения этого типа многопутевого ввода-вывода NFS? Я бы хотел, чтобы в коммутаторе было не менее 12 портов 10 Гбит каждый. Я знаю, что эти переключатели будут мега-дорогими, это нормально.

Моя компания только что расширила наш коммутатор шасси Cisco 4507, добавив еще один модуль Supervisor Engine и линейные карты с 6 портами 10GbE для размещения сети хранения данных (VMWare и NexentaStor / ZFS). Я знаю, что это не схема с несколькими коммутаторами, но это был хороший способ получить необходимое нам количество портов. В других отраслях промышленности кажется, что Cisco Nexus и 4900M пользуются популярностью в качестве решения, которое вы запрашиваете.

Этот документ специфичен для Linux bonding драйвер, но он содержит полезную информацию о настройке надежных сетевых топологий, как вы запрашивали.

Похоже, вы сможете делать то, что хотите, используя «одномодовую интерфейсную группу» в своих сетевых приложениях. В любой момент времени будет использоваться только один из 10-гигабайтных интерфейсов, и в случае сбоя фильтрующий элемент начнет использовать второй интерфейс. Это будет выглядеть примерно так:

vif create single vif0 e0a e0c

У вас есть файловые системы и хосты ESX, каждый из которых имеет одно подключение к каждому коммутатору.

[Этот синтаксис предназначен для Data ONTAP 7.1 или около того (задокументировано Вот); он мог быть изменен в более поздних версиях.]

Если вы еще этого не сделали, вы можете обсудить это с поддержкой NetApp. Я не уверен на 100%, что это будет работать правильно в топологии с несколькими коммутаторами, но это кажется разумным.