Назад | Перейти на главную страницу

VMware ESXi <> Synology NFS Share (физическое резервирование коммутатора)

Это моя сеть хранения:

Хост ESXi (две сетевые карты 10 ГБ) >> 2xNetgear xs712T >> Synology RS10613xs + (две сетевые карты 10 ГБ)

ESXi vmnic1 >> NG Switch 1 >> Syn NIC 1
ESXi vmnic2 >> NG Switch 2 >> Syn NIC 2


Привет.

Мое устройство Synology работает лучше при использовании NFS вместо iSCSI. Намного лучше.

На простой текстовой диаграмме выше показано, как мои устройства в настоящий момент подключены к тестовой машине ESXi. Я намерен установить эту настройку в своей производственной среде, если я смогу заставить ее работать так, как я хочу.

Мои требования: иметь общий ресурс NFS, смонтированный в качестве хранилища данных на моих хостах, выдержит отказ одного из коммутаторов Netgear.

Nic 10 ГБ в хосте ESXi 5.5u2 представляет собой двухпортовую карту Intel 82599 10 ГБ TN, которая находится на VMware HCL.

Коммутаторы Netgear xs712T (я знаю) поддерживают протокол LAG, но не для отдельных коммутаторов.

Synology RS10613xs + (DSM 5.1-5022) поддерживает возможность связывания двух сетевых адаптеров в группу LAG или «активный / резервный».

Я не уверен, что это технически возможно. Служба поддержки Synology изначально сказала, что это должно работать, но не смогла привести мне никаких примеров. Служба поддержки Netgear предложила восстановить заводские настройки коммутаторов при первых признаках проблемы и ничего толком не знала (честно говоря, они не эксперты VMware). У меня нет поддержки VMware.

Таким образом, настраивать LAG между сетевыми адаптерами Synology и коммутаторами бессмысленно, поскольку у меня есть только одна физическая ссылка на коммутатор, что делает LAG бесполезным. Я прав?

Чтобы создать LAG в этом сценарии, мне понадобятся коммутаторы, которые поддерживают etherchannel / LAG / LACP на нескольких отдельных коммутаторах, например. топовый HP / Cisco

Поэтому я мог бы получить еще одну двухпортовую сетевую карту 10 ГБ на моем хосте, чтобы попробовать две отдельные LAG-группы на двух отдельных коммутаторах, но тогда я не могу получить еще одну сетевую карту 10 ГБ в свою Synology :(

Итак, я настроил свою Synology с двумя сетевыми адаптерами, связанными как «активный / резервный», что привело к созданию одного интерфейса сетевой карты с одним виртуальным IP-адресом, который я представляю своей объединенной сетевой карте 10 ГБ на моем хосте.

Моя сетевая карта хоста настроена следующим образом:
1 vSwitch
1 VMKernel с обоими адаптерами 10 ГБ
Команда NIC:
Балансировка нагрузки: используйте явный порядок переключения при отказе
Возврат: Нет
ВСЕ ДРУГИЕ НАСТРОЙКИ ПО УМОЛЧАНИЮ

Я могу пинговать с Synology на ESXi и наоборот. Я могу удалить коммутатор Netgear, и эхо-запросы продолжают работать. Ура!!

Но когда я затем монтирую хранилище NFS и тестирую хранилище, он переходит в автономный режим, а журналы VMKernel показывают: Устройство или файловая система XXXXXXXX перешла в состояние таймаута простоя всех путей.

Я попытался снизить NFS.MaxQueueDepth до 64, что сделало его немного менее аварийным. Но все равно не может выжить после удаления коммутатора Netgear.

Я пытаюсь сделать невозможное с тем, что у меня есть?

Это мой первый пост, не торопитесь. Спасибо

Я бы сделал это со стандартными vSwitches и, возможно, с основным и резервным адаптерами NIC. Для этого вам не нужен LACP.

Создайте выделенный vSwitch. Сделайте активными одну или обе сетевые карты ... И я думаю, что это максимум, что вы можете сделать с этой настройкой, поскольку ваши коммутаторы не могут быть объединены в стек. Но позвольте мне разобраться в этом.