Я нахожусь в процессе переделки сети iSCSI на работе. В настоящее время у нас есть следующее оборудование:
Текущая настройка:
Весь трафик iSCSI находится на собственном коммутаторе и находится в сети 192.168.1.x. Весь остальной сетевой трафик проходит через собственный сетевой коммутатор и находится в сети 10.10.x.x. У нас есть 2 сетевых карты (1 встроенная сетевая карта Broadcom и 1 сетевая карта Intel Pro 1000) для каждого сервера ESX в активном / активном состоянии, подключенного к одному коммутатору PC 6224, выделенному для iSCSI. Все 4 порта NIC на задней панели MD3000i также подключены к одному коммутатору.
Проблема с этой настройкой заключается в том, что коммутатор обеспечивает большую единую точку отказа. Мы пытаемся исправить / исправить это, настроив сеть с двумя коммутаторами для трафика iSCSI для избыточности. У меня есть 2 новых коммутатора PowerConnect 6224, которые мы будем использовать для этой новой сети. Текущий коммутатор, который у нас есть для трафика iSCSI, будет затем использоваться для резервирования на стороне LAN сети или использоваться в качестве сети vMotion только между 4 серверами ESX. (vMotion в настоящее время представляет собой перекрестное соединение между двумя серверами ESX
Я несколько раз разговаривал с Dell, пытаясь понять эту новую сетевую настройку, прежде чем мы получим 2 новых сервера ESX, которые будут подключаться к MD3000i, где хранятся наши виртуальные машины. Я пришел к выводу, что лучше всего:
Я не уверен, что объединение двух коммутаторов PowerConnect в стек - лучшая идея. Из-за того, что в случае отказа главного коммутатора стек перезагрузится, что приведет к отключению сети, в то время как стек повторно выберет нового мастера. Что для меня звучит так, как будто это не обеспечит избыточности / высокой доступности, которую мы ищем.
Поскольку MD3000i имеет 4 соединения для трафика iSCSI (2 для контроллера 0 и 2 для контроллера 1), подключите сторону 0 к коммутатору A, а затем сторону 1 к коммутатору B. Затем подключите наши серверы ESX к каждому коммутатору для трафик iSCSI.
Мое замешательство по поводу настройки связано с тем, как настроен сервер ESX. Я не уверен, как следует обращаться с двумя объединенными сетевыми картами. Насколько я понимаю, объединенные сетевые адаптеры должны быть подключены к одному коммутатору, но мы будем подключать их к двум коммутаторам. Нужно ли нам разрывать объединение и создавать новый vSwitch для каждого соединения, чтобы переключать A и B?
Есть ли лучший способ настроить эту сеть или направление, в котором я пытаюсь двигаться, лучше всего?
Обновление: я сейчас читаю руководство по настройке iSCSI для ESX 4. Я отправлю ответ / помечу ответ, как только я закончу читать этот документ.
Хорошо структурированный подход, и вы задаете все правильные вопросы. Ваш предложенный редизайн превосходен.
ESX 3.5 на самом деле не поддерживает многопутевость программного инициатора iSCSI, но он с радостью переключится на другой активный или резервный восходящий канал на vSwitch, если канал не работает по какой-либо причине. В VI3.5 Руководство по настройке iSCSI SAN есть информация по этому поводу, не так много, как хотелось бы, но она достаточно ясна. Вам не нужно ничего делать на стороне ESX при переключении, но вы больше не получите никаких эффектов агрегации каналов (потому что ваши исходящие каналы идут к двум отдельным коммутаторам без стека), только аварийное переключение. Учитывая слабость многопутевого обмена в стеке iSCSI ESX 3.5, это, вероятно, не окажет существенного влияния, но может, потому что у вас есть несколько целей iSCSI, так что имейте это в виду. Я уверен, что вы это уже знаете, но Jumbo-кадры не поддерживаются программным инициатором в ESX 3.5, так что это ничего не даст вам, пока вы не перейдете на ESX 4.
При настройке портов ESX vSwitch и VMkernel для iSCSI с ESX4 рекомендуется создать несколько портов VMkernel с сопоставлением 1: 1 для восходящих физических сетевых адаптеров. Если вы хотите создать для этого несколько vSwitches, вы можете или можете использовать параметры объединения сетевых адаптеров на уровне порта, чтобы у вас был один сетевой адаптер, назначенный как активный для каждого порта VMkernel, с 1 или более в качестве резервных. После того, как вы настроили ports \ vSwitch, вам необходимо связать порты с многопутевым стеком iSCSI, и тогда он будет более эффективно обрабатывать как multipathing, так и failover. Учитывая способ, которым это работает, нет необходимости беспокоиться об объединении коммутаторов, драйвер multipath выполняет работу на уровне ip. Это всего лишь краткое представление о том, как это работает, это очень подробно описано в VI 4 Руководство по настройке iSCSI SAN. Это объяснит все, что вам нужно сделать, в том числе как правильно настроить поддержку Jumbo-кадров.
Что касается стекирования, я не думаю, что вам это нужно или вы хотите делать это для этой конфигурации, на самом деле, рекомендуемый Dell дизайн для сред MD3000i iSCSI не предусматривает стекирования коммутаторов, насколько я могу вспомнить, именно по той причине, по которой вы упоминание. Для других решений iSCSI (Equallogic) требуются каналы с высокой пропускной способностью между массивами, поэтому Dell рекомендует стек, но у меня никогда не было удовлетворительного объяснения того, что происходит при выходе из строя главного устройства. Я почти уверен, что отключение во время новых главных выборов будет короче, чем таймауты iSCSI, поэтому виртуальные машины не должны выходить из строя, но это не то, с чем мне комфортно, и все определенно остановится на дискомфортный период времени.
тот же переключатель будет означать связывание в режиме 4, вместо этого вы можете перейти на аварийное переключение (ESX должен поддерживать это) Любой тип объединения, который обеспечивает аварийное переключение и не нужно настраивать на коммутаторе должен делать ИМО