Назад | Перейти на главную страницу

Настройка HP ProCurve 2810-24G для iSCSI?

У меня есть пара ProCurve 2810-24G, которую я буду использовать с Dell Equallogic SAN и Vmware ESXi. Поскольку ESXi выполняет MPIO, я немного не уверен в конфигурации каналов между коммутаторами. Правильный ли путь между переключателями - магистраль?

Я знаю, что порты для хостов SAN и ESXi должны быть немаркированными, значит ли это, что я хочу использовать VLAN с тегами на магистральных портах?

Это более или менее конфигурация:

trunk 1-4 Trk1 Trunk 
snmp-server community "public" Unrestricted 
vlan 1 
    name "DEFAULT_VLAN" 
    untagged 24,Trk1 
    ip address 10.180.3.1 255.255.255.0 
    no untagged 5-23 
exit 
vlan 801 
    name "Storage" 
    untagged 5-23 
    tagged Trk1 
    jumbo 
exit 
no fault-finder broadcast-storm 
stack commander "sanstack" 
spanning-tree
spanning-tree Trk1 priority 4
spanning-tree force-version RSTP-operation

Equallogic PS4000 SAN имеет два контроллера, каждый с двумя сетевыми интерфейсами. Dell рекомендует подключать каждый контроллер к каждому из коммутаторов. Из документации по vmware кажется, что рекомендуется создание одного vmkernel на каждую pNIC. С MPIO это может обеспечить пропускную способность более 1 Гбит / с.

В комментариях к ответу Chopper3 были некоторые споры, которые не были хорошо информированы из-за некоторых плохо понимаемых аспектов сетевых требований Equallogic и поведения по нескольким путям.

Сначала со стороны VMware: Для начинающих на стороне ESXi текущая рекомендация при использовании программного инициатора iSCSI от VMware (для ESX \ ESXi 4.1) и Dell заключается в том, что вам следует иметь один физический Nic, сопоставленный с каждым портом VMkernel, который будет использоваться для iSCSI. Рекомендуемый сейчас процесс привязки обеспечивает это. Это требует что у вас есть только один активный физический ник и нет резервных сетевых адаптеров для каждого порта VMkernel. Склеивание не допускается. Теперь вы можете обмануть это, а потом вернуться и добавить нишу аварийного переключения, но намерение состоит в том, что MPIO будет обрабатывать аварийное переключение, поэтому это бесполезно (по крайней мере, когда все работает, как задумано VMware).

Политика множественного доступа по умолчанию разрешает активные, активные подключения к массиву Equallogic с использованием циклического перебора.

Вторая сторона Equallogic: Массивы Equallogic имеют двойные контроллеры, которые работают в активном \ резервном режиме. Для PS4000 у них есть два гигабитных сетевых адаптера на каждом контроллере. Для активного контроллера оба этих сетевых адаптера активны и могут принимать ввод-вывод от одного и того же источника. Конфигурация сети рекомендует подключать сетевые устройства массива к отдельным коммутаторам. Со стороны сервера у вас есть несколько ссылок, которые также должны быть распределены на отдельные коммутаторы. Теперь о странной части - массивы Equallogic ожидают, что все порты инициатора могут видеть все активные порты в массивах. Это одна из причин, по которой вам нужна магистраль между двумя коммутаторами. Это означает, что с хостом с двумя портами iSCSI VMkernel и одним PS4000 существует 4 активных пути между инициатором и целью: два являются «прямыми», а два проходят через ISL.

Для соединений резервного контроллера применяются те же правила, но эти сетевые адаптеры станут активными только после переключения контроллера при отказе, и применяются те же принципы. После отработки отказа в этой среде по-прежнему будет четыре активных пути.

В-третьих, для более продвинутой работы с несколькими путями: Теперь у Equallogic есть модуль расширения Multipath, который подключается к архитектуре подключаемого хранилища VMware и обеспечивает интеллектуальную балансировку нагрузки (с использованием наименьшей глубины очереди, циклического перебора или MRU) между портами VMkernel. Это не сработает, если все сетевые узлы восходящего канала vmkernel не могут подключиться ко всем активным портам Equallogic. Это также гарантирует, что количество фактически используемых путей остается разумным - в больших средах Equallogic количество допустимых путей между хостом и Equallogic Group может быть очень большим, потому что все целевые сетевые адаптеры активны, и все исходные сетевые устройства могут видеть все целевые сетевые устройства.

Четвертое для более крупных сред Equallogic: По мере увеличения масштаба среды Equallogic вы добавляете дополнительные массивы в общую группу. Все активные порты на всех массивах-членах в группе должны иметь возможность видеть все другие активные порты на всех других массивах в той же группе. Это еще одна причина, по которой вам нужны толстые каналы, обеспечивающие межкоммутаторные соединения между всеми коммутаторами в вашей структуре Equallogic iSCSI. Это масштабирование также значительно увеличивает количество допустимых активных путей между инициаторами и целями. С Equallogic Group, состоящей из 3 массивов PS6000 (четыре сетевых узла на контроллер против 2 для PS4000) и хоста ESX с двумя портами vmkernel, для стека MPIO будет доступно 24 возможных активных пути.

Пятое соединение \ агрегация каналов и ссылки между коммутаторами в среде Equallogic: Все межмассивные соединения и соединения массива инициатора <-> являются одноточечными соединениями Gigabit (или 10Gig, если у вас есть массив 10Gig). Нет необходимости в связывании на стороне сервера ESX и никакой выгоды от этого, и вы не можете связывать порты на массивах Equallogic. Единственная область, где агрегация каналов \ связывание \ все, что вы хотите называть, уместна в коммутируемой Ethernet-матрице Equallogic, - это межкоммутаторные ссылки. Эти ссылки должны иметь возможность передавать параллельные потоки, которые могут равняться общему количеству активных портов Equallogic в вашей среде - вам может потребоваться большая совокупная пропускная способность, даже если каждая точка-точка между портами массива и портами инициатора ограничена 1 Гбит / с.

В заключение: В среде Equallogic трафик от хоста (инициатора) к массиву может проходить и будет проходить по межкоммутаторному каналу. Будет ли это на конкретном пути, зависит от IP-адреса источника и назначения для этого конкретного пути, но каждый порт источника может подключаться к каждому целевому порту, и по крайней мере один из этих путей потребует пересечения ISL. В небольших средах (таких как эта) все эти пути будут использоваться и активны. В более крупных средах используется только подмножество возможных путей, но будет происходить такое же распределение. Совокупная пропускная способность iSCSI, доступная хосту (при правильной настройке), представляет собой сумму всей пропускной способности порта iSCSI vmkernel, даже если вы подключаетесь к одному массиву и одному тому. Насколько это может быть эффективным - другой вопрос, и этот ответ уже слишком длинный.

Since ESXi does MPIO, I am a little uncertain on the configuration for links between the switches. Is a trunk the right way to go between the switches?

ESX / i выполняет собственное управление путями - он не будет активен / активен на своих каналах, если два или более его канала не будут подключены к одному коммутатору или коммутаторы не будут находиться в режиме совместного использования CAM, таком как Cisco VSS - что угодно иначе будет активная / пассивная конфигурация.

Во что бы то ни стало транк между коммутаторами, если хотите, но, предположительно, у них обоих есть восходящие каналы к какому-то базовому коммутатору или маршрутизатору? если это так, то я не совсем уверен, почему вы должны соединить только два коммутатора таким образом, поскольку блоки ESX / i просто переключатся на второй коммутатор, если первый выйдет из строя (если все равно правильно настроен).

I know that the ports for the SAN and the ESXi hosts should be untagged, so does that mean that I want tagged VLAN on the trunk ports?

Я не знаю, откуда взялось это предположение, ESX / i столь же удобен в работе с тегами или без тегов, будь то для гостевого или iSCSI трафика. Тем не менее, у меня были проблемы с микшированием тегированных и немаркированных при использовании vlan по умолчанию, поэтому я всегда помечаю все сейчас и не имею vlan по умолчанию, это очень гибкая настройка и, по моему опыту, не имеет заметного снижения производительности.

Контроллер массива SAN определяет, как вы должны это подключать. Предоставляет ли он один и тот же LUN ​​на обоих портах одного контроллера? Затем порт 0 переходит к коммутатору A, порт 1 - к коммутатору B и то же самое со следующим контроллером.

Почему вы хотите использовать LACP / etherchannel против iSCSI SAN с портами восходящего канала 1 Гбит? Это вам никак не поможет. Создайте 2 vswitch с одним pNic в каждом vSwitch и подключите первый pNic к switchA, второй pNic к switchB. Это даст вам полное резервирование от сбоев контроллера / коммутатора / NIC.