Назад | Перейти на главную страницу

Объединение сетевых карт ESXi 5.5 для балансировки нагрузки с помощью Cisco Etherchannel

Я использую стековый коммутатор Cisco 3750G, настроенный с etherchannel и подключенный к серверу ESXi, настроенный с объединением сетевых карт; Балансировка нагрузки как маршрутизатор на основе IP Hash. Конфигурация коммутатора Cisco: (VID 199 - ESXi-Mgmt)

interface Port-channel4

description "ESXi Mgmt"

Switchport turnk encapsulation dot1q

switchport trunk native vlan 4094

switchport trunk allowed vlan 199,200

switchport mode trunk

spanning-tree portfast trunk

!

interface GigabitEthernet2/0/2

Switchport turnk encapsulation dot1q

switchport trunk native vlan 4094

switchport trunk allowed vlan 199,200

switchport mode trunk

channel-group 4 mode on

!

interface GigabitEthernet3/0/2

Switchport turnk encapsulation dot1q

switchport trunk native vlan 4094

switchport trunk allowed vlan 199,200

switchport mode trunk

channel-group 4 mode on

Конфигурация хоста ESXi:

~ # esxcfg-vswitch -l

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks

vSwitch0         3322        4           128               1500    vmnic1

  PortGroup Name        VLAN ID  Used Ports  Uplinks

  VM Network            0        0           vmnic1

  ESXi Management       0        1           vmnic1

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks

vSwitch1         3322        6           128               1500    vmnic0,vmnic4

  PortGroup Name        VLAN ID  Used Ports  Uplinks

  ESXi-Mgmt             199      1           vmnic0,vmnic4

ПРИМЕЧАНИЕ. У меня также подключен NIC1 (другая подсеть), так что я могу получить доступ, используя свой ноутбук, находящийся в той же сети. (настройка во время установки ESXi)

У меня есть сервер, подключенный к порту коммутатора Cisco, настроенный как порт коммутатора доступа для VLAN 199.

ПРОБЛЕМА: я могу пропинговать IP 10.1.199.9 с упомянутого выше сервера, но не могу получить к нему доступ с помощью веб-клиента vsphere.

не мог бы кто-нибудь помочь мне решить проблему, поскольку мне пока не удалось найти какое-либо решение? установка кажется правильной при просмотре руководств.

Ответ о том, что протокол LACP не поддерживается стандартным vSwitch, верен. Однако Etherchannel поддерживается vSwitch. Так что вам, наверное, интересно, что не так с etherchannel?

При объединении с etherchannel один сеанс TCP / UDP не будет использовать совокупную пропускную способность всех ссылок на вашем канале. Он будет ограничен одной ссылкой. Поэтому, если у вас есть 2 ссылки по 1 ГБ в вашем etherchannel, любой сеанс никогда не превысит 1 ГБ. Другие сеансы TCP / UDP будут сбалансированы по всем каналам, помогая предотвратить насыщение, но с одним сеансом TCP / UDP истинная совокупная пропускная способность никогда не будет достигнута.

Однако Etherchannel все еще используется. Это действительно помогает предотвратить насыщение каналов связи, когда по каналу балансируются несколько сеансов. Это также полезно для создания отказоустойчивых соединений из стека коммутаторов, где вы берете порты от отдельных коммутаторов, которые участвуют в стеке или объединительной плате шасси, и помещаете их в межстековый эфирный канал, чтобы отказ одного коммутатора не сработал. ваш хост esx.

Резервные сетевые адаптеры, назначенные vSwitch, обеспечивают отказоустойчивость, но возникают некоторые прерывания из-за того, что esx заполняет таблицы CAM восходящего коммутатора MAC-адресами. Etherchannel - это ступень выше аварийного переключения сетевой карты ESX.

Выключите Etherchannel. Вы действительно не можете использовать его в описанной вами ситуации. Если вы используете стандартный vSwitch, вы можете установить политики балансировки нагрузки и использовать несколько сетевых карт с использованием IP-хэша, но на самом деле это делается на стороне ESXi. LACP / Etherchannel не вступает в игру, если вы не используете распределенный коммутатор (dvSwitch или vDS).

Существует возможность создания статической агрегации без распределенного коммутатора, но она не дает преимуществ по сравнению с балансировкой нагрузки ESXi по умолчанию. Это не обычное дело.

Если у вас нет чего-то похожего, вы определили "Группа агрегации ссылок", возможно, вы идете по неверному пути.

Мне удается исправить проблему. Я в основном настроил ESXi с настройками etherchannel и VID, как было предложено Vmware. После настройки etherchannel соединение с хостом esxi было отключено, что означает, что etherchannel настроен правильно. затем я настроил порты коммутаторов Cisco для работы в etherchannel с правильным VID. Это сработало как кусок пирога.

Вы используете распределенный коммутатор (vDS) или обычный vSwitch? LACP полностью работает только с vDS, и для этой функции требуется лицензия Enterprise Plus.

Прочитать ЭТОТ и ЭТОТ.