Я использую стековый коммутатор Cisco 3750G, настроенный с etherchannel и подключенный к серверу ESXi, настроенный с объединением сетевых карт; Балансировка нагрузки как маршрутизатор на основе IP Hash. Конфигурация коммутатора Cisco: (VID 199 - ESXi-Mgmt)
interface Port-channel4
description "ESXi Mgmt"
Switchport turnk encapsulation dot1q
switchport trunk native vlan 4094
switchport trunk allowed vlan 199,200
switchport mode trunk
spanning-tree portfast trunk
!
interface GigabitEthernet2/0/2
Switchport turnk encapsulation dot1q
switchport trunk native vlan 4094
switchport trunk allowed vlan 199,200
switchport mode trunk
channel-group 4 mode on
!
interface GigabitEthernet3/0/2
Switchport turnk encapsulation dot1q
switchport trunk native vlan 4094
switchport trunk allowed vlan 199,200
switchport mode trunk
channel-group 4 mode on
Конфигурация хоста ESXi:
Создана новая группа портов vmkernel под названием ESXi-Mgmt и добавлены NIC0 и NIC4 (дополнительная карта NIC)
настроил vswitch и группу портов с объединением сетевых адаптеров как | Балансировка нагрузки: Маршрут на основе IP-хэша | Network Failover Detection: только статус канала | Уведомлять swtiches: Да | Запасной вариант: Да
настроен IP для группы портов как 10.1.199.9
~ # esxcfg-vswitch -l
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch0 3322 4 128 1500 vmnic1
PortGroup Name VLAN ID Used Ports Uplinks
VM Network 0 0 vmnic1
ESXi Management 0 1 vmnic1
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 3322 6 128 1500 vmnic0,vmnic4
PortGroup Name VLAN ID Used Ports Uplinks
ESXi-Mgmt 199 1 vmnic0,vmnic4
ПРИМЕЧАНИЕ. У меня также подключен NIC1 (другая подсеть), так что я могу получить доступ, используя свой ноутбук, находящийся в той же сети. (настройка во время установки ESXi)
У меня есть сервер, подключенный к порту коммутатора Cisco, настроенный как порт коммутатора доступа для VLAN 199.
ПРОБЛЕМА: я могу пропинговать IP 10.1.199.9 с упомянутого выше сервера, но не могу получить к нему доступ с помощью веб-клиента vsphere.
не мог бы кто-нибудь помочь мне решить проблему, поскольку мне пока не удалось найти какое-либо решение? установка кажется правильной при просмотре руководств.
Ответ о том, что протокол LACP не поддерживается стандартным vSwitch, верен. Однако Etherchannel поддерживается vSwitch. Так что вам, наверное, интересно, что не так с etherchannel?
При объединении с etherchannel один сеанс TCP / UDP не будет использовать совокупную пропускную способность всех ссылок на вашем канале. Он будет ограничен одной ссылкой. Поэтому, если у вас есть 2 ссылки по 1 ГБ в вашем etherchannel, любой сеанс никогда не превысит 1 ГБ. Другие сеансы TCP / UDP будут сбалансированы по всем каналам, помогая предотвратить насыщение, но с одним сеансом TCP / UDP истинная совокупная пропускная способность никогда не будет достигнута.
Однако Etherchannel все еще используется. Это действительно помогает предотвратить насыщение каналов связи, когда по каналу балансируются несколько сеансов. Это также полезно для создания отказоустойчивых соединений из стека коммутаторов, где вы берете порты от отдельных коммутаторов, которые участвуют в стеке или объединительной плате шасси, и помещаете их в межстековый эфирный канал, чтобы отказ одного коммутатора не сработал. ваш хост esx.
Резервные сетевые адаптеры, назначенные vSwitch, обеспечивают отказоустойчивость, но возникают некоторые прерывания из-за того, что esx заполняет таблицы CAM восходящего коммутатора MAC-адресами. Etherchannel - это ступень выше аварийного переключения сетевой карты ESX.
Выключите Etherchannel. Вы действительно не можете использовать его в описанной вами ситуации. Если вы используете стандартный vSwitch, вы можете установить политики балансировки нагрузки и использовать несколько сетевых карт с использованием IP-хэша, но на самом деле это делается на стороне ESXi. LACP / Etherchannel не вступает в игру, если вы не используете распределенный коммутатор (dvSwitch или vDS).
Существует возможность создания статической агрегации без распределенного коммутатора, но она не дает преимуществ по сравнению с балансировкой нагрузки ESXi по умолчанию. Это не обычное дело.
Если у вас нет чего-то похожего, вы определили "Группа агрегации ссылок", возможно, вы идете по неверному пути.
Мне удается исправить проблему. Я в основном настроил ESXi с настройками etherchannel и VID, как было предложено Vmware. После настройки etherchannel соединение с хостом esxi было отключено, что означает, что etherchannel настроен правильно. затем я настроил порты коммутаторов Cisco для работы в etherchannel с правильным VID. Это сработало как кусок пирога.