У меня вопрос по lacp на Cisco 2960x. Они в одной группе «1» или нет? изолированные?
Лабораторная установка: Server-4pt (linux) -> sw1 channel-group "1" Gi0 / 1-2 Server-4pt (linux) -> sw2 channel-group "1" Gi0 / 1-2 sw1 <- lacp -> sw2
Хорошо ли это работает при резервировании сети?
Спасибо всем.
Ваша диаграмма не очень ясна, поэтому я предполагаю, что у вас есть примерно такая настройка:
+-----------------------------+
| Linux bond0 with 4 slaves |
+------+-------+-------+------+
| eth0 | eth1 | eth2 | eth3 |
+------+-------+-------+------+
| | | |
| | | |
+-----+-----+ +-----+-----+
|Gi0/1|Gi0/2| |Gi0/1|Gi0/2|
+-----------+ +-----------+
| Sw1 Po1 | | Sw2 Po1 |
+-----------+ +-----------+
| |
\--switch--interconect--/
это является допустимая конфигурация, но драйвер связывания будет видеть два идентификатора агрегатора (по одному для каждого коммутатора) и будет использовать только один агрегатор за раз, поэтому вы будете балансировать нагрузку на один коммутатор и переключаться на другой коммутатор только в том случае, если переключатель выходит из строя.
Вы можете точно настроить поведение при отказе с помощью ad_select
вариант склеивания:
ad_select=bandwidth
может использоваться для аварийного переключения на основе скорости агрегатора. Скажем, у одного агрегатора есть ссылки 10 Гбит / с, а у одного агрегатора - ссылки 1 Гбит / с, 1x10 Гбит / с по-прежнему быстрее, чем 2x1 Гбит / с, поэтому вам, вероятно, лучше оставаться на одном канале 10 Гбит / с. Все ссылки в одном агрегаторе должны иметь одинаковую скорость и дуплекс.ad_select=count
может использоваться для аварийного переключения в зависимости от того, какой агрегатор имеет больше подключенных каналов, поэтому при двух агрегаторах с двумя портами, если одна ссылка выходит из строя, связь будет переключена на использование коммутатора с двумя восходящими ссылками.Вы жестяная банка настройте переключатели так, чтобы они отображались как один идентификатор агрегатора, это называется агрегацией каналов с несколькими шасси. Реализация Cisco для этого называется VPC или «виртуальный канал порта».
2960X не поддерживает VPC сам по себе, однако, если вы используете Flexstacking 2960Xs на Nexus 5000, тогда Nexus может выполнять VPC, используя порты 2960X.