Назад | Перейти на главную страницу

Как реализовать отказоустойчивость сети на Windows Server 2008 R2, один сервер - двойной сетевой адаптер? Только службы Windows, такие как DNS, DHCP, файловый сервер

Схема 1: Сервер, IP-адрес VIP, сетевые подключения, коммутаторы и клиенты

Привет!

У нас есть IBM x3650 M3, Dual NIC. У нас Windows Server 2008 R2. В этом окне у нас будут такие сервисы, как:

См. Прилагаемую схему. У сервера будет VIP (виртуальный IP-адрес) 172.16.0.10/24. Все удаленные клиенты будут указывать на этот VIP. У нас будет два коммутатора от Alcatel, модель OS6450 или OS6850. Между ними будет UPLINK, поскольку они будут двумя отдельными модулями (хотя, если вы порекомендуете, мы также можем настроить стек). Поэтому, если Switch 1 выйдет из строя, весь трафик будет продолжаться через Switch2 и наоборот. «Простая» отказоустойчивость.

Сейчас мы сосредоточимся только на одном сервере и одной службе (например, прокси или FTP). Как здесь реализовать отказоустойчивость? Какую конфигурацию мне использовать?

Я провел небольшое исследование и пришел к двум решениям: (1) NIC TEAMING (2) Windows NLB

Я понимаю, что с (1) NIC Teaming вы можете настроить команду nic, используя драйверы поставщика nic. Насколько я понимаю, у нас будет 1 IP-адрес и 1 MAC-адрес. Я прав? Следующим шагом будет настройка LACP на коммутаторах, верно? Проблема с этим LACP заключается в том, что обнаруживается единственная ситуация, когда оба сетевых адаптера Сервера подключены напрямую только к ОДНОМ коммутатору. В CISCO у нас будет что-то вроде этого:

источник: Как правильно настроить сервер, объединяющий несколько сетевых адаптеров в Windows Server 2008?

Если ваш драйвер сетевой карты поддерживает LACP, его также можно использовать на коммутаторе. В противном случае вам придется придерживаться статической магистрали на коммутаторе. Вот пример конфигурации для Cisco:

Switch # conf t

Переключатель (config) # int g0 / 1

Включить (config-if) # режим группы каналов 1

Switch (config-if) # выход

Переключатель (config) # int g0 / 2

Включите (config-if) # режим группы каналов 1

Switch (config-if) # конец

Для LACP вы бы сделали что-то вроде этого:

Switch # conf t

Переключатель (config) # int g0 / 1

Переключатель (config-if) # channel-proto lacp

Переключатель (config-if) # канал-группа 1 режим активен

Switch (config-if) # выход

Переключатель (config) # int g0 / 2

Переключатель (config-if) # channel-proto lacp

Переключатель (config-if) # активировать режим группы каналов 1

Switch (config-if) # end [/ code]

Проблема в том, что у нас будет два ОТДЕЛЬНЫЙ переключатели и с UPLINK между ними. Это совсем другая ситуация. Что я могу здесь настроить?

Я понимаю, что с (2) Windows NLB это очень сложная проблема. Например:

http://www.remotextensions.com/how-to-configure-network-load-balancing-nlb-in-multicast-mode/

Первая проблема связана с переполнением коммутатора: мы должны настроить NLB в многоадресной передаче, и мы должны исправить запись IP ARP и MAC-адрес на интерфейсах, к которым будет подключаться сервер.

СТАТИЧЕСКОЕ РАЗРЕШЕНИЕ ARP Глобальный командный режим Cisco: arp [ip] [cluster multicast mac] ARPA arp 192.168.1.100 03bf.c0a8.0164 ARPA

СТАТИЧЕСКОЕ РАЗРЕШЕНИЕ MAC-адресов Глобальный командный режим Cisco Например: таблица MAC-адресов статическая [MAC-адрес многоадресной рассылки] [идентификатор vlan] [интерфейс] таблица MAC-адресов статическая 03bf.c0a8.0164 vlan 1 интерфейс GigabitEthernet1 / 1 GigabitEthernet1 / 2 GigabitEthernet1 / 15 Гбит / с Ethernet 1/16

Так. Что я могу использовать здесь в моей ситуации? Я хотел бы пойти проще с NIC Teaming. Является ли это возможным? Как я могу это сделать?


Ps: см. Следующую схему:

http://s22.postimg.org/cnovh1ekx/REDUNDANCY_IN_BRIDGE_MODE_Copy2.png

http://i.imgur.com/WbHwSMH.png?1

Здравствуйте!

Мы пробовали режим моста! К сожалению, сервер, который мы опробовали, не поддерживает объединение сетевых карт, поэтому мы попробовали установить мост между обоими сетевыми адаптерами. См. Прилагаемую схему. Если я прав, сервер ведет себя как «переключатель». Избыточность работала, потому что связующее дерево на реальном коммутаторе заблокировало один из портов: вы можете видеть в выходных данных коммутатора, что порт 1/1 находится в состоянии «BLK». Затем мы провели простой тест:

(1) При подключении обоих кабелей порт 1/1 заблокирован протоколом STP, а порт 1/2 находится в состоянии ВПЕРЕД; (2) Отключил кабель от порта 1/1 и посмотрел. Проверка связи продолжилась, как и ожидалось, поскольку порт 1/1 уже заблокирован; (3) Вставьте кабель обратно в порт 1/1. Через несколько секунд пинг вернулся (связующее дерево снова стабилизировалось через несколько секунд); (4) Отсоедините кабель от порта 1/2. Опять же, через несколько секунд пинг вернулся (связующее дерево снова стабилизировалось через несколько секунд); (5) Подключите кабель обратно к порту 1/2. Снова через несколько секунд пинг вернулся (связующее дерево снова стало стабильным), и мы вернулись в исходное состояние: порт 1/1 заблокирован, а порт 1 / 2 в переднем состоянии.

Так что вы думаете о режиме моста с избыточностью, обеспечиваемой STP на реальном коммутаторе?

ps: мы попробуем избыточность с VMWare на другом сервере, используя vswitches. Я отправлю его обратно, когда будут результаты. Спасибо!

Редактировать: 24/10/2014 - 14:21

Ps: см. Следующую схему:

http://s22.postimg.org/cnovh1ekx/REDUNDANCY_IN_BRIDGE_MODE_Copy2.png

http://i.imgur.com/WbHwSMH.png?1

Здравствуйте!

Мы пробовали режим моста! К сожалению, сервер, который мы опробовали, не поддерживает объединение сетевых карт, поэтому мы попробовали установить мост между обоими сетевыми адаптерами. См. Прилагаемую схему. Если я прав, сервер ведет себя как «переключатель». Избыточность работала, потому что связующее дерево на реальном коммутаторе заблокировало один из портов: вы можете видеть в выходных данных коммутатора, что порт 1/1 находится в состоянии «BLK». Затем мы провели простой тест:

(1) При подключении обоих кабелей порт 1/1 заблокирован протоколом STP, а порт 1/2 находится в состоянии ВПЕРЕД; (2) Отключил кабель от порта 1/1 и посмотрел. Проверка связи продолжилась, как и ожидалось, поскольку порт 1/1 уже заблокирован; (3) Вставьте кабель обратно в порт 1/1. Через несколько секунд пинг вернулся (связующее дерево снова стабилизировалось через несколько секунд); (4) Отсоедините кабель от порта 1/2. Опять же, через несколько секунд пинг вернулся (связующее дерево снова стабилизировалось через несколько секунд); (5) Подключите кабель обратно к порту 1/2. Снова через несколько секунд пинг вернулся (связующее дерево снова стало стабильным), и мы вернулись в исходное состояние: порт 1/1 заблокирован, а порт 1 / 2 в переднем состоянии.

Так что вы думаете о режиме моста с избыточностью, обеспечиваемой STP на реальном коммутаторе?

ps: мы попробуем избыточность с VMWare на другом сервере, используя vswitches. Я отправлю его обратно, когда будут результаты. Спасибо!

NLB потребуется два сервера. Поскольку у вас есть только один, давайте пока откажемся от этого варианта.

Сетевое объединение можно осуществить несколькими способами. Практически любое программное обеспечение для объединения сетевых адаптеров может выполнять простое переключение на два отдельных коммутатора. На этом этапе вам не нужно будет выполнять какую-либо настройку коммутаторов для LACP, вы должны настроить программное обеспечение совместной работы для прямого переключения при отказе. В этом сценарии только одна ссылка будет активной до тех пор, пока не произойдет аварийное переключение, которое переключит активную ссылку на другую сетевую карту.

Если вы хотите использовать LACP, вы можете объединить коммутаторы в стек вместо использования восходящего канала. Настройка стекирования позволит LACP на обоих коммутаторах.

edit: Вы используете виртуальные серверы с Hyper-V? Это может изменить то, как вы строите свои сети.