Мы планируем настроить 3-узловой кластер Hyper-V с динамической миграцией и аварийным переключением, используя:
Мы будем запускать эту установку из центра обработки данных и таким образом размещать наш комплект.
Может ли кто-нибудь объяснить, как мы должны настроить сетевые соединения, чтобы сделать систему избыточной?
Мы изучили эту замечательную статью, но не уверены, как правильно и надежно настроить 3 сервера: http://faultbucket.ca/2011/01/hyper-v-failover-cluster-setup/.
Я считаю, что нам нужны сетевые соединения для: живой миграции, пульса, управления, Hyper-V и т. Д.
Я предполагаю, поскольку мы запускаем его с DC, все IP-адреса должны быть общедоступными?
Серверы AD будут виртуальными машинами. По одному на каждом сервере Hyper-V, и настройка не должна быть HA.
Я был там! В прошлом году я установил аналогичный кластер (за исключением того, что у меня были устройства Fujitsu), используя iSCSI SAN для Hyper V.
На самом деле это не так сложно, но на этом пути будут препятствия. Если вы размещаетесь в колокации, я определенно репетирую вашу установку в серверной стойке в вашем собственном помещении, прежде чем перемещать ее в центр обработки данных (для этого я использовал звукоизолированный серверный шкаф).
О, еще одна вещь в стадии подготовки, вы не упоминаете об этом, но одна вещь, о которой я бы не стал беспокоиться, - это загрузка iSCSI, которая предлагается в некоторых системах iSCSI. Это сложно настроить, и это не всегда работает с избыточностью. Всегда лучше иметь один или два физических загрузочных диска на узлах, чтобы, если у вас возникли проблемы с конфигурацией сети или iSCSI, вы все равно могли их загрузить. Я использую небольшие (40 ГБ) твердотельные накопители на каждом из моих серверов в качестве загрузочных дисков.
Вам определенно понадобится отдельный AD DC. Фактически я начал с трехузлового кластера, а затем ограничил его двумя узлами плюс некластеризованный «главный узел», который выполняет резервное копирование на DPM 2010 и виртуализированном контроллере домена.
Вы упомянули 6 портов, этого может хватить. Но позвольте мне проиллюстрировать конфигурацию моего узла с 10 портами:
* Недоброжелатели часто указывают на то, что Microsoft официально не поддерживает объединение портов (тогда как VMWare поддерживает), но на самом деле официальное слово состоит в том, что они не препятствуют этому, а просто считают, что поддержка находится в руках поставщиков сетевых адаптеров. Я использую сетевые адаптеры Intel поколения ET, которые имеют определенные функции виртуальной сети, и я считаю, что они очень хорошо работают с Hyper V. Они фактически позволяют разделить команду между коммутаторами, чтобы в случае отказа одного из коммутаторов у вас был постоянный командный доступ. , немного похоже на MPIO, но для виртуальных машин.
Hyper V действительно надежен и удобен в использовании. Я бы подошел к вашей работе в следующей последовательности: 1) Настроить узлы индивидуально, установить инициатор iSCSI, установить MPIO, дать вашим портам iSCSI, транспортным и тепловым портам, портам управления разные адреса подсети.
2) Настройте Hyper V и назначьте выбранные вами порты вашей виртуальной сети 3) Затем запустите мастер проверки кластера и сформируйте кластер.
Вы всегда должны сначала назначать порты своей виртуальной сети, потому что это не позволяет их использовать кластером. Это звучит нелогично, но в основном вы собираетесь сохранять свою виртуальную сеть независимой от сети кластера. Это по-прежнему дает вам избыточность, так что не беспокойтесь. Но для этого (а другого пути нет) вам понадобится либо отдельный набор коммутаторов для вашего кластера и Hyper V (по два для резервирования), либо вам нужно будет настроить VLAN на своих коммутаторах. Я делаю последнее (используя немаркированные VLANS), и он отлично работает.
В некоторых других сообщениях здесь предлагалось использовать консультанта для выполнения этой работы. Если они знакомы с Hyper V, это может быть хорошей идеей. Это не дает вам тех глубоких знаний, которые вы могли бы получить от DIY, но это сэкономит ваше время. В прошлом году у меня было много времени, и я не стесняюсь признаться, что мне потребовалось несколько месяцев работы и выяснения вещей, чтобы все это заработало.
Удачи!
Добро пожаловать в мир боли. Вы делаете одну ошибку, которая испортит ваш опыт в семье, когда вы находитесь в мире боли из-за того, что не обдумываете вещи.
Серверы AD будут виртуальными машинами. По одному на каждом сервере Hyper-V, настройка не должна быть HA
ДУМАЙ, что ты там делаешь. Кластеризация Windows требует запуска AD, поскольку конфигурация находится в AD. ЕСЛИ по какой-либо причине произойдет сбой питания в центре обработки данных, при его восстановлении clsuter не запустится, так как нет готовых серверов AD. Вы должны быть на 100% осторожны с этим.
Я настоятельно рекомендую вам сохранить дополнительную небольшую машину (на основе Atom, если она есть), которая будет управлять AD (то есть важными ролями) с отдельным USV. Кластеризация работает хорошо, но наличие всех контроллеров AD в виртуальных машинах вызывает проблемы.
http://technet.microsoft.com/en-us/library/ff428137(WS.10).aspx
есть руководство, которое вам нужно. Вдобавок к этому рассмотрите возможность использования быстрой сетевой магистрали. Нет, не 10g ... слишком медленно, слишком дорого. Получите хороший набор карт Infiniband, переключатель Infiniband и будьте довольны БЫСТРЫМИ передачами.
SAN также может быть слишком маленьким в IOPS. Если вы говорите о 100% нагрузке на двух машинах (одна в резерве), то это МНОГО ВМ. Вы должны быть уверены, что ваши бюджеты IOPS соответствуют этому. У меня иногда возникают проблемы с 6-ю 10k Raptor Raid 10 на одном 64-гигабайтном хосте - вы используете в 4 раза больший бюджет памяти, поэтому я ожидаю, что IOPS в 4-6 раз больше (а у меня там нет баз данных, они отдельные). Убедитесь, что вы знаете, что сторона SAN достаточно хороша.
Я читаю о той же конфигурации сети, и вот кратко то, что я считаю правильным. Пожалуйста, поправьте меня, если я ошибаюсь.
Используйте два переключателя. Если невозможно объединить в стек, создайте между ними магистраль etherchannel / hp и используйте (по крайней мере) для этого столько портов, сколько у вас активно для вашей SAN. порты для этого.
Отключите одноадресное управление штормом на коммутаторах. Если возможно, используйте другие переключатели для подключения к сети. Отключить протокол Spanning Tree.
Что касается 3220i SAN, я думаю, что у него 4 порта Гбит, по два на каждом контроллере. Я думаю, что это активный пассив, и если подключить по одному каждого контроллера NIC к одному коммутатору каждый.
Забыл упомянуть, что вы должны разделить живую миграцию и SAN в разных VLAN. Избегайте использования VLAN по умолчанию (1). Используйте хорошие переключатели, буферы (или что-то в этом роде) довольно сильно влияют на производительность (так я читал).
вы смотрели на следующее
http://technet.microsoft.com/en-us/library/ff428137(WS.10).aspx
Мне довольно сложно испортить кластер Hyper-V, так что дерзайте.
Хотя для кластеризации Windows требуется запуск AD, вы можете заставить его работать очень хорошо в полностью виртуализированных средах с двумя узлами.
Я бы дал следующие рекомендации, которые хорошо послужили мне как для нашей внутренней сети, так и для сетей наших клиентов: - Зарезервируйте достаточно дискового пространства и ввода-вывода на каждом узле вашего кластера для запуска локального контроллера домена. Таким образом, служба кластеров никогда не заглядывает далеко, чтобы найти что-то, к чему можно обратиться. - Установите для службы кластера значение «Автоматический (отложенный запуск)». Таким образом, у Hyper-V будет немного больше времени для запуска до службы кластера.