Во-первых, извините, пожалуйста, за мое незнание по этой теме. До недавнего времени я блаженно игнорировал эту область и только недавно начал подозревать, что мне нужно принимать непосредственное участие. В любом случае я обнаруживаю, что пытаюсь исследовать потенциальные проблемы. Это первый из множества вопросов, надеюсь, я не сильно облажался.
На работе мне сказали, что у нас есть три системы ESXi 4.x в кластере. В результате того, что я был сертифицированным специалистом по оборудованию, в дополнение к другим обязанностям я проверял состояние гарантии на эти серверы и соответствующую информацию. Я заметил, что на каждом из трех серверов есть только по 2 физических сетевых адаптера. Тогда меня осенило, что основной администратор жаловался на эти три машины и не мог выполнить какую-то конкретную конфигурацию сети, которую он имел в виду.
Так что я начинаю немного чесаться, что что-то не так. Я знаю, что в прошлой жизни у нас был квартет кластерных серверов с 6 физическими сетевыми адаптерами каждый, так что у них были избыточные пути к своей частной сети только для кластера, их интерфейс iSCSI к массиву хранения, а затем избыточные пути к `` реальной '' сети.
Все это оставляет мне следующие вопросы:
Я не уверен, что это не следует настраивать как вики-страницу сообщества, поскольку некоторые вопросы основаны на мнении. Здесь можно надеяться, что есть единое мнение по крайней мере по некоторым вопросам.
Спасибо за помощь и ценим любую подсказку.
Конечно, эта модель кабельной разводки очень распространена и хорошо работает, и если вы используете vMotion или Fault Tolerance, тогда вы управляете сетевыми адаптерами периодически будут очень загружены. Если этот трафик используется совместно с трафиком виртуальных машин, это повлияет на их производительность, поэтому имеет смысл разместить их по отдельным ссылкам.
На самом деле мы обходимся двумя сетевыми адаптерами всего 10 Гбит / с на сервер, используя HP Flex-Fabric для разделения пропускной способности (1 Гбит / с для управления, 4 Гбит / с для FCoE и 5 Гбит / с для трафика виртуальных машин), это работает хорошо, но не всем подходит. Тем не менее, вы можете использовать два обычных сетевых адаптера 10 Гбит / с, они справятся отлично.
О, и да, вам нужны общие диски для vMotion / DRS или HA, и да, вам понадобится несколько vSwitches, и если конфигурация коммутатора верна, проблем с передачей виртуальных машин между хостами нет. Не могу порекомендовать дополнительное обучение, есть одно под названием «Установить и настроить», это хорошо, но сначала убедитесь, что вы немного знаете о коммутации, маршрутизации и общем хранилище.
Взгляните на: VMware vsphere Essentials плюс сетевые кабели
Конкретные рекомендации здесь: http://www.networkworld.com/community/taxonomy/term/17790
А 1. и 2.
В VMware у вас есть 3 типа сети: управление, VMkernel (IP-хранилище, то есть NFS и / или iSCSI и VMotion) и гостевые системы. В идеале вы держите их отдельно и каждый с как минимум двумя физическими интерфейсами, чтобы избежать SPOF: - Управление не требует большой полосы пропускания, но вы не хотите, чтобы виртуальные машины возились с пакетами там. - Если вы сохраните хранилища данных на NFS / iSCSI, тогда VMkernel съест пропускную способность. VMotion тоже. В идеальном мире вы разделяете их, чтобы VMotion не влияла на доступ хоста к его хранилищам данных. Если у вас нет хранилищ данных на NFS (или они редко используются, например, держите только шаблоны и не развертываете серверы десятками), это одна сеть - сеть виртуальных машин - по соображениям безопасности отдельно. Для этого может быть определено несколько виртуальных локальных сетей, соединенных через физические порты виртуального коммутатора.
Если вы не можете физически разделить сети (из-за того, что у вас недостаточно сетевых адаптеров), рекомендуется разместить их в разных VLAN и IP-подсетях.
А 3.
Чтобы кластер ESXi имел какой-либо смысл, хранилища данных (то есть дисковое пространство, где находятся ваши виртуальные машины) должны храниться в общем хранилище. Файловая система для хранилищ данных (VMFS) является параллельной и поддерживает кластеры, поэтому она не только безопасна, но и рекомендуется. Если какая-либо из ваших физических машин выйдет из строя, оставшиеся хосты перезапустят виртуальные машины. Они не смогут этого сделать, если образы дисков ВМ находятся на мертвом хосте.
А 4.
Вы можете определить VLAN, которая поступает от vSwitch на хосте A, через физические интерфейсы, физический коммутатор (и) на хост B. Если он не включает в себя что-либо еще в физическом мире, теперь у вас есть «частная» сеть, соединяющая виртуальные машины на разные хосты. Фактически, все VLAN, используемые любой виртуальной машиной, должны быть определены на всех физических хостах. Таким образом вы активируете функции VMotion и HA между хостами.
А 5.
Чтение - это хорошо. Я бы рекомендовал официальную документацию VMware - вы не получите дезинформации. Я ходил на несколько тренингов по VMware, но они ничуть не хуже трейнера. Некоторые просто запускают вас по сценарию, другие знают толк или знают, где получить ответы на свои вопросы. Кроме того, помогают кофеин, шоколад и пицца;)