Назад | Перейти на главную страницу

ВМ с более чем 8 интерфейсами GE?

У меня есть среда Hyper-V с более чем 8 VLAN, и мне нужно иметь виртуальную машину с интерфейсом в каждой VLAN (виртуальный межсетевой экран). Очевидно, я не могу создать виртуальную машину с более чем 8 «Сетевыми интерфейсами», и мне приходится прибегать к добавлению «Устаревших сетевых интерфейсов» для оставшихся VLAN. Учитывая, что все порты виртуального коммутатора Hyper-V имеют доступ, или, по крайней мере, это то, что мне известно, я не могу указать магистральный порт для одного из адаптеров, а затем настроить гостя для использования этого порта для всех VLAN (или, по крайней мере, некоторых VLAN - лучше иметь один адаптер для внутренних сетей и один для внешних сетей). Таким образом, некоторые сети VLAN ограничены эмулируемым трафиком со скоростью 100 Мбит / с. Хотя в настоящее время я могу назначать виртуальные локальные сети, чтобы весь производственный трафик не попал под это ограничение, я хотел бы знать следующее на будущее:

Как настроить сетевой адаптер виртуальной машины так, чтобы он работал как магистраль, или как добавить больше гигабитных сетевых адаптеров к виртуальной машине в Hyper-V 2012R2?

Я хотел бы предложить два разных инновационных подхода, которые можно было бы использовать, если бы требовались как производительность операторского уровня, так и будущая масштабируемость. Оба метода уменьшат вашу производительность и проблемы с ограничениями vLAN.

  • SR-IOV (Зависит от оборудования) Подход
  • Подход OvS + DPDK

Подход SR-IOV:

Вы можете использовать SR-IOV при условии, что у вас есть сетевая карта с поддержкой SR-IOV. Ты можешь легко включить SR-IOV из диспетчера Hyper-V в диспетчере виртуальных коммутаторов.

Теоретически это должно дать вам производительность NIC с исходной скоростью благодаря обходу VMbus, однако имейте в виду, что этот метод основан на аппаратных зависимостях, которые могут противоречить некоторым ключевым полезным концепциям NFV и виртуализации, по этой причине я бы также предложил следующий подход :).

Я также перечислил поддерживаемые сетевые адаптеры внизу этого ответа.

Подход OvS + DPDK:

Следующим методом, который я предлагаю, будет использование функциональности коммутатора Hyper-V, при этом значительно повысив производительность DataPlane. Включив OpenvSwitch (OvS) на уровне VMM / хоста. Это позволило бы виртуализировать уровень коммутатора и обеспечить дополнительные функции, такие как распределенное переключение для отключения масштабирования и переключения системы ... очевидно, это может быть чрезвычайно полезно для реализации на более раннем этапе, а не на более позднем этапе, что значительно снижает сложность масштабирования и предоставляя вам современную инфраструктуру (ваши друзья и коллеги будут в восторге)!

Далее идет элемент DPDK; DPDK - это драйвер режима опроса пользовательского пространства (PMD), используемый для обхода медленного сетевого стека Linux, основанного на прерываниях (который не был разработан с учетом виртуализации). В сети есть много документации о DPDK и OvS + DPDK.

Ограничивая IRQ с помощью PMD и обходя сетевой стек Linux Kernal, вы получите огромный скачок в производительности сетевой карты виртуальной машины, в то же время получая все больше и больше функциональных возможностей, дающих вам лучший контроль над виртуальной инфраструктурой, именно так современные сети развертываются прямо сейчас. .


SR-IOV поддерживает сетевые адаптеры:

  • Объединенный сетевой адаптер Intel® Ethernet серии X710
  • Объединенный сетевой адаптер Intel® Ethernet X710-DA2
  • Объединенный сетевой адаптер Intel® Ethernet X710-DA4
  • Объединенный сетевой адаптер Intel® Ethernet серии XL710
  • Объединенный сетевой адаптер Intel® Ethernet XL710-QDA2
  • Объединенный сетевой адаптер Intel® Ethernet XL710-QDA1
  • Семейство Ethernet-контроллеров Intel® X540
  • Ethernet-контроллер Intel® X540-AT1
  • Ethernet-контроллер Intel® X540-AT2
  • Семейство конвергентных сетевых адаптеров Intel® Ethernet X540
  • Объединенный сетевой адаптер Intel® Ethernet X540-T1
  • Объединенный сетевой адаптер Intel® Ethernet X540-T2
  • Семейство 10-гигабитных сетевых контроллеров Intel® 82599 Ethernet
  • 10-гигабитный сетевой контроллер Intel® Ethernet 82599EB Ethernet
  • 10-гигабитный сетевой контроллер Intel® Ethernet 82599ES Ethernet
  • 10-гигабитный сетевой контроллер Intel® Ethernet 82599EN Ethernet
  • Семейство конвергентных сетевых адаптеров Intel® Ethernet X520
  • Серверный сетевой адаптер Intel® X520-DA2
  • Серверный сетевой адаптер Intel® X520-SR1
  • Серверный сетевой адаптер Intel® X520-SR2
  • Серверный сетевой адаптер Intel® X520-LR1
  • Серверный сетевой адаптер Intel® X520-T2
  • Семейство Ethernet-контроллеров Intel® I350
  • Ethernet-контроллер Intel® I350-AM4
  • Ethernet-контроллер Intel® I350-AM2
  • Ethernet-контроллер Intel® I350-BT2
  • Семейство серверных Ethernet-адаптеров Intel® I350
  • Серверный сетевой адаптер Intel® I350-T2
  • Серверный сетевой адаптер Intel® I350-T4
  • Серверный Ethernet-адаптер Intel® I350-F2
  • Серверный Ethernet-адаптер Intel® I350-F4
  • Семейство гигабитных сетевых контроллеров Intel® 82576 Ethernet
  • Гигабитный сетевой контроллер Intel® 82576EB Ethernet
  • Гигабитный сетевой контроллер Intel® 82576NS Ethernet