У меня есть среда Hyper-V с более чем 8 VLAN, и мне нужно иметь виртуальную машину с интерфейсом в каждой VLAN (виртуальный межсетевой экран). Очевидно, я не могу создать виртуальную машину с более чем 8 «Сетевыми интерфейсами», и мне приходится прибегать к добавлению «Устаревших сетевых интерфейсов» для оставшихся VLAN. Учитывая, что все порты виртуального коммутатора Hyper-V имеют доступ, или, по крайней мере, это то, что мне известно, я не могу указать магистральный порт для одного из адаптеров, а затем настроить гостя для использования этого порта для всех VLAN (или, по крайней мере, некоторых VLAN - лучше иметь один адаптер для внутренних сетей и один для внешних сетей). Таким образом, некоторые сети VLAN ограничены эмулируемым трафиком со скоростью 100 Мбит / с. Хотя в настоящее время я могу назначать виртуальные локальные сети, чтобы весь производственный трафик не попал под это ограничение, я хотел бы знать следующее на будущее:
Как настроить сетевой адаптер виртуальной машины так, чтобы он работал как магистраль, или как добавить больше гигабитных сетевых адаптеров к виртуальной машине в Hyper-V 2012R2?
Я хотел бы предложить два разных инновационных подхода, которые можно было бы использовать, если бы требовались как производительность операторского уровня, так и будущая масштабируемость. Оба метода уменьшат вашу производительность и проблемы с ограничениями vLAN.
Подход SR-IOV:
Вы можете использовать SR-IOV при условии, что у вас есть сетевая карта с поддержкой SR-IOV. Ты можешь легко включить SR-IOV из диспетчера Hyper-V в диспетчере виртуальных коммутаторов.
Теоретически это должно дать вам производительность NIC с исходной скоростью благодаря обходу VMbus, однако имейте в виду, что этот метод основан на аппаратных зависимостях, которые могут противоречить некоторым ключевым полезным концепциям NFV и виртуализации, по этой причине я бы также предложил следующий подход :).
Я также перечислил поддерживаемые сетевые адаптеры внизу этого ответа.
Подход OvS + DPDK:
Следующим методом, который я предлагаю, будет использование функциональности коммутатора Hyper-V, при этом значительно повысив производительность DataPlane. Включив OpenvSwitch (OvS) на уровне VMM / хоста. Это позволило бы виртуализировать уровень коммутатора и обеспечить дополнительные функции, такие как распределенное переключение для отключения масштабирования и переключения системы ... очевидно, это может быть чрезвычайно полезно для реализации на более раннем этапе, а не на более позднем этапе, что значительно снижает сложность масштабирования и предоставляя вам современную инфраструктуру (ваши друзья и коллеги будут в восторге)!
Далее идет элемент DPDK; DPDK - это драйвер режима опроса пользовательского пространства (PMD), используемый для обхода медленного сетевого стека Linux, основанного на прерываниях (который не был разработан с учетом виртуализации). В сети есть много документации о DPDK и OvS + DPDK.
Ограничивая IRQ с помощью PMD и обходя сетевой стек Linux Kernal, вы получите огромный скачок в производительности сетевой карты виртуальной машины, в то же время получая все больше и больше функциональных возможностей, дающих вам лучший контроль над виртуальной инфраструктурой, именно так современные сети развертываются прямо сейчас. .
SR-IOV поддерживает сетевые адаптеры: