Я оцениваю пробную версию VE LTM, 25 Мбит / с, BIG-IP 12.1.1 Build 2.0.204 Hotfix HF2
Он работает на Hyper-V на Windows Server 2012R2.
Когда я запускаю команду ping из окна консоли Hyper-V виртуальной машины LTM, я могу измерить следующее время:
пинг -I 172.27.50.1 172.27.50.151 = 7 мс .. 30 мс (эхо-запрос от внутреннего статического IP-адреса LTM к другой виртуальной машине, подключенной к тому же виртуальному коммутатору)
пинг -I 172.27.50.1 172.27.50.161 = 7 мс .. 30 мс
(эхо-запрос от внутреннего статического IP-адреса LTM к другой виртуальной машине, доступной через внешнюю сеть, через физический коммутатор)
ping -I 172.27.50.1 172.27.51.1 <1 мс (эхо-запрос от внутреннего статического собственного IP LTM к внешнему статическому собственному IP LTM)
ping -I 172.27.50.1 172.27.52.1 <1 мс (эхо-запрос от внутреннего статического IP-адреса LTM до управляющего адреса LTM)
пинг -I 172.27.50.1 172.27.51.51 = 2 мс .. 4 мс (проверка связи с внутреннего статического IP-адреса LTM на любой из настроенных виртуальных серверов LTM)
эхо-запросы между двумя устройствами по HA VLAN еще выше: десятки мс!
Я зарезервировал рекомендованное количество виртуальных ЦП и памяти для LTM VE. Я также отключил очереди виртуальных машин в PhyNIC и LTM VNIC.
Есть ли у кого-нибудь предложения по конфигурациям для проверки / изменения или процедурам устранения неполадок, чтобы выявить причину высоких задержек, указанных выше?
Мой опыт подсказывает, что лучше запустить F5 VE под VMware Player / Workstation / ESX. Я запускаю виртуальную среду под VMware ESX, и даже из удаленного местоположения, подключенного к 600M, я получаю ответы ping <1 мс.
Я не собираюсь присоединяться к войне / дискуссии между ESX и Hyper-V, но F5 VE, похоже, неплохо уживается с продуктами VMware. Вы можете посмотреть и увидеть, как LTM улучшает производительность вашего приложения, не обращая внимания на время отклика ping.