Назад | Перейти на главную страницу

Помогает ли VMDirectPath повысить производительность дискового IOPS?

Я читал материалы VMDirectPath, и они говорят, что это помогает повысить производительность на корпусе карты 10 Гбит / с. Конечно, если несколько виртуальных машин напрямую обращаются к физической карте 10GbE, узкое место VMM можно избежать с помощью VMDirectPath.

Здесь у меня два вопроса:

  1. Если у меня 3 карты 1GbE и я хочу использовать преимущества VMDirectPath, следует ли мне сначала привязать 3 карты? Или мне как-то привязать виртуальную машину к физическому сетевому адаптеру с помощью VMDirectPath? Является ли это возможным?

  2. Если я хочу настроить свои диски в режиме сквозной передачи в ESXi, можно ли повысить производительность?

С помощью VMDirectPath даже не пытайтесь заставить несколько виртуальных машин взаимодействовать с одним и тем же физическим оборудованием, это либо вообще не будет работать, либо работать нестабильно.

Теперь перейдем к вашим вопросам: всего с тремя сетевыми адаптерами 1 Гбит / с вы увидите лишь незначительный прирост производительности за счет использования VMDirectPath, и то действительно только с точки зрения задержки, почти никакой дополнительной полосы пропускания. Использование обычного метода vSwitch / port group может привести к насыщению одного сетевого адаптера 10 Гбит / с, его проще настроить и управлять, и он не вызывает компромиссов, как VMDirectPath делает такую ​​потерю способности vMotion. Если вы хотите воспользоваться преимуществами второго и третьего сетевых адаптеров, просто добавьте их в vSwitch, правильно подключите их к коммутаторам и установите политику пути - это намного проще, чем передавать их и объединять в виртуальной машине.

да ты жестяная банка пройдите через ваши диски, если вы действительно хотите, либо используя физический режим, либо через VMDirectPath - если вы используете последний, вы, конечно, потеряете весь контроллер для одной виртуальной машины. И да, прирост производительности будет, я бы предложил от 5% до 25% в зависимости от системы. Опять же, я бы не стал беспокоиться, вы переходите к виртуализации, но, используя эти методы, теряя при этом большую часть преимуществ, я считаю, что это контрпродуктивно.

Предполагая, что вы говорите о VMDirectPath, я думаю, вы ищете неправильное решение своей проблемы.

При использовании VMDirectPath вы теряете следующие функции:

  • VMotion Хранилище
  • VMotion
  • FT
  • Горячее добавление устройства
  • Приостановить и возобновить
  • Запись и воспроизведение

Я думаю, вам гораздо лучше связать 3 адаптера Ethernet 1 ГБ вместе в стандартном режиме агрегации каналов. Если вы реализуете объединение сетевых адаптеров в режиме балансировки нагрузки с использованием параметра «Маршрут на основе хэша IP», то для небольшого увеличения загрузки ЦП вы получите эффективный сетевой адаптер 3 Гбит / с, который обрабатывает сбой одной из карт Ethernet, и вы по-прежнему могут использовать VMotion и все другие приятные вещи в vSphere.

Есть еще много информации о конфигурации сети в этом PDF-файле VMware

Вы действительно наблюдаете проблемы с производительностью ваших дисков? Похоже, вы по сути готовы потерять все преимущества виртуализации ради увеличения производительности на несколько%, что заставляет меня думать, что вам лучше придерживаться выделенного оборудования.