Назад | Перейти на главную страницу

Большие MTU под какой-либо системой ВМ

Я почти уверен, что мы не единственный сайт, использующий jumbo-фреймы (~ 9k), верно? Что же вы делаете с виртуализацией для тех из вас, кто тоже этим занимается? А именно:

Я не использую jumbo-пакеты для iSCSI или NFS. Я действительно перемещаю тонны данных между узлами, и увеличение моих MTU помогло повысить скорость. Моя платформа - CentOS 5.x, и я бы предпочел остаться с ней, но я полагаю, возможны другие варианты? Кому ты рассказываешь!

Кто-нибудь делает что-то умное, о чем я не думаю?

[Редактировать]

Зачем мне это нужно? Что ж, все мои существующие машины используют MTU равное 9000, и место, где это происходит, находится на нашем уровне кластеризации. Если я добавлю новую машину, которая не поддерживает пакеты jumbo, она не сможет присоединиться к кластеру и не будет работать. Так что, хотя я хотел бы вернуться к вопросу «действительно ли нам нужны jumbo-пакеты?», Это гораздо более масштабный проект, чем просто запуск новой машины. Новые машины иметь чтобы иметь возможность разговаривать с кластером. Сейчас это означает развертывание на голом оборудовании, а это отстой.

Для стандартных виртуальных коммутаторов ESXi 4 это нужно делать из интерфейса командной строки. Если вы используете (неподдерживаемый) режим псевдоконсоли или (поддерживаемый) VMA, соответствующая команда будет следующей:

esxcfg-vswitch -m 9000 vSwitch0

Замените vSwitch0 соответствующими идентификаторами виртуального коммутатора и повторите, если необходимо, для всех vSwitches, которые необходимо включить для кадров 9K Jumbo.

В более крупных (гораздо более крупных) средах, где вы используете распределенные виртуальные коммутаторы, вы можете изменить MTU из графического интерфейса клиента vSphere.

Это не прямой ответ как таковой, но если вы перемещаете много данных между несколькими узлами, рассматривали ли вы Infiniband? это отлично подходит для таких вещей.

По моему опыту, jumbo-кадры действительно далеки от использования. Технология разгрузки - беспорядок, особенно вещи, которые предоставляет b-com, и коммутаторы не могут поддерживать ее достаточно хорошо.

В частности, для виртуальных машин я бы придерживался нормальных размеров MTU и улучшал скорость, используя связывание в режиме 4 или переключаясь на 10G или даже на бесконечную полосу.

Сказав это, драйверы virtio_net afaik kvm на самом деле не ограничены по скорости, поэтому, несмотря на то, что они 1G, они могут легко выйти за рамки, учитывая пропускную способность.