У меня есть файловый сервер с несколькими сетевыми адаптерами (1 Гбит / с), потребляемыми разными типами клиентов.
Учитывая, что на моем коммутаторе настроен хэш с использованием src и dest ip и port.
Под ручным разделением нагрузки я подразумеваю, что сетевые карты на файловом сервере имеют разные IP-адреса, а общие ресурсы монтируются через разные IP-адреса.
Чтением эта ссылка ESXi Кажется, лучше сделать ручное распределение нагрузки.
Если пропускная способность является единственным соображением, отсюда возникает вопрос, я хотел бы знать, что обеспечит большую пропускную способность?
Например, у меня может быть общий ресурс NFS с IP 1, выделенный для сервера ESXI и рабочих станций, использующих SMBA с IP 2.
Если ваш коммутатор настроен на балансировку на основе уровней 3 + 4 (IP и порт), вы, вероятно, увидите отдельный интерфейс, используемый для каждого потока данных. Скажем, у вас есть несколько подключений от одной конечной точки с использованием диапазона TCP-портов. Коммутатор почти всегда выбирает отдельный интерфейс для каждого сеанса tcp. Я видел это только однажды в нескольких сотнях различных сред.
В этом случае LACP идеален, потому что вам не нужно управлять всеми отдельными IP-адресами, которые будут использоваться клиентами. Дополнительная избыточность - дополнительный бонус.
Пропускная способность не должна быть единственным соображением - также учитывайте избыточность.
В среде с одним коммутатором LACP предложит избыточность в случае отказа одного из ваших агрегированных сетевых адаптеров. Если это произойдет при ручном распределении нагрузки, то любая служба, связанная с отказавшей сетевой картой, также выйдет из строя. Эта избыточность увеличивается, если у вас есть несколько стековых коммутаторов и каждый канал LACP подключается к другому коммутатору.
Что касается того, какой метод обеспечит большую пропускную способность, если я правильно понимаю ваш сценарий, то агрегация ссылок действительно увеличит пропускную способность только тогда, когда несколько клиентов попытаются максимизировать свою пропускную способность с сервером одновременно, тогда как ручное распределение нагрузки действительно увеличивает пропускную способность только тогда, когда есть разные клиенты, использующие каждую услугу одновременно.
Как вы думаете, какой из этих двух сценариев будет более распространен в вашей среде? И вот вам ответ.
(Например, с LACP у вас может быть 2 сервера, обращающихся к общему ресурсу NFS со скоростью 1 Гбит / с каждый. В то время как при ручном распределении нагрузки вы все равно получите только 0,5 Гбит / с на сервер, потому что они оба должны использовать одну и ту же физическую ссылку. Но если вы хотите обеспечить что вашим общим ресурсам NFS и SMB гарантировано, по крайней мере, 1 Гбит / с каждый, тогда ручное распределение нагрузки может быть подходящим вариантом).