Назад | Перейти на главную страницу

Какая сегодня самая быстрая сетевая технология для соединения серверов

У меня есть 4 сервера Intel 2 socket Xeon. Какая на сегодняшний день сетевая технология является самой быстрой, чтобы связать их вместе? Планирование сценария с одноразовыми «менее лучшими» результатами. Сеть используется, чтобы сообщить другим потокам, какой на данный момент лучший сценарий.

И следует ли использовать коммутатор маршрутизации, чтобы остановить конфликты Ethernet.

С точки зрения минимальной задержки Infiniband RDMA не имеет себе равных. Мы видим <3us (микросекунды) времени rtt между двумя серверами с переключением между ними, на которых запущены CentOs. Насколько мне известно, в настоящее время просто не существует решения с меньшей задержкой. 10gigE - это определенно более высокая пропускная способность, но также значительно более высокая задержка.

Поскольку я не знаю вашей платформы или требований, это лучшее, что я могу сделать.

Что вы подразумеваете под «конфликтами Ethernet» и как они возникают?

Если вы запускаете кластерное приложение, у вас есть множество возможностей помимо Ethernet, но вам нужно выяснить, какие характеристики лучше всего подходят для вашего приложения. Часто вам нужно найти компромисс между низкой задержкой связи и высокой пропускной способностью. В экстремальных ситуациях вы можете захотеть потратить больше денег на использование меньшего количества узлов с более высокой мощностью, чтобы уменьшить задержку доступа к памяти, а не на уровнях доступа к сети. И, конечно же, вам следует взглянуть на свое приложение, чтобы увидеть, есть ли способы его переписать, чтобы лучше работать с имеющимися технологиями.

Википедия предлагает удобный список сетевых технологий и номинальной пропускной способности который вы можете использовать для начала исследования. Он дает номинальную скорость (фактическая пропускная способность будет ниже) и не обсуждает задержку.

Обратите внимание: если вы не используете самые последние и самые лучшие серверы, вам нужно сначала посмотреть, что у вас есть, с точки зрения внутренних шин. Конечно, вы можете подключить карту 10GigE к 64-битной шине PCI 66 МГц и работать быстрее, чем с картой GigE, но вы не сможете приблизиться к номинальной скорости сети в 1 ГБ / с или около того, потому что шина может только делаю около 500 МБ / сек.

Что касается того, следует ли вам «использовать коммутатор маршрутизации для предотвращения конфликтов Ethernet», если вы говорите об использовании коммутатора вместо концентратора, в наши дни это в значительной степени автоматическое. На самом деле хабы найти чертовски сложно. Однако не все переключатели одинаковы; один, который может обрабатывать передачу двух хостов со скоростью 100 Гбит / с, может не обрабатывать шесть, выполняющих то же самое.

10-гигабитный Ethernet доступен у некоторых поставщиков, однако вы платите за это больше. 1 Гиг - это норма.

Мы используем серверы HP Bl490c G6, каждый из которых выдает до 6 x 10 Гбит / с, что тоже неплохая цена - конечно, они не могут постоянно заполнять все эти порты, даже с двумя E55xx Xeon, и уж тем более с VMWare.