Назад | Перейти на главную страницу

Сеть 10GE: это все еще слишком дорого? Есть варианты?

Я строю домашний кластер, где у меня будет около 16 узлов, которые могут работать с портами 1G, но я хочу иметь 10GE на файловом сервере и центральном узле. Это все локально, поэтому кабели длиннее 3-5 м не нужны. И, конечно, я хочу потратить как можно меньше денег (не собираюсь тратить больше, чем затраты на весь кластер) :-)

Какие у меня варианты?

  1. Устаревшее решение - взять какой-нибудь коммутатор 1GE с 24-48 портами и подключиться к файловым / центральным узлам через 4-8 агрегированных каналов. Я думаю, это сработает, стоимость очень приемлема, но я не уверен, можно ли использовать столько агрегированных ссылок. И, конечно, при необходимости удвоить пропускную способность будет сложно ... :-D
  2. Коммутатор с несколькими каскадными «портами» 10GE. Насколько я понимаю, всем им требуются модули, которые стоят около 1000 долларов, поэтому мне понадобятся 4 модуля 10G и 2 карты 10GE ... Пахнет более чем 5000 долларов США ...
  3. Подключите файл и центральный узел через 2 карты 10G напрямую и поместите 4 четырехпортовых сетевых адаптера 1GE на файловый сервер. Я экономлю на 2 модулях 10G и коммутаторе, файловому серверу придется выполнять маршрутизацию пакетов, но у него все равно останется много процессора :-)
  4. Есть другие варианты? Infiniband?
  5. Адаптеры MyriNet работают нормально? Думаю, вариантов дешевле нет?
  6. Хм ... Отбросьте файловый сервер, поместите все это на центральный узел и выделите выделенный порт 1GE для каждого из узлов ... Это печально ...

Не думаю, что вы видите здесь всю картину.

Вы хотите подключить файловый сервер со скоростью 10 Гбит / с, что может показаться привлекательной идеей. То, что вы не видите, - это способность этого сервера генерировать такой объем трафика, считываемого с дисков. Получение 1 Гбит / с от файлового сервера на сегодняшний день является очень хорошим достижением. 10 Гбит / с будут не только дорогими, как вы сами осознали, но и как минимум на 90% бесполезными.

Наилучший вариант - начать устанавливать несколько молниеносно быстрых дисков на файловые серверы, если необходимо обеспечить такое большое количество операций ввода-вывода. Я твердо верю, что «доступный» (обратите внимание на кавычки) путь к этому - SSD-диски в быстрых конфигурациях RAID (то есть RAID10).

Что касается сети, то агрегат 4x1 Гбит / с отлично подойдет, и вы даже можете добавить больше позже. Обратите внимание на тот факт, что внутренние шины (читай PCI *) не всегда способны обрабатывать мультигигабитные скорости. Это особенно верно, если вы не используете материнские платы серверного уровня.

Я считаю, что это ваш единственный «доступный» вариант. Карты Infiniband не так уж и дороги. Я считаю, что вы можете найти их за ~ 150 долларов, но коммутатор будет очень дорогим.

вы можете рассмотреть возможность использования ATA через Ethernet, если хотите сэкономить на некоторых дорогих коммутаторах уровня 3. это протокол chioce для недорогого, но высокопроизводительного решения, чем любая другая файловая система, которую я знаю сегодня. А вот ванильных свитчей на 10Гб (без коммутации L3) нет.

рассматривать как POC: проект Ubuntu server 10.x и инструментов AOE http://sourceforge.net/projects/aoetools/files

https://help.ubuntu.com/community/ATAOverEthernet