Назад | Перейти на главную страницу

Так что же на самом деле делает сетевую карту серверного уровня?

У нас есть пара серверов, на которых размещены виртуальные машины Citrix. Мы планируем добавить в нашу сеть хранилище SAN, чтобы обеспечить быструю миграцию и высокую доступность. Возникает вопрос, какие сетевые адаптеры покупать для серверов. У нас есть множество доступных слотов pci (e) на серверах, поэтому плотность не имеет значения. Мы не собираемся делать 10Gbs.

Проблемы заключаются в поддержке гигабитных, jumbo-фреймов (на которую, по-видимому, способен любой старый ник) и обеспечении того, чтобы никакая вычислительная нагрузка не возлагалась на сам сервер (никаких сделок типа softmodem).

Я вижу, что некоторые сетевые адаптеры рекламируют "медное соединение". Есть ли в этом польза? Какими еще вариантами я не должен идти на компромисс?

Разве не было бы предпочтительнее иметь один порт по сравнению с двойным в целях резервирования? Это вроде того, что я почерпнул из этот поток SF.

Установка San, которую мы рассматриваем, если кому-то интересно:

Clariion: http://www.emc.com/collateral/hardware/data-sheet/h4097-clariion-ax4-ds.pdf (техническая спецификация) http://www.tigerdirect.com/applications/SearchTools/item-details.asp?EdpNo=6076470 9679,99 долл. США

ИЛИ

Dell: http://www.dell.com/us/business/p/powervault-md3200i/pd?refid=powervault-md3200i&baynote_bnrank=0&baynote_irrank=1&~ck=dellSearch 10 749 долларов США (не настроено как напечатанное - базовый 1 ТБ) 12 905,00 долларов США (настроено 8 ТБ)

Управляемый коммутатор: http://www.newegg.com/Product/Product.aspx?Item=N82E16833122074 x1 599 долларов США ИЛИ http://www.tigerdirect.com/applications/SearchTools/item-details.asp?EdpNo=3334993&sku=C50-2162 x1 350 долларов

Изменить: чтобы прояснить цель настройки SAN, на рисунке ниже показана добавленная изолированная сеть, которую мы добавляем для хранилища для 2 серверов xen. Нам не нужен (я считаю) модный коммутатор, только один с поддержкой jumbo-фреймов, стандартными функциями управления и возможностью vlan:

Подождите - вы просите сетевые карты серверного уровня, но хотите купить коммутатор за 350 долларов ?! Я этого не понимаю ...

Обычно коммутаторы GigE с 48 портами "серверного уровня" стоят где-то около 3000-5000 долларов США. Возможно, вы захотите обратить внимание на такие вещи, как на стороне коммутатора, например, на стек для межстекового LACP.

Что касается сетевой карты, например:

  • правильный интерфейс DMA и хорошие драйверы, поддерживающие прерывания MSI-X (для этого проверьте обзоры производительности)
  • соответствие скорости интерфейса PCI-E
  • несколько портов при необходимости
  • Механизм разгрузки TCP
  • Функции L2, такие как 802.1Q и 802.1X
  • механизм разгрузки iSCSI
  • Поддержка GBIC, если вам нужно смешивать и согласовывать WAN и LAN на одной сетевой карте

Вы спрашиваете о создании небольшой сети хранения данных iSCSI, и вы на правильном пути. Мы делаем нечто очень похожее с серверами Dell и массивами MD3000i.

На представленной схеме показаны две ссылки от сервера к коммутатору. Я думаю, вам может сойти с рук одна ссылка, если вы не объединяете их для большей пропускной способности. Как показано, такая конструкция защищает от отказа сетевой карты сервера, кабеля и порта коммутатора. Лучшим (дорогостоящим) подходом было бы добавление второго коммутатора и подключение каждого сервера к каждому коммутатору, а также перекрестное соединение коммутаторов. Это защищает от потери всего коммутатора, но добавляет сложность Spanning Tree, который представляет собой протокол уровня 2 для предотвращения петель, которые в противном случае возникают в сети при установке 2 коммутаторов. Оттуда два коммутатора обычно присоединяются к двум головкам SAN, которые сами по себе перекрестно соединены ... но это больший масштаб, чем вы спрашивали. Пройдите весь путь по единому пути и смиритесь с незначительным повышенным риском в торговле ради простоты ухода и кормления.

Что касается простоты ухода и кормления: хорошо подумайте об относительной вероятности отказа оборудования по сравнению с отказом программного обеспечения. Я чувствую, что вижу 5: 1 соотношение человеческих глупостей и фактических отказов HW, и поэтому, если вы не собираетесь делать мега-доллар с полным дублированием всего, оставайтесь простыми.

Если вы включите Jumbo Frames, вам придется использовать Jumbo Frames повсюду в этой сети. Вы набросали выделенную сеть хранения, так что можете это сделать - мне не так повезло.

Если вы связываете эти серверные сетевые карты для обеспечения пропускной способности, рассмотрите возможность добавления дополнительных связанных интерфейсов от коммутатора к головке SAN. Если каждый из N серверов выполняет X-трафик, сан должен идти в ногу с NX-трафиком, за вычетом небольшого ложного фактора переподписки.

Я считаю, что «медное соединение», о котором вы спрашивали, - это просто медная витая пара CAT6 Ethernet, используемая для iSCSI. По мере того, как вы переходите в мир SAN более высокого уровня, вы видите больше оптоволоконных соединений и плат HBA с различными модульными физическими разъемами - SFP, GBIC и т. Д.

По касательной, как вы распределяете пользовательские сеансы между серверами Citrix? Имеется ли какая-либо активная балансировка нагрузки (Netscaler?). Если у вас есть серверы HA Xen, как процесс переключения при отказе выглядит с точки зрения пользователя? Убедитесь, что вы определили механизм, с помощью которого эта сеть хранения данных действительно улучшает работу пользователей.

Отредактировано для добавления: вы также можете оценить более традиционный общий кластер хранения с прямым подключением. Я делаю это с Windows, поэтому у меня нет подробностей о Xen / Linux, но это диск SAS, совместно используемый двумя узлами. Примером является Dell MD3000 (не модель «i»). (Для Dell вам также понадобится соответствующий HBA, SAS 5 / e, iirc). Если вы никогда не собираетесь добавлять дополнительные вычислительные узлы, создание кластера SAS может быть проще и дешевле. Чем бы вы ни занимались: подтверждать и тестировать, тестировать, тестировать. По моему опыту, люди создают кластер, чтобы добавить «высокую доступность», не определяя, что это означает в реальном выражении, а затем не проверяют, защищает ли он их от сбоев, на которые они ожидали (действительно надеялись).

Так что же на самом деле делает сетевую карту серверного уровня?

В первую очередь качество.

С точки зрения производства различия между серверной и сетевой платой «потребительского» уровня в некоторой степени аналогичны различиям между надлежащей серверной материнской платой и платой обычного ПК. Во-первых, компоненты, как правило, более высокого качества, выбираются с более жесткими допусками и более высокими запасами. Также, как правило, предусмотрена лучшая схема защиты для защиты от повреждений, вызванных выходящими за пределы допустимыми значениями напряжениями, такими как всплески, наведенные в сетевом кабеле, которые могут поджечь обычную сетевую карту.

Используемые наборы микросхем обычно имеют некоторый уровень избыточности, при котором части схемы могут быть включены и отключены по мере необходимости для обработки условий сбоя. Совсем не похоже на наличие резервных блоков питания на сервере.

Прошивка также, вероятно, будет лучше в сетевой карте серверного уровня, что обычно позволяет ей обрабатывать сетевые условия, которые могут поставить обычную сетевую карту на колени.