Назад | Перейти на главную страницу

Требуется ПК / стойка очень высокой плотности

Я серверный парень, в особенности мастер лезвия, и хорошо знаю свое высококлассное оборудование, но у меня есть новая небольшая задача, в которой я немного заблудился, и вы, возможно, сможете помочь.

У меня есть спецификация сервера, которая будет выполнять определенную работу, я посмотрел на ее виртуализацию, и по скучным причинам она не будет работать (во всяком случае, пока что).

Машины должны иметь;

Теперь мне нужно разместить как можно больше из них в центре обработки данных, я также хочу, чтобы они были как можно более дешевыми (с учетом базовых характеристик), что меня обычно не беспокоит, поэтому мне не нужен эксперт. Мне понадобится несколько сотни или тысячи таких машин, и у них есть ограничение на 8 кВт на стойку (это может немного увеличиться).

Обычно я использую лезвия HP, но даже их BL2x220 работают очень дорого и в любом случае не дают мне того, что мне нужно. Я посмотрел на SGI / Rackable, но все они ориентированы на сервер с Xeons и т. Д.

Что ты думаешь? Я знаю, что это напрямую не связано с сервером, но по профессиональным причинам. Спасибо за вашу помощь.

Если вы создаете довольно много из них, вы можете разработать свой собственный корпус, используя что-то вроде http://www.protocase.com может быть путь. Я считаю, что BackBlaze выбрал именно этот путь: http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/

Найдите материнскую плату для потребительского или недорогого сервера, соответствующую вашим потребностям, и оберните ее в чехол. Если ваши карты достаточно короткие, вы можете поместить их в 2U. (Не думаю, что видел переходники под прямым углом для PCI-e).

Вы также можете поговорить со своим поставщиком, если вы хороший покупатель и вам нужны некоторые из этих вещей, вы можете получить индивидуальную настройку опций, особенно если поставщик решит, что другие клиенты захотят что-то подобное.

Как насчет подхода Google (или, по крайней мере, когда-то). Не обращайте внимания на корпус, просто возьмите материнскую плату + необходимые компоненты и несколько полок с какой-то изоляцией. На нормальной 42U 4 поста стойку я предположил бы, что вы могли бы получить 4 или 5 Mini-ITX плат типа на одной полке.

Если бы не требование звуковой карты Dell M610x 's в шасси M1000e может быть вариантом. Вы получите совокупные преимущества более эффективного питания \ охлаждения от (довольно) современного блейд-шасси, а M610X предоставит вам два полноразмерных слота PCIe x16, которые могут поддерживать необходимое энергопотребление. Это лопасти полной высоты, хотя на самом деле они не такие уж плотные, но ваш бюджет мощности в любом случае, я думаю, убьет самые плотные решения. Основными недостатками являются проблема со звуковой картой, стоимость, конечно, поскольку это достаточно приличные серверы с двумя сокетами, общая плотность невелика на 8 серверов в 10u. Платформа 610 является излишней для ваших требований к процессору и оперативной памяти, но вы можете настроить их с одним недорогим Xeon 5600 и 4 ГБ оперативной памяти, а не с двумя X5690 и 192 ГБ, и с этими компонентами они довольно скудны по энергопотреблению.

Вы, безусловно, можете получить загрузку PXE \ iSCSI со встроенного Broadcoms, бездисковая конфигурация тоже подойдет. Поскольку ваши общие требования к питанию и вводу-выводу минимальны, вы можете сократить расходы на шасси, выбрав 4 блока питания и всего один гигабитный сквозной модуль, а не коммутатор.

У них действительно есть внутренний USB-порт, поэтому можно было бы удовлетворить требования звуковой карты с помощью небольшого USB-устройства. Размеры ограничены до 15,9 мм в ширину, 57,15 мм в длину и 7,9 мм, и может быть ограничение, что это только для USB-накопителя, я не уверен.

Я был бы удивлен, если бы вы не смогли настроить стек с мощностью <300 Вт на сервер (и, возможно, намного меньше) при полной нагрузке, даже если ваши карты PCI полностью разряжены, поэтому вы сможете получить 24 из них в каждой стойке. с бюджетом мощности 8 кВт.

И даже если вы говорите, что вам не нужен KVM с централизованным управлением шасси \ iDRAC и полным подключением (MAC-адреса, управляемые шасси) на уровне сервера, варианты для чего-то в этом масштабе, безусловно, являются плюсом.

Если честно, если вы приближаетесь к диапазону тысячи, тогда может быть подходящим более индивидуальное решение, это определенно лучший способ получить действительно энергоэффективное решение, которое удовлетворяет всем требованиям без каких-либо выдумок.

В Dell Prevision R5400 это рабочая станция, смонтированная в стойке, но в ней используются процессоры Xeon и ОЗУ ECC, возможно, вы могли бы пойти на несколько компромиссов, учитывая весьма специфический характер ваших требований, и вам будет сложно найти продукт, который точно соответствует вашим требованиям, если вы не создадите их самостоятельно, что может быть ваше лучшее решение. Базовые модули Tyan Tank 1u имеют хорошую цену и поддерживают широкий спектр процессоров.

Есть ли конкретная причина, по которой вы не используете процессоры AMD?

  • AMD Phenom II X3 2,5 ГГц имеет TDP 65 Вт
  • 2,93 ГГц i3 530 имеет TDP 73 Вт

Хотя оба имеют схожую производительность. Кроме того, и процессоры, и материнские платы дешевле.

Слоты PCI-e действительно нужны? (При такой плотности найти это практически невозможно)

Если нет, вам стоит взглянуть на Dell Fortuna: http://en.community.dell.com/dell-blogs/direct2dell/b/direct2dell/archive/2009/05/19/dell-launches-quot-fortuna-quot-via-nano-based-server-for- hyperscale-customers.aspx

Rackable / SGI также выполняет настройки (набор микросхем, процессор и т. Д.), Если вы заказываете тысячи таких устройств, это не должно быть проблемой - я бы поговорил с ними о ваших конкретных потребностях.