Похоже, есть много разногласий в отношении к установке серверов, монтируемых в стойку. Были темы, обсуждающие кабельные кронштейны и другие аксессуары для монтажа в стойку, но мне любопытно:
Вы оставляете пустую стойку между серверами при их установке? Почему или почему нет? Есть ли у вас какие-либо эмпирические доказательства в поддержку ваших идей? Кто-нибудь знает об исследовании, которое убедительно доказывает, лучше ли человек?
Если в ваших серверах используется сквозное охлаждение от передней к обратной, как это делает большинство серверов, установленных в стойку, оставление зазоров может фактически повредить охлаждению. Вы же не хотите, чтобы холодный воздух попадал в горячий коридор иначе, как через сам сервер. Если вам нужно оставить зазоры (из-за проблем с питанием, весом пола и т. Д.), Вы должны использовать панели-заглушки, чтобы воздух не мог проходить между серверами.
Я никогда не пропускал стоечные устройства между стоечными устройствами в шкафу. Если бы производитель дал мне указание пропускать U между устройствами, я бы это сделал, но я никогда не видел такой рекомендации.
Я ожидал, что любое устройство, предназначенное для монтажа в стойку, будет выводить тепло через переднюю или заднюю панели. Некоторое тепло будет проходить через направляющие, верхнюю и нижнюю части шасси, но я ожидал бы, что это будет очень мало по сравнению с излучением спереди и сзади.
В нашем дата-центре мы не оставляем пробелов. От пола идет прохладный воздух, и из-за щелей возникают проблемы с прохождением воздуха. Если по какой-то причине у нас есть зазор, мы закрываем его пустой пластиной. Добавление пустых тарелок сразу сделало наши холодные проходы холоднее, а горячие - горячее.
Я не думаю, что у меня больше есть данные или графики, но разница стала очевидной, как только мы начали вносить изменения. Сервера на верхушках стоек перестали перегреваться. Мы перестали готовить блоки питания (что мы делали примерно 1 раз в неделю). Я знаю, что изменения начались после того, как наш менеджер центра обработки данных вернулся с выставки Sun Green Data Center, где он присутствовал на некоторых семинарах по охлаждению и т.п. До этого мы использовали зазоры и частично заполненные стойки и перфорированную плитку в полу перед и за стойками.
Даже при наличии рычагов управления устранение пробелов дается лучше. Все внутренние температуры нашего сервера повсюду в комнате теперь в пределах нормы. Этого не было до тех пор, пока мы не стандартизировали систему прокладки кабелей, устранили зазоры и исправили расположение напольной плитки. Мы хотели бы сделать больше, чтобы направить горячий воздух обратно в блоки CRAC, но мы пока не можем получить финансирование.
Я не пропускаю Нас. Мы сдаем в аренду, и Нам это стоит денег.
В наши дни нет причин для тепла. Весь холодный воздух поступает спереди и выходит сзади. В топах больше нет вентиляционных отверстий.
Google не оставляет U между серверами, и я предполагаю, что они обеспокоены управлением теплом. Всегда интересно наблюдать, как крупные игроки делают свою работу. Вот видео одного из их центров обработки данных: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded
Перейдите непосредственно к 4:21, чтобы увидеть их серверы.
У меня большие зазоры над ИБП (для установки второй батареи в будущем) и над ленточной библиотекой (если мне понадобится еще одна). Кроме этого, у меня нет зазоров, и я использую панели, чтобы заполнить пустые места, чтобы сохранить воздушный поток.
У нас есть 3 1/2 стойки узлов кластера и их хранилище на объекте colocation. Единственные места, которые мы пропустили, - это места, где нам нужно проложить сетевые кабели к центральной стойке, где расположен основной коммутатор кластера. Мы можем позволить себе сделать это по размеру места, поскольку стойки уже исчерпаны с точки зрения мощности, поэтому было бы невозможно втиснуть в них больше узлов :)
Эти машины работают круглосуточно и без выходных при 100% -ном ЦП, и некоторые из них имеют до 16 ядер в корпусе 1U (4 четырехъядерных процессора Xeon), и я еще не видел каких-либо негативных эффектов от отсутствия промежутков между ними.
Пока ваше оборудование имеет хорошо продуманный воздушный тракт, я не понимаю, почему это имеет значение.
Не оставляйте пространство, если с пола идет прохладный воздух, а также используйте пустые места в неиспользуемом пространстве. Если у вас просто нетехнологичная система охлаждения с использованием стандартного кондиционера, лучше оставить зазоры, чтобы минимизировать горячие точки, когда у вас есть горячие серверы, сгруппированные вместе.
Я бы не стал оставлять промежутки между серверами, но я бы сделал это для таких вещей, как переключатели LAN - это позволяет мне разместить несколько панелей управления кабелями высотой 1U сверху и снизу ... но это определенно не для охлаждения.
Каждый третий, но это из-за руки управления и необходимость их обходить, а не нагревать. Тот факт, что на каждом из этих серверов 6 Кабели Cat5, идущие к ним, не помогают. Мы активно используем заглушки и воздушные заслонки наверху стоек, чтобы предотвратить рециркуляцию из горячего коридора.
Кроме того, в нашем дата-центре нет недостатка в пространстве. Он был разработан для расширения еще тогда, когда серверы 7-10U были стандартными. Теперь, когда у нас есть кластеры ESX с плотной стойкой, это город-призрак.
У меня сложилось впечатление (возможно, ошибочное), что это более популярная практика в некоторых телекоммуникационных средах, где горячие / холодные коридоры не так широко используются.
Однако он не подходит для центров обработки данных с высокой плотностью и хорошо работающим оборудованием.
Никаких пробелов, кроме как при планировании расширения систем сантехники и тому подобного. Мы предпочитаем ставить новые шкафы рядом с настоящими контроллерами.
Если у вас есть надлежащее охлаждение, оставлять зазоры бесполезно, если только сервер не построен плохо.
Никаких пробелов, кроме случаев, когда мы вынули сервер или что-то еще и не позаботились о перестановке. Я думаю, что мы немного меньше, чем многие здесь, с двумя стойками, в которых всего около 15 серверов, плюс несколько ленточных накопителей, переключателей и ИБП.
В ситуации, когда у нас был собственный центр обработки данных и пространство не было проблемой, я использовал пропуск U (с разделителем для блокировки воздушного потока) между логическими областями: веб-серверы имеют один раздел, базу данных, контроллер домена, электронную почту, и файл-сервер был другим, а файрволлы и маршрутизаторы были другим. Коммутаторы и патч-панели для удаленных рабочих столов находились в собственной стойке.
Я точно помню один случай, когда я пропустил U из соображений охлаждения. Это было решение для кольцевания аудио / видео кабельного телевидения в средней школе, где было три подразделения, каждое из которых отвечало за обслуживание системы кабельного телевидения в одной секции здания. После того, как верхний блок пришлось заменить в третий раз за два года из-за перегрева, я сделал некоторую «операцию» на стойке, чтобы сделать монтажные отверстия, чтобы я мог оставить 1 / 2U пространства между каждым из трех блоков (всего 1 U).
Это решило проблему. Излишне говорить, что это было тщательно задокументировано, и для дополнительной хорошей меры я приклеил лист к верхней части одного из них в промежутках, объясняя, почему все было так, как было.
Здесь есть два урока:
Я обычно оставляю пустой RU после примерно 5RU серверов (т.е. 5x1ru или 1x2ru + 1x3ru), и это будет зависеть от настройки охлаждения в центре обработки данных, в котором вы находитесь. Если охлаждение выполняется перед стойкой (т.е. решетка в перед стойкой) идея состоит в том, что холодный воздух поднимается вверх от пола, и ваши серверы всасывают холодный воздух через них. в этом случае вы, как правило, получаете лучшее охлаждение, не оставляя пустых слотов (то есть используйте пустую крышку RU. Но если вы выполнили охлаждение через панель пола в вашей стойке, по моему опыту, вы получите более эффективное охлаждение, разбив серверы в штабелях. друг на друга на всю стойку
У меня они сложены в одну стойку. У меня никогда не было проблем с этим, так что у меня не было никаких причин их разносить. Думаю, самая большая причина, по которой люди их разделяют, - это тепло.
Оставление промежутков между серверами может повлиять на охлаждение. Многие центры обработки данных используют комплекты по принципу «горячий коридор» и «холодный коридор».
Если вы оставите промежутки между серверами, это может повлиять на эффективность воздушного потока и охлаждения.
Эта статья может быть интересна:
Чередование холодных и горячих коридоров обеспечивает более надежное охлаждение серверных ферм
Раньше я оставлял 1/3 RU между двумя коммутаторами, в основном потому, что каждый из них был высотой 1 1/3 RU.
Если бы я сложил их вместе, то шестерня, расположенная выше, сместилась бы на 1/3 единицы.
Кроме этого, я никогда не оставлял места исключительно для охлаждения, только для будущего роста.