Я нахожусь на этапе планирования переоборудования наших 5 стоек в одном из наших офисов, и я хотел бы попросить некоторых рекомендаций о том, как вы поступаете, или о том, как прокладывать кабели, которые проходят между стойками. В нашей ситуации у нас есть 5 стоек, где крайняя справа - наша основная патч-панель на 300 портов этажа. Стойка рядом с ней - наша основная стойка связи, где расположены главные коммутаторы и маршрутизаторы ISP. остальные 3 стойки рядом со стойкой связи, затем все необходимо снова подключить к основной стойке связи.
Я не уверен, подойдет ли для этого сценария 48-портовая коммутационная панель в каждой стойке? в основном потому, что я не уверен, что это можно связать с главным выключателем с помощью только 1 кабеля.
Будет ли коммутатор на 48 портов в каждой стойке лучше, если бы вы могли подключить их обратно к главному коммутатору?
Или нужно просто пропустить кабели между стойками обратно к главному выключателю?
Надеюсь, кто-нибудь сможет дать совет.
Мое эмпирическое правило, основанное на годах создания серверных: минимизируйте количество кабелей между стойками, насколько это возможно.
Стойка на 300 портов для граничных портов далеко не заполнена, поэтому вы можете разместить граничные коммутаторы в одной стойке. Это позволяет разместить большую часть кабелей в одной стойке.
Три стойки слева: я предполагаю, что в них находятся ваши серверы. Установите дешевый гигабитный коммутатор в каждый. Используйте 2, если у вас есть серверы, требующие избыточных ссылок. HP ProCurves или Dells отлично подойдут. Если вы используете 1, не забудьте подключить его к сердечникам с резервированием. Если вы используете 2 резервных коммутатора, им нужен только один восходящий канал (к разным ядрам) каждому.
Свяжите все 4 стойки медью с жилами в стойке связи. Расстояния не гарантируют оптоволокно, а медь по-прежнему намного дешевле. При необходимости используйте несколько медных каналов 1 ГБ с агрегацией для увеличения пропускной способности. Медный кабель 10 Гбит / с также может быть вариантом в зависимости от ваших ядер / коммутаторов.
Если у вас есть серверы, которым требуется соединение 1-на-1 с ядром или оборудованием провайдера, просто запустите дополнительный кабель UTP. Это не убьет вас.
Если ваши ядра представляют собой большие блейд-коммутаторы, которые также имеют краевые порты для крайней правой стойки, серьезно подумайте о перемещении этих ядер в эту стойку (если позволяет пространство). Никто в здравом уме не хочет прокладывать 300 кабелей UTP между стойками.
Возможно, вам придется потратить немного денег на дополнительные коммутаторы, но это окупится за счет минимизации проблем с поддержкой в будущем.
Пожалуйста, не рассматривайте это как ответ, потому что это ваш личный выбор, зависящий от ваших обстоятельств и бюджета. Я могу описать вам, что мы сделали за месяц до этого в структуре (я думаю) сопоставимого размера с очень низким бюджетом.
Мы должны управлять примерно 5 отдельными сетями, и у нас было такое же количество Ethernet-соединений между стойками, расположенными в наших зданиях, которые становились все хуже и хуже в обслуживании. Мы решили заменить 3 старых коммутатора на все того же бренда (Dell) и типа, внедрить VLAN и использовать оптические соединения для более длительных условий. В настоящее время оптоволоконные соединения очень дешевы и очень просты в установке.
Стойки патч-панелей были подключены двумя оптическими линиями (каждая) к двум основным коммутаторам, которые сами соединены друг с другом 4 медными портами (магистралью). В каждой серверной стойке теперь есть один коммутатор на 48 портов, а на патч-панелях есть 3x 48 портов (у нас есть две стойки для коммутационных панелей) и 1x 24 порта для небольшого отдела. Коммутаторы коммутационной панели имеют только один восходящий канал к основным коммутаторам и соединены между собой медными портами (также с использованием группирования портов).
Теперь мы находимся в удобном положении, чтобы иметь возможность определять для каждого порта на каждом коммутаторе в каждой стойке, к какой сети он принадлежит (VLAN), и не менять физические соединения (большую часть времени). Поскольку мы используем виртуализацию, она становится даже более гибкой, потому что для хостов виртуальных машин нам нужен только 1 физический канал для подключения виртуальных машин ко всем сетям. Еще есть над чем поработать (перенести брандмауэры на использование виртуальных локальных сетей вместо физических портов), но мы действительно довольны этим решением, и оно было действительно дешевым.