Назад | Перейти на главную страницу

Есть ли у огромных веб-сайтов более одного глобального аплинка?

Например, у Google более 500 IP-адресов, но всего около 20 дата-центров. Как это может быть.

Из того, что я прочитал, типичный (огромный) центр обработки данных будет иметь 1 глобальный канал связи, маршрутизатор и главный коммутатор. Каждый кластер подключен к главному выключателю. В кластере есть еще один коммутатор (его восходящий канал ведет к главному коммутатору), к которому подключен каждый узел. Это верно?

Если веб-сайт работает в огромном кластере, а скорость загрузки является узким местом, можно ли иметь 2 или более восходящих канала, работающих в одном кластере?

Кроме того, если у вас есть несколько центров обработки данных для одного сайта, можете ли вы настроить FTP и другие подобные приложения для загрузки в каждый центр?

For example, Google has over 500 IP address, yet only around 20 data-centers. How can this be.

Кажется, у вас фундаментальное непонимание того, как работает Интернет. В одном центре обработки данных размещается много серверов и обычно много IP-адресов.
IP-адреса не похожи на почтовые адреса - они могут перемещаться (благодаря магии BGP)


From what I have read, a typical (huge) data-center will have 1 global uplink, a router, and a main switch. Each cluster is hooked up to the main switch. In the cluster is another switch (its uplink leads the the main switch) which each node is connected to. Is this correct?

То, что вы прочитали, в корне неверно. Любой центр обработки данных, в котором стоит разместить хостинг, будет иметь несколько восходящих каналов (несколько физических подключений к нескольким провайдерам - либо сети, у которых они покупают транзит, либо одноранговые сети).

Основные коммутаторы и маршрутизаторы обычно конфигурируются как минимум с резервированием пары аварийного переключения.
Коммутаторы доступа (к которым подключаются серверы) могут быть избыточными и другими способами (два общих - это то, что каждый сервер подключается к двум отдельным коммутаторам доступа с разными путями обратно к ядру, или у вас есть два сервера, каждый из которых подключен к отдельному коммутатору доступа с отдельными путями обратно в ядро)


If a website is running off a huge cluster and the upload speed is the bottleneck, can you have 2 or more uplinks running to one cluster?

Этот вопрос не имеет смысла в контексте того, как проходит интернет-трафик. Вам нужно лучше понимать маршрутизацию - краткая версия «Трафик следует по кратчайшему пути от A до B. Если этот путь перегружен, трафик будет медленным». - Есть еще несколько волшебных вещей, которые можно сделать, чтобы перенаправить трафик вокруг заторов.

Что касается конечного сервера, есть способы ствол или облигация Ethernet-соединения, чтобы дать отдельным серверам большую пропускную способность в центре обработки данных. Это часто бесполезно для увеличения скорости, потому что узкое место обычно где-то в Интернете ...

Вы также злоупотребляете словом «кластер» (какое значение имеет ВИД кластера).


Also, IF you have multiple data-centers for one site, can you configure FTP and other similar applications to upload to each center?

Короткий ответ: Нет.
Длинный ответ: загляните в распределенные файловые системы, зеркалирование удаленного сайта (репликация) и географическая избыточность в целом.

Интересно, как вы пришли к таким выводам о том, как работают центры обработки данных.

Если это не очень маленький центр обработки данных, у них будет несколько восходящих каналов к двум или более NOC для их номеров AS, и они могут или не могут запускать свои собственные службы BGP.

В более крупных центрах обработки данных обычно будет несколько избыточных каналов (то есть 4 или более физических соединений) для разделения магистральных NOC или одноранговых обменов.

Когда вы говорите об ОГРОМНЫХ центрах обработки данных (как, конечно, и в Google), они, как правило, ЯВЛЯЮТСЯ центрами обработки данных или совместно расположены внутри однорангового обмена, чтобы иметь прямые (кратчайшие) восходящие каналы к магистрали.

Ничто из этого никоим образом не связано с тем, как отдельные серверы или службы работают или представлены в Интернете.

Я также, кажется, помню, что Google использует большое количество темного волокна (прямые, не Интернет-соединения) между своими центрами обработки данных. Это обеспечивает дополнительную избыточность, а также увеличивает межсайтовую пропускную способность.

Просматривая изображения Google для топологий центров обработки данных, легко понять, как вы могли прийти к такому выводу. Большинство примеров относятся к небольшим центрам обработки данных. У них очень мало общего с топологиями масштаба Google, Microsoft или Yahoo.

Вот хороший пример внутреннего представления центра обработки данных (это даже не близко к масштабу отдельного домена Google, Microsoft или Yahoo):

А вот пример того, что может скрываться на границе «ядра кампуса» на предыдущей диаграмме (не обращайте внимания на метки, это просто для иллюстрации):

Топология сети может быть намного сложнее, чем маршрутизатор-коммутатор-сервер. Это просто зависит от того, что вы пытаетесь сделать.