Назад | Перейти на главную страницу

Как структурировать веб-сервер с высокими требованиями к пропускной способности?

Я разрабатываю сервис для сетевой платформы научных вычислений, которая включает загрузку больших файлов данных (много ГБ). Каждый файл также содержит файлы cookie в заголовке, что позволяет моему серверу аутентифицировать пользователя. Эти файлы могут загружать сразу несколько пользователей.

Крайне важно, чтобы эти файлы были зашифрованы с помощью SSL, и было бы неплохо (но не абсолютно необходимо) отправлять все запросы на наше основное веб-имя домена, у которого есть сервер Apache, обрабатывающий все запросы. Наши серверы размещены на движке Google Compute Engine. У меня есть несколько внутренних серверов для фактической обработки файлов данных, и в настоящее время запросы данных проксируются с использованием mod_proxy к внутренним серверам.

Однако даже с прокси-сервером все данные по-прежнему проходят через веб-сервер перед отправкой на внутренние серверы. Это может легко остановить работу сервера и моего веб-сайта.

Мой вопрос: как обычно справляются с этим сценарием? (извините, я не айтишник, но сам должен это реализовать)

Используется ли в этих сценариях перенаправление вместо прокси? Я пробовал перенаправить, но исходная информация заголовка потеряна, и внутренние серверы не могут получить файлы cookie аутентификации.

Я думаю, что вам нужен балансировщик нагрузки. Для этого есть тяжелое программное обеспечение, но вы можете создать простой балансировщик нагрузки с Apache, используя mod_proxy_balancer. И он может отслеживать сеансы, поэтому информация заголовка не должна теряться.