Назад | Перейти на главную страницу

Самый эффективный способ обслуживать менее 10 HTTP-запросов в день с помощью cgi

Наша компания управляет более чем сотней серверов, и мы хотели бы «запрашивать» у этих серверов базовую информацию об использовании один или два раза в день, используя http. Информацию об использовании можно легко найти с помощью сценария perl cgi, и мы хотели бы иметь интерфейс http, чтобы упростить создание сценариев и их тестирование. Кажется излишним иметь apache или даже nginx + fcgiwrap для обслуживания одного или двух запросов в день. Мы думали об использовании openbsd-inetd (который уже установлен на всех серверах) для запуска веб-сервера, который мог бы легко передать запрос сценарию perl cgi. Какие есть хорошие альтернативы для этого?

Рассматривали ли вы возможность использования центрального веб-сервера, выполняемого через пользовательские сценарии SSH на запрашиваемых серверах?

Во многих средах SSH в любом случае используется для удаленного управления. SSH предлагает возможность автоматического выполнения определенной локальной команды для соединения, аутентифицированного с помощью указанного ключа.

IMHO, это вариант, который стоит серьезно рассмотреть, если SSH все равно развернут.

Если вы пишете скрипт на Perl, просто взгляните на Катализатор, или Mojolicious, или Танцор. Это микросхема, способная прослушивать порт для обслуживания нескольких HTTP-запросов. Таким образом, вам не придется устанавливать веб-сервер перед вашим скриптом.

Я использовал скрипт для сбора данных, их архивирования и отправки архива через scp (pub key ssh auth) на сервер журналов.