Назад | Перейти на главную страницу

Инструмент для захвата исходящих HTTP-пакетов на сервере Linux

Я искал инструмент для захвата HTTP-пакетов, отправленных с Linux-сервера на внешний сервер. Обычно я использую iftop или iptraf с фильтрами для просмотра информации в реальном времени и tcpdump для получения подробной информации. Но сейчас мне нужен способ записать все запросы url в какой-нибудь файл журнала. Я знаю, что могу настроить прокси для регистрации всей этой информации, но это невозможно из-за нашей реальной архитектуры. Вы знаете какой-нибудь инструмент, с помощью которого можно получить эту информацию? Или мне нужно сделать скрипт для обработки информации из tcpdump?

Вам нужен urlsnarf из dsniff проект. Он будет генерировать журнал со всеми http-запросами, видимыми на одном сетевом интерфейсе. Очень хороший инструмент!

Похоже на работу для Wireshark (ранее известный как Ethereal).

Посмотрите на Поддержка протокола HTTP и отображать фильтры для него. Возможно, вам понадобится фильтр отображения «http.request.uri».

Я обычно предлагаю WebScarab, но он действует как HTTP-прокси, который, как вы сказали, не работает в вашей ситуации ...

Вам понадобится что-то, что может беспорядочно прослушивать, а затем анализировать вещи на уровне протокола приложения. Вот ветка со скриптом Perl который делает то, что вы хотите, анализируя вывод tcpdump.