Я пытаюсь проверить, есть ли у сайта / сервера / чего-либо еще, что может обрабатывать HTTP-запрос.
Пока думаю можно через один запрос отправить несколько curl
сеанс, например:
curl http://www.example.com/1.html http://www.example.com/main.css http://www.example.com/2.html
Можно ли использовать упомянутое ниже для моделирования конвейерной обработки и как я могу проверить, что конвейерная обработка использовалась?
Я ласо думаю об использовании netcat
, отправьте несколько запросов и проверьте, вернется ли он в правильном порядке (в соответствии с запросом RFC)
Не могли бы вы дать мне несколько советов о том, как проверить конвейерный контент? (В лучшем случае на linux, но это не обязательно.)
Я только что проверил с помощью tcpdump, и похоже, что простой вызов curl, который вы предлагаете, на самом деле не конвейерные запросы. На странице руководства указано, что они выбираются последовательно, что также предполагает отсутствие конвейерной обработки.
Когда я тестировал это в прошлом, я просто вставлял полные запросы HTTP 1.1 в сеанс telnet.
Для проверки оставьте запущенный tcpdump в другом окне, например, "tcpdump -nli any -s0 -xX host 1.2.3.4 and port 80". Если вы попробуете использовать командную строку curl, вы увидите, что первый запрос отправлен, ответ доставлен, а затем отправлен второй. Если вы правильно выполняете конвейерную обработку, вы должны увидеть несколько отправляемых строк GET до того, как будут возвращены какие-либо данные ответа.
Это немного похоже на вопрос домашнего задания, поэтому я оставлю вас на этом.