Назад | Перейти на главную страницу

Стресс-тест Nginx с httperf - большие отличия передачи данных от сервера Apache

Я запускаю простой стресс-тест httperf на четырехъядерном сервере Nginx с указанием на документ HTML / PHP. При высоких скоростях соединения быстро начинает наблюдаться большое время соединения и ответа (см. Среднее время соединения и время ответа в результатах ниже). Это вызывает недоумение, когда тест повторяется на веб-сервере Apache, обслуживающем идентичный контент.

Сервер Apache относительно не вспотел. Единственное отличие, которое я замечаю, заключается в значениях «Net I / O», которые намного больше при тестировании сервера Nginx (3315,6 КБ / с против 55,5 КБ / с). Время отклика также имеет большой вклад от «передачи» (849,6 мс), в то время как сервер Apache имеет «0,0». Моя первая мысль заключалась в том, что веб-кеширование не работает на сервере Nginx, что приводит к передаче большего количества данных, но это не так, и httperf в любом случае не является браузером.

Моя конфигурация Nginx теоретически должна отлично справиться с этим стресс-тестом. Я подозреваю, что объемы передачи данных являются причиной низкой производительности.

Итак, мой вопрос: как насчет конфигурации Nginx можно объяснить эту разницу в передаче данных / длине содержимого по сравнению с сервером Apache, на котором размещен идентичный контент?

Вот результаты httperf на обоих серверах для простого 10-секундного теста с 1000 подключениями:

NGINX

httperf --hog --server xxx.xxx.xxx.xxx --uri /test.html --num-conns 1000 --rate 100
httperf --hog --client=0/1 --server=xxx.xxx.xxx.xxx --port=80 --uri=/test.html --rate=100 --send-buffer=4096 --recv-buffer=16384 --num-conns=1000 --num-calls=1
httperf: warning: open file limit > FD_SETSIZE; limiting max. # of open files to FD_SETSIZE
Maximum connect burst length: 1

Total: connections 1000 requests 1000 replies 1000 test-duration 11.776 s

Connection rate: 84.9 conn/s (11.8 ms/conn, <=214 concurrent connections)
Connection time [ms]: min 158.2 avg 1608.1 max 2695.7 median 1729.5 stddev 532.2
Connection time [ms]: connect 373.9
Connection length [replies/conn]: 1.000

Request rate: 84.9 req/s (11.8 ms/req)
Request size [B]: 84.0

Reply rate [replies/s]: min 69.2 avg 79.0 max 88.8 stddev 13.9 (2 samples)
Reply time [ms]: response 384.6 transfer 849.6
Reply size [B]: header 194.0 content 39702.0 footer 2.0 (total 39898.0)
Reply status: 1xx=0 2xx=1000 3xx=0 4xx=0 5xx=0

CPU time [s]: user 0.18 system 11.57 (user 1.5% system 98.3% total 99.8%)
Net I/O: 3315.6 KB/s (27.2*10^6 bps)

Errors: total 0 client-timo 0 socket-timo 0 connrefused 0 connreset 0
Errors: fd-unavail 0 addrunavail 0 ftab-full 0 other 0

APACHE

httperf --hog --server xxx.xxx.xxx.xxx --uri /test.html --num-conns 1000 --rate 100
httperf --hog --client=0/1 --server=xxx.xxx.xxx.xxx --port=80 --uri=test.html --rate=100 --send-buffer=4096 --recv-buffer=16384 --num-conns=1000 --num-calls=1
httperf: warning: open file limit > FD_SETSIZE; limiting max. # of open files to FD_SETSIZE
Maximum connect burst length: 1

Total: connections 1000 requests 1000 replies 1000 test-duration 10.101 s

Connection rate: 99.0 conn/s (10.1 ms/conn, <=29 concurrent connections)
Connection time [ms]: min 53.0 avg 117.7 max 3074.8 median 72.5 stddev 264.3
Connection time [ms]: connect 79.7
Connection length [replies/conn]: 1.000

Request rate: 99.0 req/s (10.1 ms/req)
Request size [B]: 88.0

Reply rate [replies/s]: min 97.0 avg 99.2 max 101.4 stddev 3.1 (2 samples)
Reply time [ms]: response 38.1 transfer 0.0
Reply size [B]: header 231.0 content 255.0 footer 0.0 (total 486.0)
Reply status: 1xx=0 2xx=0 3xx=1000 4xx=0 5xx=0

CPU time [s]: user 1.23 system 8.86 (user 12.1% system 87.7% total 99.8%)
Net I/O: 55.5 KB/s (0.5*10^6 bps)

Errors: total 0 client-timo 0 socket-timo 0 connrefused 0 connreset 0
Errors: fd-unavail 0 addrunavail 0 ftab-full 0 other 0

Оказывается, разница в длине ответа носит методологический характер. Я не заметил, что сервер Apache возвращал все 301 код во время этого теста, потому что URL-адреса переписывались. Мне пришлось изменить URL-адрес сервера и путь, чтобы они точно соответствовали правилам перезаписи. После этого длины контента идеально совпали, и сервер Apache в этом тесте действительно боролся немного больше, чем Nginx.