В настоящее время я изучаю возможность использования CDN на моем сайте (~ 2 миллиона просмотров страниц в месяц). Однако, прежде чем смотреть на бесчисленное количество доступных пакетов, имеет смысл выяснить, что именно мне нужно, вместо того, чтобы пытаться в темноте «пальцем в воздух».
Итак, кто-нибудь знает какие-либо утилиты, которые смогут извлекать объем запросов и т.д. к конкретным ресурсам (например, * .css, * .js, * .gif и т.д. и т.д.) из журналов моего веб-сервера (Apache) (или, может быть, где-то еще).
Обладая этой информацией, я буду знать, сколько запросов в секунду CDN должен будет поддерживать, и, что более важно, какая пропускная способность мне понадобится - из этого я смогу выбрать правильный пакет CDN для своих нужд.
заранее спасибо
Рискуя перейти на все UNIX-ы,
egrep '\.css|\.gif|\.js' httpd.access | awk '{print $10}'| perl -n -e '$sum += $_ ; print "$sum\n" ;'| tail -1
сложит все байты, доставленные в запросах .css, .gif и .js, и распечатает итог. Если это не сработает, попробуйте
egrep '\.css|\.gif|\.js' httpd.access | head
чтобы убедиться, что он печатает только соответствующие строки, затем
egrep '\.css|\.gif|\.js' httpd.access | awk '{print $10}' | head
чтобы убедиться, что он печатает только количество байтов соответствующих строк (должно быть поле после кода возврата HTTP), потому что, как и большинство текстовых хаков UNIX, этот довольно сильно зависит от формата файла, с которым мы работаем. Если у вас есть количество байтов, пропускная способность - это количество байтов, деленное на время между первой и последней строками в httpd.access
.