Ищу анализатор логов W3C. Я знаю, что вокруг много, но сложно выбрать хороший. Мне было интересно, может ли кто-нибудь дать несколько рекомендаций?
Я использовал AWStats в нескольких установках. Это красиво ... и бесплатно.
http://awstats.sourceforge.net
Вот ссылка (на их сайте) на достойное сравнение с некоторыми другими популярными конкурирующими продуктами:
я использую
Оба проанализируют Расширенный формат журнала W3C, оба лицензированы под Стандартная общественная лицензия GNU (GPL). Между ними есть различия в формате отображаемых результатов, и если вы производите статистику для многих сайтов, некоторые пользователи могут предпочесть один другому.
Я также использовал аналог в прошлом, но его главным преимуществом для меня была чистая скорость, и теперь у меня нет файлов журналов, достаточно больших, чтобы стоило использовать третий анализатор.
Между ними есть различия в формате и обширности отображаемых результатов, и если вы создаете статистику и графики для многих сайтов, некоторые пользователи могут предпочесть одно другому. Многие веб-хостинговые компании предоставляют пару из них для использования клиентами в Интернете.
Платформа, на которой вы его используете, может быть проблемой. Все три (и более!) Доступны в репозиториях дистрибутива GNU / Linux, например Ubuntu 9.04 и обычно готовы к запуску после установки. Может потребоваться больше работы, чтобы получить тот, который вы хотите работать на других платформах (например, я думаю, что awstats нуждается в perl; webalizer предоставляется автором в виде исходного кода C или исполняемого файла Linux-x86 или solaris).
Чтобы сделать выбор между множеством доступных анализаторов, вам необходимо решить, какие отчеты вам нужны, какие вы хотите, а какие нет, и сравнить этот список с тем, что предлагают различные инструменты. Адаптация вывода к тому, что вам нужно, упрощает получение нужной информации. Возможно, вы захотите рассмотреть несколько прогонов данных для предоставления разных отчетов, возможно, с использованием разных инструментов. Например, быстрое прохождение только для выявления непредвиденных ошибок (отсутствующие файлы или графика (404), на которые ссылаются другие страницы сайта и неожиданные коды ошибок) может быть полезным для администратора сайта. Поставщики данных меньше заинтересованы в этих отчетах, но могут захотеть узнать, какие страницы наиболее популярны, какие строки поиска используются и сколько посетителей. Сетевые администраторы могут захотеть узнать среднюю и пиковую общую нагрузку, а также какие страницы создают наибольшую нагрузку, чтобы они могли спросить, правильно ли они оптимизированы. В конце концов люди начинают задавать вопросы, на которые ни один из инструментов не дает удовлетворительного ответа, но опыт работы с несколькими разными анализаторами может на время отложить этот день.
Не анализируя журналы с сервера, но относящиеся к области, Google предоставляет Инструменты для веб-мастеров которые предоставляют информацию о сайте с точки зрения Google, полученную при сканировании сайта. Помимо отображения рейтинга сайтов в Google по определенным критериям поиска и указания других сайтов, ссылающихся на ваш, он содержит другую информацию, например, какие страницы Google не индексирует (например, из-за ограничений robots.txt) и какие страницы он не может найти. Это полезное дополнение к анализу файла журнала на сервере при поиске ошибок и отсутствующих материалов на сайте.
Microsoft также выпустила анализатор журналов под названием LogParser. Также существует LogParser Studio, которая позволяет выполнять запросы к журналам. Вот несколько ссылок, объясняющих эти инструменты и их использование.