Назад | Перейти на главную страницу

Фильтрация URL-адресов и производительность squid

Мы используем прозрачный прокси-сервер Squid для веб-кеша в нашей компании, и в часы пик у нас обычно 450 пользователей. Мы получаем списки URL-адресов (вплоть до 1600 URL-адресов на список) от национального органа электросвязи для блокировки. Мы блокируем их, используя ACL Squid с файлом черного списка, но мы испытываем значительное снижение производительности, как только применяем ACL в squid.conf. Как исправить эту проблему? Как мы можем заблокировать такое огромное количество URL-адресов ?.

Каждый раз, когда конфигурация Squid перезагружается, все Squid делает паузу.

Я предлагаю использовать ufdbGuard, бесплатный URL-фильтр для Squid. Когда ufdbGuard перезагружает базу данных URL-адресов, это не оказывает отрицательного воздействия на просмотр Squid или пользователей. Скачать ufdbGuard можно из SourceForge и URLfilterDB.

Итак, у вас проблемы с производительностью при использовании собственного ACL-списка squid.

Какую версию squid вы используете и как насчет спецификаций на коробке?

Мне также любопытно, получаете ли вы предупреждения в своих журналах при перенастройке или перезапуске squid при применении новых черных списков.

Имейте в виду, что .somesite.com также блокирует все поддомены от TLD вниз, поэтому нет необходимости crap.somesite.com и .somesite.com, это вызовет проблемы с производительностью и приведет к переполнению ваших файлов журналов. Если это проблема для вас, убедитесь, что вы проанализировали все дубли / подписки и оставили там только TLD, если иное не требуется для блокировки только подпрограммы.

Кроме того, пробовали ли вы черный список squid-prime с нашего сайта: http://squidblacklist.com?