Я сейчас пытаюсь обходить безопасность браузера, размещая статическую html-страницу во всех (внешних) доменах.
например
Given a webpage hosted at http://myinternalserver/mypage.html When I request https://www.google.com/mypage.html via the proxy Then my webpage is displayed.
Я добавил следующий фрагмент в свой squid.conf
, однако контент не перехватывается (я получаю 404 Not Found
с целевого сайта).
squid.conf
# reverse proxy /mypage* requests to internal server
acl myrule urlpath_regex ^/mypage
cache_peer myinternalserver parent 80 0 no-query originserver name=server1
cache_peer_access server1 allow myrule
cache_peer_access server1 deny all
Я пробовал включить подробный журнал, но я не вижу myrule
проверяется (никогда не регистрируется). ACL не подбирается? Мне нужно включить urlpath_regex
? Это вариант компиляции для Squid?
Версия кальмара
Связанный:
Обновить:
Я нашел (и закомментировал) следующую строку - теперь обратный прокси работает для HTTP
Запросы. Просто нужно заставить его работать с HTTPS
...
# vvv WARNING: THIS WILL SKIP cache_peer DIRECTIVES vvv
# always_direct allow all
Полное раскрытие, я также разместил в unix.stackexchange.com - закроет то, что привлекает меньше всего внимания.