Вот некоторые сведения о моей проблеме:
Мое решение - использовать Squid на отдельном сервере со статическим IP-адресом для пересылки прокси-запросов от Heroku к внешней службе. Таким образом, внешняя служба всегда видит статический IP-адрес прокси-сервера, а не динамический IP-адрес службы Heroku.
Поскольку мой прокси-сервер не может полагаться на IP-адрес для аутентификации (это проблема для начала!), Он должен полагаться на имя пользователя и пароль. Кроме того, имя пользователя и пароль не могут быть переданы в виде открытого текста, потому что, если злоумышленник перехватит этот открытый текст, он сможет подключиться к моему прокси-серверу, выдавая себя за меня, сделать исходящие запросы, используя статический IP-адрес моего прокси, и таким образом уклониться от внешнего брандмауэр веб-службы.
Следовательно, прокси-сервер Squid должен принимать соединения только по HTTPS, а не по HTTP. (Подключение к внешней веб-службе может быть HTTP или HTTPS.)
Я запускаю Squid 3.1.10 на CentOS 6.5.x, и вот мой squid.conf
до сих пор. Только для целей устранения неполадок я временно включил прокси HTTP и HTTPS, но я хочу использовать только HTTPS.
#
# Recommended minimum configuration:
#
acl manager proto cache_object
acl localhost src 127.0.0.1/32 ::1
acl to_localhost dst 127.0.0.0/8 0.0.0.0/32 ::1
# Example rule allowing access from your local networks.
# Adapt to list your (internal) IP networks from where browsing
# should be allowed
acl localnet src 10.0.0.0/8 # RFC1918 possible internal network
acl localnet src 172.16.0.0/12 # RFC1918 possible internal network
acl localnet src 192.168.0.0/16 # RFC1918 possible internal network
acl localnet src fc00::/7 # RFC 4193 local private network range
acl localnet src fe80::/10 # RFC 4291 link-local (directly plugged) machines
acl SSL_ports port 443
acl Safe_ports port 80 # http
acl Safe_ports port 21 # ftp
acl Safe_ports port 443 # https
acl Safe_ports port 70 # gopher
acl Safe_ports port 210 # wais
acl Safe_ports port 1025-65535 # unregistered ports
acl Safe_ports port 280 # http-mgmt
acl Safe_ports port 488 # gss-http
acl Safe_ports port 591 # filemaker
acl Safe_ports port 777 # multiling http
acl CONNECT method CONNECT
# Authorization
auth_param digest program /usr/lib64/squid/digest_pw_auth -c /etc/squid/squid_passwd
auth_param digest children 20 startup=0 idle=1
auth_param digest realm squid
auth_param digest nonce_garbage_interval 5 minutes
auth_param digest nonce_max_duration 30 minutes
auth_param digest nonce_max_count 50
acl authenticated proxy_auth REQUIRED
#
# Recommended minimum Access Permission configuration:
#
# Only allow cachemgr access from localhost
http_access allow manager localhost
http_access deny manager
# Deny requests to certain unsafe ports
http_access deny !Safe_ports
# Deny CONNECT to other than secure SSL ports
http_access deny CONNECT !SSL_ports
# We strongly recommend the following be uncommented to protect innocent
# web applications running on the proxy server who think the only
# one who can access services on "localhost" is a local user
#http_access deny to_localhost
#
# INSERT YOUR OWN RULE(S) HERE TO ALLOW ACCESS FROM YOUR CLIENTS
#
# Example rule allowing access from your local networks.
# Adapt localnet in the ACL section to list your (internal) IP networks
# from where browsing should be allowed
#http_access allow localnet
#http_access allow localhost
http_access allow authenticated
# And finally deny all other access to this proxy
http_access deny all
# Squid normally listens to port 3128
http_port 3128
https_port 3129 cert=/etc/squid/ssl/cert.pem key=/etc/squid/ssl/key.pem
# We recommend you to use at least the following line.
hierarchy_stoplist cgi-bin ?
# Disable all caching
cache deny all
# Uncomment and adjust the following to add a disk cache directory.
#cache_dir ufs /var/spool/squid 100 16 256
# Leave coredumps in the first cache dir
coredump_dir /var/spool/squid
# Add any of your own refresh_pattern entries above these.
refresh_pattern ^ftp: 1440 20% 10080
refresh_pattern ^gopher: 1440 0% 1440
refresh_pattern -i (/cgi-bin/|\?) 0 0% 0
refresh_pattern . 0 20% 4320
При такой настройке проксирование HTTP работает нормально, а проксирование HTTPS - нет.
Вот запрос HTTP-прокси из локального ящика:
$ curl --proxy http://my-proxy-server.example:3128 \
--proxy-anyauth --proxy-user redacted:redacted -w '\n' \
http://urlecho.appspot.com/echo?body=OK
OK
Хорошо, я этого и ожидал. Это приводит к строке в /var/log/squid/access.log
:
1390250715.137 41 my.IP.address.redacted TCP_MISS/200 383 GET http://urlecho.appspot.com/echo? redacted DIRECT/74.125.142.141 text/html
Вот еще один запрос, на этот раз с HTTPS:
$ curl --proxy https://my-proxy-server.example:3129 \
--proxy-anyauth --proxy-user redacted:redacted -w '\n' \
http://urlecho.appspot.com/echo?body=OK
curl: (56) Recv failure: Connection reset by peer
Ничего в access.log
после этого, но в cache.log
:
2014/01/20 20:46:15| clientNegotiateSSL: Error negotiating SSL connection on FD 10: error:1407609C:SSL routines:SSL23_GET_CLIENT_HELLO:http request (1/-1)
Вот еще раз приведенное выше, более подробно:
$ curl -v --proxy https://my-proxy-server.example:3129 \
--proxy-anyauth --proxy-user redacted:redacted -w '\n' \
http://urlecho.appspot.com/echo?body=OK
* Adding handle: conn: 0x7f9a30804000
* Adding handle: send: 0
* Adding handle: recv: 0
* Curl_addHandleToPipeline: length: 1
* - Conn 0 (0x7f9a30804000) send_pipe: 1, recv_pipe: 0
* About to connect() to proxy my-proxy-server.example port 3129 (#0)
* Trying proxy.server.IP.redacted...
* Connected to my-proxy-server.example (proxy.server.IP.redacted) port 3129 (#0)
> GET http://urlecho.appspot.com/echo?body=OK HTTP/1.1
> User-Agent: curl/7.30.0
> Host: urlecho.appspot.com
> Accept: */*
> Proxy-Connection: Keep-Alive
>
* Recv failure: Connection reset by peer
* Closing connection 0
curl: (56) Recv failure: Connection reset by peer
Похоже на ошибку SSL. Однако я повторно использую SSL-сертификат поддомена с подстановочными знаками, показанный в приведенной выше конфигурации как cert.pem
и key.pem
, которые я успешно развернул на других веб-серверах. Более того, доступ к прокси-серверу напрямую с помощью curl работает или, по крайней мере, устанавливает соединение после этапа SSL:
$ curl https://my-proxy-server.example:3129
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd">
<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<title>ERROR: The requested URL could not be retrieved</title>
[--SNIP--]
<div id="content">
<p>The following error was encountered while trying to retrieve the URL: <a href="/">/</a></p>
<blockquote id="error">
<p><b>Invalid URL</b></p>
</blockquote>
<p>Some aspect of the requested URL is incorrect.</p>
<p>Some possible problems are:</p>
<ul>
<li><p>Missing or incorrect access protocol (should be <q>http://</q> or similar)</p></li>
<li><p>Missing hostname</p></li>
<li><p>Illegal double-escape in the URL-Path</p></li>
<li><p>Illegal character in hostname; underscores are not allowed.</p></li>
</ul>
[--SNIP--]
Есть идеи, что я делаю не так? Возможно ли то, что я пытаюсь сделать? Заранее спасибо.
Вы можете увидеть, как это делается, на этом небольшом образе Docker: yegor256 / squid-прокси. Проблема с вашим кодом заключается в том, что конфигурация идет после acl
инструкция. Просто поменяйте их местами, и все начнет работать.
@ Дэвид, согласно твоему нить в Squid ML - Я бы посоветовал использовать решение Stunnel. Ваша аутентификация будет заключаться в сертификатах SSL на обоих концах туннеля, остальное - в виде «открытого текста» в этом туннеле, или вы можете сделать дайджест по своему усмотрению.
Я использовал подобное решение для "аутентификации" конечных точек NFS с большим успехом.
Пример использования такой аутентификации можно увидеть в LinuxGazette Безопасная связь с stunnel