Назад | Перейти на главную страницу

Настроить Squid в качестве прокси-сервера HTTPS?

Вот некоторые сведения о моей проблеме:

Мое решение - использовать Squid на отдельном сервере со статическим IP-адресом для пересылки прокси-запросов от Heroku к внешней службе. Таким образом, внешняя служба всегда видит статический IP-адрес прокси-сервера, а не динамический IP-адрес службы Heroku.

Поскольку мой прокси-сервер не может полагаться на IP-адрес для аутентификации (это проблема для начала!), Он должен полагаться на имя пользователя и пароль. Кроме того, имя пользователя и пароль не могут быть переданы в виде открытого текста, потому что, если злоумышленник перехватит этот открытый текст, он сможет подключиться к моему прокси-серверу, выдавая себя за меня, сделать исходящие запросы, используя статический IP-адрес моего прокси, и таким образом уклониться от внешнего брандмауэр веб-службы.

Следовательно, прокси-сервер Squid должен принимать соединения только по HTTPS, а не по HTTP. (Подключение к внешней веб-службе может быть HTTP или HTTPS.)

Я запускаю Squid 3.1.10 на CentOS 6.5.x, и вот мой squid.conf до сих пор. Только для целей устранения неполадок я временно включил прокси HTTP и HTTPS, но я хочу использовать только HTTPS.

#
# Recommended minimum configuration:
#
acl manager proto cache_object
acl localhost src 127.0.0.1/32 ::1
acl to_localhost dst 127.0.0.0/8 0.0.0.0/32 ::1

# Example rule allowing access from your local networks.
# Adapt to list your (internal) IP networks from where browsing
# should be allowed
acl localnet src 10.0.0.0/8 # RFC1918 possible internal network
acl localnet src 172.16.0.0/12  # RFC1918 possible internal network
acl localnet src 192.168.0.0/16 # RFC1918 possible internal network
acl localnet src fc00::/7       # RFC 4193 local private network range
acl localnet src fe80::/10      # RFC 4291 link-local (directly plugged) machines

acl SSL_ports port 443
acl Safe_ports port 80      # http
acl Safe_ports port 21      # ftp
acl Safe_ports port 443     # https
acl Safe_ports port 70      # gopher
acl Safe_ports port 210     # wais
acl Safe_ports port 1025-65535  # unregistered ports
acl Safe_ports port 280     # http-mgmt
acl Safe_ports port 488     # gss-http
acl Safe_ports port 591     # filemaker
acl Safe_ports port 777     # multiling http
acl CONNECT method CONNECT

# Authorization

auth_param digest program /usr/lib64/squid/digest_pw_auth -c /etc/squid/squid_passwd
auth_param digest children 20 startup=0 idle=1
auth_param digest realm squid
auth_param digest nonce_garbage_interval 5 minutes
auth_param digest nonce_max_duration 30 minutes
auth_param digest nonce_max_count 50

acl authenticated proxy_auth REQUIRED

#
# Recommended minimum Access Permission configuration:
#
# Only allow cachemgr access from localhost
http_access allow manager localhost
http_access deny manager

# Deny requests to certain unsafe ports
http_access deny !Safe_ports

# Deny CONNECT to other than secure SSL ports
http_access deny CONNECT !SSL_ports

# We strongly recommend the following be uncommented to protect innocent
# web applications running on the proxy server who think the only
# one who can access services on "localhost" is a local user
#http_access deny to_localhost

#
# INSERT YOUR OWN RULE(S) HERE TO ALLOW ACCESS FROM YOUR CLIENTS
#

# Example rule allowing access from your local networks.
# Adapt localnet in the ACL section to list your (internal) IP networks
# from where browsing should be allowed
#http_access allow localnet
#http_access allow localhost
http_access allow authenticated

# And finally deny all other access to this proxy
http_access deny all

# Squid normally listens to port 3128
http_port 3128

https_port 3129 cert=/etc/squid/ssl/cert.pem key=/etc/squid/ssl/key.pem

# We recommend you to use at least the following line.
hierarchy_stoplist cgi-bin ?

# Disable all caching
cache deny all

# Uncomment and adjust the following to add a disk cache directory.
#cache_dir ufs /var/spool/squid 100 16 256

# Leave coredumps in the first cache dir
coredump_dir /var/spool/squid

# Add any of your own refresh_pattern entries above these.
refresh_pattern ^ftp:       1440    20% 10080
refresh_pattern ^gopher:    1440    0%  1440
refresh_pattern -i (/cgi-bin/|\?) 0 0%  0
refresh_pattern .       0   20% 4320

При такой настройке проксирование HTTP работает нормально, а проксирование HTTPS - нет.

Вот запрос HTTP-прокси из локального ящика:

$ curl --proxy http://my-proxy-server.example:3128 \
  --proxy-anyauth --proxy-user redacted:redacted -w '\n' \
  http://urlecho.appspot.com/echo?body=OK
OK

Хорошо, я этого и ожидал. Это приводит к строке в /var/log/squid/access.log:

1390250715.137     41 my.IP.address.redacted TCP_MISS/200 383 GET http://urlecho.appspot.com/echo? redacted DIRECT/74.125.142.141 text/html

Вот еще один запрос, на этот раз с HTTPS:

$ curl --proxy https://my-proxy-server.example:3129 \
  --proxy-anyauth --proxy-user redacted:redacted -w '\n' \
  http://urlecho.appspot.com/echo?body=OK

curl: (56) Recv failure: Connection reset by peer

Ничего в access.log после этого, но в cache.log:

2014/01/20 20:46:15| clientNegotiateSSL: Error negotiating SSL connection on FD 10: error:1407609C:SSL routines:SSL23_GET_CLIENT_HELLO:http request (1/-1)

Вот еще раз приведенное выше, более подробно:

$ curl -v --proxy https://my-proxy-server.example:3129 \
  --proxy-anyauth --proxy-user redacted:redacted -w '\n' \
  http://urlecho.appspot.com/echo?body=OK
* Adding handle: conn: 0x7f9a30804000
* Adding handle: send: 0
* Adding handle: recv: 0
* Curl_addHandleToPipeline: length: 1
* - Conn 0 (0x7f9a30804000) send_pipe: 1, recv_pipe: 0
* About to connect() to proxy my-proxy-server.example port 3129 (#0)
*   Trying proxy.server.IP.redacted...
* Connected to my-proxy-server.example (proxy.server.IP.redacted) port 3129 (#0)
> GET http://urlecho.appspot.com/echo?body=OK HTTP/1.1
> User-Agent: curl/7.30.0
> Host: urlecho.appspot.com
> Accept: */*
> Proxy-Connection: Keep-Alive
> 
* Recv failure: Connection reset by peer
* Closing connection 0

curl: (56) Recv failure: Connection reset by peer

Похоже на ошибку SSL. Однако я повторно использую SSL-сертификат поддомена с подстановочными знаками, показанный в приведенной выше конфигурации как cert.pem и key.pem, которые я успешно развернул на других веб-серверах. Более того, доступ к прокси-серверу напрямую с помощью curl работает или, по крайней мере, устанавливает соединение после этапа SSL:

$ curl https://my-proxy-server.example:3129
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd">
<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<title>ERROR: The requested URL could not be retrieved</title>

[--SNIP--]

<div id="content">
<p>The following error was encountered while trying to retrieve the URL: <a href="/">/</a></p>

<blockquote id="error">
<p><b>Invalid URL</b></p>
</blockquote>

<p>Some aspect of the requested URL is incorrect.</p>

<p>Some possible problems are:</p>
<ul>
<li><p>Missing or incorrect access protocol (should be <q>http://</q> or similar)</p></li>
<li><p>Missing hostname</p></li>
<li><p>Illegal double-escape in the URL-Path</p></li>
<li><p>Illegal character in hostname; underscores are not allowed.</p></li>
</ul>

[--SNIP--]

Есть идеи, что я делаю не так? Возможно ли то, что я пытаюсь сделать? Заранее спасибо.

Вы можете увидеть, как это делается, на этом небольшом образе Docker: yegor256 / squid-прокси. Проблема с вашим кодом заключается в том, что конфигурация идет после acl инструкция. Просто поменяйте их местами, и все начнет работать.

@ Дэвид, согласно твоему нить в Squid ML - Я бы посоветовал использовать решение Stunnel. Ваша аутентификация будет заключаться в сертификатах SSL на обоих концах туннеля, остальное - в виде «открытого текста» в этом туннеле, или вы можете сделать дайджест по своему усмотрению.

Я использовал подобное решение для "аутентификации" конечных точек NFS с большим успехом.

Пример использования такой аутентификации можно увидеть в LinuxGazette Безопасная связь с stunnel