Я надеюсь, что вы можете помочь.
В настоящее время у меня есть haproxy 1.7.9, скомпилированный с Tproxy на centos 7.
Это используется для балансировки нагрузки 6 прокси-серверов для доступа в Интернет на внутренней стороне. Он настроен как одноручный nat с 10-гигабайтным интерфейсом vmnet3 nic. 6 прокси-серверов - это cisco WSA. Keepalived настраивается с помощью vip. IPtables используется для инкапсуляции трафика, чтобы гарантировать, что серверный прокси-сервер cisco wsa получает исходный IP-адрес, а не IP-адрес haproxy.
У нас возникают проблемы с производительностью / задержкой, когда пользователи сообщают о медленном доступе к Интернету и т. Д., Поскольку количество пользователей увеличилось, может ли кто-нибудь увидеть или предложить что-либо на балансировщике нагрузки, что может вызывать проблемы?
config:
global
daemon
log 127.0.0.1 local4
maxconn 40000
ulimit-n 81000
defaults
log global
timeout connect 5000
timeout client 300000
timeout server 300000
mode http
frontend http-in
bind *:80,*:443,*:8021
maxconn 50000
default_backend backend_servers
option forwardfor
#option http-server-close
#option forceclose
backend backend_servers
#option http-server-close
#option forceclose
balance leastconn
stick-table type ip size 20240k expire 5m
stick on src
server edu-wsa01 10.80.10.111:80 check inter 30000 fall 3
server edu-wsa02 10.80.10.112:80 check inter 30000 fall 3
server edu-wsa03 10.80.10.113:80 check inter 30000 fall 3
server edu-wsa04 10.80.10.114:80 check inter 30000 fall 3
server edu-wsa06 10.80.10.116:80 check inter 30000 fall 3
server edu-wsa07 10.80.10.117:80 check inter 30000 fall 3
#server web2 10.80.10.248:80 check inter 30000 fall 3
#server web3 10.80.10.247:80 check
source 0.0.0.0 usesrc clientip
Ниже приведена просто конфигурация статистики на порту 7000.
Я хотел сделать прямой возврат к серверу, однако у меня возникли проблемы с поддержкой обратной связи WSA.