На моем веб-сайте мы регистрируем IP-адреса пользователей, чтобы убедиться, что мы можем правильно модерировать и предотвращать злоупотребления.
Нам известны прокси, такие как Opera VPN, Tor и другие.
Однако мне не известно, что у самого Google есть прокси, кроме функции «Экономия данных».
Некоторые пользователи заходят на мой сайт с такими IP-адресами, как:
66.102.8.219
66.249.91.121
IP-адресов намного больше. Эти IP-адреса принадлежат AS15169 Google LLC и имеют следующие имена хостов:
rate-limited-proxy-66-249-91-121.google.com
google-proxy-66-102-8-219.google.com
Согласно этой странице, https://developers.chrome.com/multidevice/data-compression
Заголовок X-Forwarded-For
будет присутствовать с реальным IP пользователя.
И мы изучаем этот заголовок и используем этот IP-адрес в качестве IP-адреса пользователя.
Однако, когда я сбрасываю заголовки, когда пользователи приходят с указанными выше IP-адресами, этот заголовок отсутствует, и вообще нет другого заголовка с IP-адресом пользователя.
Кроме того, согласно этой странице, https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Cache-Control
Директива [Cache-Control] без преобразования является избыточной для контента, обслуживаемого по HTTPS, поскольку прокси-серверы не могут преобразовывать полезные данные через безопасные соединения.
Поэтому я не думаю, что приведенные выше IP-адреса имеют отношение к функции Data Saver, потому что мой веб-сайт полностью защищен SSL.
-
Как вы думаете, что используют эти пользователи, чтобы скрыть свой настоящий IP?
Прочтите пользовательский агент, вероятно, это один из роботов Google. Если вы не хотите, чтобы вас индексировал набор robots.txt, они работают хорошо.
В справке Google для веб-мастеров ссылка:
Изменить: если это не сканер, это может быть попытка использовать различные службы Google в качестве прокси. На webmasters.se за эти годы появилось множество теорий, но ничего убедительного: Является ли этот прокси-сервер Google поддельным сканером: google-proxy-66-249-81-131.google.com?
Как бы то ни было, решите, не злоупотребляют ли эти агенты вашей системой. Заблокируйте, ограничьте скорость и все равно попробуйте robots.txt, чтобы увидеть, ведут ли они себя как бот.