Я узнал, что McAfee SiteAdvisor сообщил о моем веб-сайте как "могут быть проблемы с безопасностью".
Меня мало волнует, что McAfee думает о моем веб-сайте (я могу защитить его сам, а если нет, McAfee определенно не та компания, о которой я бы просил, большое спасибо). Однако меня беспокоит то, что они, по-видимому, сканировали мой веб-сайт без моего разрешения.
Чтобы уточнить: на моем веб-сайте еще почти нет контента, только несколько заполнителей и несколько файлов для моего личного использования. Нет никаких ToS.
У меня следующие вопросы: имеет ли McAffee право загружать контент с моего веб-сайта или сканировать его? Могу я им запретить? У меня есть ощущение, что должен быть какой-то принцип «Моя крепость, мои правила», однако я практически ничего не знаю обо всех юридических вопросах.
Обновить: Мне, наверное, следовало упомянуть, что мой серверный провайдер регулярно отправляет мне электронные письма с выводами SiteAdvisor - именно так я узнал об их «рейтинге» и поэтому меня раздражает.
Да, они имеют на это право - вы создали общедоступный веб-сайт, почему вы думаете, что они этого не делают?
Вы тоже, конечно, имеете право остановить их. Вы можете попросить их не сканировать ваш сайт с помощью robots.txt или активно запрещать им доступ к нему с помощью чего-то вроде fail2ban.
Или же не беспокойтесь об этом и продолжайте жить своей жизнью. Это ничего не повредит и определенно не повредит интернет-зондированию.
Для этого есть юридический прецедент. Филд против Google Inc., 412 F. Supp. 2d 1106, (округ США, штат Невада, 2006 г.). Google выиграл сводное судебное решение, основанное на нескольких факторах, в первую очередь на том, что автор не использовал файл robots.txt в метатегах на своем веб-сайте, что помешало бы Google сканировать и кэшировать страницы, которые владелец веб-сайта не хотел индексировать.
В США НЕТ закона, конкретно регулирующего файлы robots.txt; однако другое судебное дело создало прецедент, который в конечном итоге может привести к тому, что файлы robots.txt будут рассматриваться как средства обхода преднамеренных электронных мер, принимаемых для защиты контента. В HEALTHCARE ADVOCATES, INC против HARDING, EARLEY, FOLLMER & FRAILEY, et. и др. Healthcare Advocates утверждали, что Хардинг и др. по существу взломали возможности Wayback Machine, чтобы получить доступ к кэшированным файлам страниц, у которых были более новые версии с файлами robots.txt. Хотя Healthcare Advocates проиграли это дело, Окружной суд отметил, что проблема заключалась не в том, что Хардинг и др. «Взломали замок», а в том, что они получили доступ к файлам из-за проблемы с загрузкой сервера Wayback Machine, которая предоставила доступ к кэшировать файлы, когда этого не должно было быть, и, следовательно, «блокировки не было».
ИМХО, это лишь вопрос времени, пока кто-то не примет это решение и не перевернет его на свою сторону: суд указал, что robots.txt является замок для предотвращения обхода и обхода является взлом замка.
К сожалению, многие из этих судебных исков не так просты, как «Я пытался сказать вашему сканеру, что это запрещено, и ваш сканер проигнорировал эти настройки / команды». Во всех этих случаях существует множество других проблем, которые в конечном итоге влияют на результат больше, чем основной вопрос о том, следует ли считать файл robots.txt методом электронной защиты в соответствии с законодательством США DCMA.
При этом, как уже было сказано, это закон США, и кто-то из Китая может делать то, что хочет - не из-за юридических проблем, а потому, что Китай не будет обеспечивать защиту товарных знаков и авторских прав США, так что удачи им.
Не короткий ответ, но на самом деле нет короткого и простого ответа на ваш вопрос!
Не совсем ясно, является ли это поведение этичным или нет.
Сканирование общедоступного сайта само по себе не является неэтичным (если вы явно не запретили его использование robots.txt или других технических средств, и они их обходят).
То, что они делают, является грубым эквивалентом холодного звонка вам, при этом объявляя миру, что вы, возможно, не в безопасности. Если это наносит ущерб вашей репутации и неоправданно, это неэтично; если он это делает, и единственное решение - вы платите им, то это рэкет. Но я не думаю, что это то, что происходит.
В другой раз это становится неэтичным, когда кто-то сканирует ваш сайт, чтобы присвоить ваш контент или данные, а затем представляет их как свои собственные. Но это тоже не то, что происходит.
Итак, я предполагаю, что их поведение в этом случае является этичным, и вы, скорее всего, также можете игнорировать его.
Связанное с ними поведение, связанное с рассылкой вам спама, является неэтичным, если вы не связаны с ними и не запрашивали электронные письма, но я подозреваю, что у них есть работающий отказ от подписки.
Технический подход к блокированию доступа определенных людей или компаний к вашему веб-сайту:
Вы можете заблокировать определенные IP-адреса или диапазоны адресов для доступа к страницам вашего сайта. Это файл .htaccess (если ваш сайт работает на веб-сервере Apache).
http://www.htaccess-guide.com/deny-visitors-by-ip-address/
Пусть ваш веб-сервер регистрирует IP-адреса, с которых к нему осуществляется доступ, и выполняет поиск этих IP-адресов, чтобы найти те, которые связаны с McAfee. Наверное, сейчас это легко сказать, если у вас нет постоянных посетителей.
Конечно, они могут изменить IP-адреса в будущем. Тем не менее, если вы посмотрите найденные IP-адреса, чтобы узнать, кому они принадлежат, вы сможете узнать обо всем блоке адресов, принадлежащих McAfee, и заблокировать их все.
Правовое основание для этого:
«Владельцы веб-сайтов могут юридически заблокировать некоторых пользователей по правилам суда»
(Если ваш веб-сайт является личным, никто не будет оспаривать ваше право блокировать некоторых пользователей. Но если это веб-сайт для бизнеса, обе стороны этого обсуждения приводят юридические и моральные аргументы. Чем меньше ваш бизнес, тем проще он должен быть защищен законом - и тем менее кто-либо еще будет достаточно заботиться о том, чтобы жаловаться.)
Вас также может заинтересовать «Запретить посетителям по рефереру».
"Если вы когда-либо просматривали свои журналы и заметили удивительное увеличение трафика, но не увеличили количество фактических запросов файлов, вероятно, кто-то перехватывает контент (например, файлы CSS) или кто-то пытается взломать ваш веб-сайт (это может просто означать попытку чтобы найти непубличный контент) ".