Я пытаюсь предотвратить сканирование поисковыми системами через SSL-версию сайта, чтобы предотвратить дублирование контента и проблемы канонизации.
Я нашел следующую замечательную статью: http://www.seoworkers.com/seo-articles-tutorials/robots-and-https.html
Проблема в том, что я использую lighttpd, который, похоже, не имеет директивы RewriteCond, чтобы ограничить перезапись только SSL.
Может ли кто-нибудь посоветовать, возможно ли это на lighttpd, и дать фрагмент?
Заранее спасибо!
Если у вас установлена как минимум версия 1.4.19, вы сможете использовать условную конфигурацию, например:
$HTTP["scheme"] == "https" {
url.rewrite-once = ("^robots.txt$" => "robots_ssl.txt")
}
попробуй это:
$SERVER["socket"] == "a.b.c.d:443" {
...
$HTTP["host"] =~ "<yourhostname>" {
url.rewrite-once = ("^robots.txt$" => "robots_ssl.txt")
}
}
в url.rewrite-once
обязательно должен быть в твоем $SERVER["socket"]
раздел вашей ssl-части, которая будет применяться только при доступе к вашему ssl-хосту.
url.rewirte-once можно разместить без условно, но, судя по некоторым форумам, он не будет работать постоянно.