Назад | Перейти на главную страницу

Резервное копирование и загрузка веб-сайта

Как скачать весь сайт в целом и * .blogspot.com в частности? Обратите внимание, что мне не обязательно иметь доступ администратора к этому сайту. На самом деле я просто пытаюсь загрузить сторонний веб-сайт на случай, если он загорится ...

Я нашел httrack (http://www.httrack.com/) очень полезно для этого в прошлом.

Если вы используете какой-либо инструмент, чтобы попытаться загрузить весь сайт (а не только httrack), убедитесь, что вы проявили к этому сайту немного внимания. Видеть страница httrack "Чего нельзя делать" для некоторых указателей на это.

вы можете использовать wget для зеркалирования веб-сайта [при условии, что он не имеет навигации на основе flash или javascript].

смотрю Вот или просто проверьте команду руководство. wget доступен для систем unix и окна.

Если у вас нет доступа администратора к сайту, чтобы использовать инструмент резервного копирования для сайта, вы можете сделать резервную копию HTML-содержимого своих страниц, просмотрев источник источника, или, если вам просто нужно фактическое письменное содержание статей, скопируйте который. Вы также можете скачать свои изображения и другие вложения с сайта. Эта статья дает вам подробную информацию о том, как вы могли бы сделать это более эффективным способом.

Вы также можете использовать wget, если он у вас есть, чтобы получить информацию о сайте.

Однако имейте в виду, что это не даст вам информацию, необходимую для того, чтобы просто взять свой блог и запустить его в другом месте, за блогом стоит целый PHP-сервер, который загружает ваши сайты и т. Д.

wget, я полагаю, будет сканировать страницу за вас

вариант -r я считаю, что вы хотите. Обратите внимание на то, что в следующем фрагменте показано преобразование ссылок для просмотра в автономном режиме. Поскольку вы сказали, что хотите сохранить эту страницу на случай, если она «загорится», это позволит вам просматривать ее локально.

со страницы руководства

Wget can follow links in HTML and XHTML pages and create local versions of remote web
sites, fully recreating the directory structure of the original site.  This is sometimes 
referred to as "recursive downloading."  While doing that, Wget respects the Robot 
Exclusion Standard (/robots.txt).  Wget can be instructed to convert the links in 
downloaded HTML files to the local files for offline viewing.  

Если вы хотите что-то более продвинутое, чем wget, взгляните на Black Widow

Если это кому-то поможет. SiteSucker это супер-приложение для Mac OSX, которое делает то, что вы хотите. wget не всегда делает то, что вы ожидаете, особенно с меню на основе JS и т. д., даже с его множеством опций. И httrack не является визуальным инструментом на Mac, он устанавливается вместе с homebrew. SiteSucker - это, безусловно, самый простой и надежный инструмент для локальная загрузка всех HTML и ресурсов, как если бы у вас была полная статическая версия этого сайта.