Назад | Перейти на главную страницу

Нужна автоматическая система резервного копирования папок сайта? Есть рекомендации?

Привет, ребята, есть ли какое-либо программное обеспечение для резервного копирования, которое может периодически создавать резервные копии папок онлайн-сайтов и хранить их в автономном режиме в локальной системе. Нужно что-то надежное, и было бы неплохо, если бы есть что-то бесплатное, что может сделать эту работу :)

Что-то, что я мог бы просто установить и периодически запускать. Моя локальная система работает под управлением Windows XP

Wget, Унисон, Rsync или вы могли бы даже попробовать что-нибудь с программное обеспечение для контроля версий.

Я использую их все, в зависимости от контекста. Wget приятно зеркалировать веб-сайт через ftp, Унисон приятно распространять модификации одних и тех же данных в разных местах (и позволяет вам уточнить иерархию между ними), Rsync хорошо синхронизируется между двумя местами, и подрывная деятельность хорошо иметь полное решение для резервного копирования, которое позволяет вам вернуться к началу и отслеживать каждую модификацию каждого файла в каждой строке (не рекомендуется для нетекстовых файлов, хотя некоторые из них не будут иметь большого значения - я использую его в полном хаотическом интранет компании).

Но это не «легкий» способ, по крайней мере, если вы хотите что-то мощное и эффективное.

Можешь попробовать Версия Bacula для Windows

Похожий на унисон но лучше, имхо, как насчет использования Dropbox (Доступны клиенты для Linux, Windows и Mac) и привязка вашего веб-каталога (без журналов) к папке Dropbox?

В качестве альтернативы, вместо запуска резервного копирования «горячей копии», вы можете периодически сжимать все соответствующие веб-папки в архив, расположенный в каталоге dropbox, который затем автоматически создает резервную копию для вас онлайн (а также загружает на любые другие машины, которые вы есть "dropbox" -ed). Затем поместите командный файл в папку запуска XP, который копирует или перемещает все архивы резервных копий в другой каталог на вашем компьютере (например, если вы переместите файл из папки Dropbox на одном компьютере, он будет удален из онлайн-папки, и, наконец, другие клиенты синхронизируются с онлайн-«папкой» и тоже удаляют файл - при необходимости все еще есть возможность восстановить онлайн).

Если вы не знакомы с Dropbox, вот несколько его функций (или вот скринкаст):

Я бы рекомендовал использовать wget.exe для загрузки всего веб-сайта в локальную папку, выполняемую как запланированное задание.

Например: вы можете вывести резервные копии своих баз данных в выделенную папку, а затем написать простой сценарий для FTP-передачи содержимого на локальный сервер, а затем переместить файлы, переданные в папку архива на удаленном сервере.

если вам также нужен «невидимый» контент для резервного копирования, вы можете использовать rsync для синхронизации локальной резервной копии с онлайн-контентом.

Я думаю, вы подходите к этому не с той стороны. Я вижу необходимость сбросить копию базы данных, но почему файлы? У вас уже должна быть копия опубликованного контента локально в вашей среде разработки, желательно в системе управления версиями.

Если ваше приложение создает новые файлы или вам просто нужно работать с реальной версией, то есть несколько программ FTP, которые будут выполнять запланированные запуски с помощью сценария. FTP-вояджер, например, позволит вам создать сценарий для загрузки вашей корневой FTP-папки в локальную папку, а затем запланировать ее ежедневно. Конечно, это не бесплатно, но стоит недорого и выполняет свою работу.