Привет, ребята, есть ли какое-либо программное обеспечение для резервного копирования, которое может периодически создавать резервные копии папок онлайн-сайтов и хранить их в автономном режиме в локальной системе. Нужно что-то надежное, и было бы неплохо, если бы есть что-то бесплатное, что может сделать эту работу :)
Что-то, что я мог бы просто установить и периодически запускать. Моя локальная система работает под управлением Windows XP
Wget, Унисон, Rsync или вы могли бы даже попробовать что-нибудь с программное обеспечение для контроля версий.
Я использую их все, в зависимости от контекста. Wget приятно зеркалировать веб-сайт через ftp, Унисон приятно распространять модификации одних и тех же данных в разных местах (и позволяет вам уточнить иерархию между ними), Rsync хорошо синхронизируется между двумя местами, и подрывная деятельность хорошо иметь полное решение для резервного копирования, которое позволяет вам вернуться к началу и отслеживать каждую модификацию каждого файла в каждой строке (не рекомендуется для нетекстовых файлов, хотя некоторые из них не будут иметь большого значения - я использую его в полном хаотическом интранет компании).
Но это не «легкий» способ, по крайней мере, если вы хотите что-то мощное и эффективное.
Можешь попробовать Версия Bacula для Windows
Похожий на унисон но лучше, имхо, как насчет использования Dropbox (Доступны клиенты для Linux, Windows и Mac) и привязка вашего веб-каталога (без журналов) к папке Dropbox?
В качестве альтернативы, вместо запуска резервного копирования «горячей копии», вы можете периодически сжимать все соответствующие веб-папки в архив, расположенный в каталоге dropbox, который затем автоматически создает резервную копию для вас онлайн (а также загружает на любые другие машины, которые вы есть "dropbox" -ed). Затем поместите командный файл в папку запуска XP, который копирует или перемещает все архивы резервных копий в другой каталог на вашем компьютере (например, если вы переместите файл из папки Dropbox на одном компьютере, он будет удален из онлайн-папки, и, наконец, другие клиенты синхронизируются с онлайн-«папкой» и тоже удаляют файл - при необходимости все еще есть возможность восстановить онлайн).
Если вы не знакомы с Dropbox, вот несколько его функций (или вот скринкаст):
Я бы рекомендовал использовать wget.exe для загрузки всего веб-сайта в локальную папку, выполняемую как запланированное задание.
Например: вы можете вывести резервные копии своих баз данных в выделенную папку, а затем написать простой сценарий для FTP-передачи содержимого на локальный сервер, а затем переместить файлы, переданные в папку архива на удаленном сервере.
если вам также нужен «невидимый» контент для резервного копирования, вы можете использовать rsync для синхронизации локальной резервной копии с онлайн-контентом.
Я думаю, вы подходите к этому не с той стороны. Я вижу необходимость сбросить копию базы данных, но почему файлы? У вас уже должна быть копия опубликованного контента локально в вашей среде разработки, желательно в системе управления версиями.
Если ваше приложение создает новые файлы или вам просто нужно работать с реальной версией, то есть несколько программ FTP, которые будут выполнять запланированные запуски с помощью сценария. FTP-вояджер, например, позволит вам создать сценарий для загрузки вашей корневой FTP-папки в локальную папку, а затем запланировать ее ежедневно. Конечно, это не бесплатно, но стоит недорого и выполняет свою работу.