Назад | Перейти на главную страницу

резервное копирование нескольких веб-сайтов ежедневно автоматически

это моя ситуация
У меня есть компьютер с веб-сервером со многими веб-сайтами (с использованием vhost), на которых запущен freebsd. на случай, если с моим сервером что-то случится, я хочу делать резервную копию всех веб-сайтов каждую полночь.

мои вопросы:
1. можно ли с помощью одной команды сделать резервную копию множества веб-сайтов с разными именами файлов?
2. Могу ли я автоматически сохранять файлы резервных копий на другом сервере через ftp?
3. или лучше создать клон сервера ?? как мне синхронизировать его содержимое ??

любая подсказка будет оценена

  1. Можно ли с помощью одной команды сделать резервную копию множества веб-сайтов с разными именами файлов?

Да. Вам просто нужно написать сценарий bash для выполнения резервного копирования.

  1. Могу ли я автоматически сохранять файлы резервных копий на другом сервере через ftp?

Да. Опять же, вам нужно сделать это из сценария резервного копирования.

  1. или лучше создать клон сервера ??

Что ж, решать вам.

как мне синхронизировать его содержимое ??

Это очень большая тема, на которую стоит задать собственный вопрос и ответы.

Для * nix существует множество готовых систем резервного копирования. Я бы рекомендовал вам проверить rsnapshot или rdiff-backup. Они будут учитывать только ваши файлы. Для тебя базы данных, вам нужно будет найти лучший способ их резервного копирования и реализовать его отдельно.