Я использую Bacula с S3 для резервного копирования. Я храню объемы бакулы около 60 дней. Используя двуличие, я бы хотел использовать GPG-шифрование томов. Есть ли способ выполнить синхронизацию стиля rsync с использованием дублирования? Мне нужна точно такая же структура файлов в S3, что и в bacula. Обычно я делал это с помощью rsync --delete.
Короткий ответ ... вроде как.
Можно выполнить резервное копирование и восстановить ваши файлы. Однако, если вы заглянете в свою корзину Amazon из веб-интерфейса, все, что вы увидите, - это архивы резервных копий, а не сами файлы, которые вы можете скачать. Вот тут-то и пригодятся Duplicity и Duply (простая двойственность).
Запуск простой команды с сервера, например duply myfirstback list
предоставит вам список всех файлов, для которых созданы резервные копии.
Бег duply myfirstback fetch <file on S3> <destination>
позволит вам получать отдельные файлы или целые структуры каталогов.
Бег duply myfirstbackup status
предоставит вам список всех полных и инкрементных резервных копий.
Затем вы можете указать Duply, из какого набора резервных копий извлекать файлы. Например: duply myfirstbackup fetch 'home/myhome/importantdirectory' ./home/myhome/restore 3D
восстановит каталог / home / myhome / important из резервных копий, сделанных 3 дня назад, и восстановит его локально в / home / myhome / restore (см. «страницу руководства по дублированию», раздел ФОРМАТЫ ВРЕМЕНИ)
Как
Предполагая, что вы работаете в ОС Linux, вы можете использовать Duply с Duplicity, чтобы упростить шифрование и инкрементное резервное копирование данных вашего сервера на S3.
Предварительные требования: python-lockfile, librsync, boto, duplicity, duply
Файлы конфигурации для Duply, который будет управлять Duplicity для вас, можно поместить в /root/.duply/
Тогда остается просто создать ваши резервные конфигурации, что можно сделать, выполнив команду duply myfirstbackup create
.
Затем вы можете отредактировать два файла (conf, exlude) в /root/.duply/myfirstbackup. Вот упрощенный пример того и другого:
/root/.duply/myfirstbackup/conf
GPG_PW='my_super_secret_password_which_cannot_lose!'
TARGET='s3://s3.amazonaws.com/<bucketname>/my_backup_folder'
TARGET_USER='AWS_ACCESS_ID'
TARGET_PASS='AWS_ACCESS_SECRET'
SOURCE='/'
MAX_AGE=1M
TEMP_DIR=/tmp
/root/.duply/myfirstbackup/exclude
+ /home/myhome
**
Вышеупомянутое сделает резервную копию всего в / home / myhome и сохранит копию в течение 1 месяца. См. Duply docs для получения дополнительной информации о том, как настроить конфигурации, например, на 60 дней инкрементально. Вы можете делать такие вещи, как еженедельное полное резервное копирование с добавлением каждые 2 часа. У вас есть большой контроль над этим.
Последний шаг - просто убедиться, что вы настроили задание cron, чтобы запускать его так часто, как вы хотите. Ежедневно, ежечасно, еженедельно и т. Д.
Двойной: http://www.duply.net