Я хочу сделать резервную копию своего Linux-сервера на Amazon S3, используя дублирование.
Я нашел отличный ресурс здесь Это помогло мне настроить его, и я использую базовый сценарий, который был там указан для меня и теперь скопирован здесь:
#!/bin/sh
# Export some ENV variables so you don't have to type anything
export AWS_ACCESS_KEY_ID=[your-access-key-id]
export AWS_SECRET_ACCESS_KEY=[your-secret-access-key]
export PASSPHRASE=[your-gpg-passphrase]
GPG_KEY=[your-gpg-key]
# The source of your backup
SOURCE=/
# The destination
# Note that the bucket need not exist
# but does need to be unique amongst all
# Amazon S3 users. So, choose wisely.
DEST=s3+http://[your-bucket-name]/[backup-folder]
duplicity \
--encrypt-key=${GPG_KEY} \
--sign-key=${GPG_KEY} \
--include=/boot \
--include=/etc \
--include=/home \
--include=/root \
--include=/var/lib/mysql \
--exclude=/** \
${SOURCE} ${DEST}
# Reset the ENV variables. Don't need them sitting around
export AWS_ACCESS_KEY_ID=
export AWS_SECRET_ACCESS_KEY=
export PASSPHRASE=
Есть ли у кого-нибудь еще опыт работы с двуличностью, где они могут улучшить этот сценарий и / или поделиться лучшими практиками, чтобы помочь создать лучший сценарий?
Я использую вариант этого сценария для своих резервных копий. Я недавно внес в него некоторые изменения, чтобы попытаться сэкономить на моем счете Amazon S3 (персональный сервер, иначе я бы не стал так сильно возражать).
Полный сценарий Вот, но я перечислю внесенные мной изменения ниже.
--full-if-older-than 1M
--volsize 250
Первый вариант гарантирует, что duplicity будет делать полную резервную копию каждый месяц. Это полезно, потому что это означает, что я могу удалить последнюю полную резервную копию, если мне нужно удалить файлы из S3.
Второй вариант уменьшает количество хранилищ дубликатов файлов на S3, что уменьшает количество запросов к S3, уменьшая стоимость.
Я также добавил следующее после завершения резервного копирования. Это удалит все резервные копии старше 6 месяцев из S3.
duplicity remove-older-than 6M --force ${DEST}