Было несколько вопросов, связанных с резервным копированием, но большинство из них были либо слишком конкретными, предназначались для домашнего использования, либо для Windows.
Что бы я хотел услышать:
Особенно меня беспокоит последний вопрос. Сжатие резервных копий в tar-архивы работает нормально, но вызывает серьезные проблемы с производительностью, когда мне внезапно требуется восстановить резервную копию. С другой стороны, когда резервные копии не сжимаются и не синхронизируются с другим сервером, существует серьезный риск создания несовместимых разрешений пользователей.
Какие инструменты помогут вам сделать это как можно проще и какой подход вы предпочитаете?
Как часто вы делаете резервную копию своих серверов?
Стандартное резервное копирование выполняется каждую ночь, есть несколько резервных копий, которые выполняются чаще.
Как обеспечить правильное резервное копирование всех ваших серверов Linux?
Резервная копия отправляет отчет с хорошей темой об успехе или неудаче. Я проверяю, что я получал сообщения о статусе хотя бы пару раз в неделю.
Что вы делаете резервную копию, кроме очевидных / домашних каталогов?
Зависит от сервера, но мне почти всегда нужны / etc, / root и / var / lib / dpkg. Затем я добавляю любые каталоги данных.
Как обеспечить, чтобы резервные копии были инкрементными, но при этом легко восстанавливались?
я использую Дирвиш,
Dirvish - это быстрая сетевая система резервного копирования на основе дисков и ротации.
С помощью dirvish вы можете поддерживать набор полных образов ваших файловых систем с автоматическим созданием и истечением срока действия. Унылый резервный архив для ваших данных похож на машину времени.
Дирвиш использует rsync и --link-dest возможность жестко связывать идентичные файлы для каждой резервной копии вместе. Резервное копирование выполняется быстро, не тратится лишнее место, а восстановление так же просто, как копирование файлов.
Наконец-то я установил сервер RAID6 вместе с rsnapshot который использует rsync и жесткие ссылки между различными резервными копиями, поэтому это экономит место, но делает восстановление простой операцией копирования.
Я выполняю инкрементальные снимки каждую ночь, чередуя последние 14 снимков, каждую ночь накапливаю их в набор снимков каждую вторую неделю, а затем получаю квартальные наборы и годовые наборы. Я делаю резервную копию всего на своих дисках.
Для автономного резервного копирования я только что купил ленточный стример SAS LTO4, который я только что получил, но еще не установил, но я планирую время от времени хранить некоторые резервные копии rsnapshot и хранить ленты в моем офисе.
/etc
, /var
и /home
. Все остальное можно воссоздать оттуда.Как обеспечить правильное резервное копирование всех ваших серверов Linux?
Мы запускаем rdiff-backup каждую ночь. У нас есть сценарий, который находится в / usr / local / bin, который cron запускает каждую ночь.
Чтобы убедиться, что это сработало, мы используем nagios, чтобы проверить, что копия / var / log / messages никогда не старше 48 часов. Если это так, мы можем видеть, что на веб-странице nagios и в электронных письмах, которые nagios будет отправлять администраторам.
Как часто вы делаете резервную копию своих серверов?
Каждую ночь.
Что вы делаете резервную копию, кроме очевидных / домашних каталогов?
Мы делаем резервную копию всего, за исключением нескольких исключенных бит - / tmp / proc / sys и некоторых вещей в / var / log /
Как обеспечить, чтобы резервные копии были инкрементными, но при этом легко восстанавливались?
Мы используем rdiff-резервное копирование (также см этот учебник). rdiff-backup создает каталог с полной актуальной копией всего, что вы копируете, но сохраняет различия с предыдущими резервными копиями, так что вы можете восстанавливать файлы до тех пор, пока идут различия. Вы, вероятно, захотите время от времени удалять старые различия (для экономии места), и для этого есть команда rdiff-backup, которую cron может запускать еженедельно.
У меня есть задание cron, работающее на серверах, на которых выполняется rdiff-backup.
/ etc / получает резервную копию, / home / и любой другой каталог, который гарантирует, что я получу еще один и запустится как можно скорее, когда он выйдет из строя.
Все собирается в одном центральном месте и записывается на магнитофон каждую ночь. Лента забирается на следующее утро и уходит (за пределы участка) на 2 недели, прежде чем снова пустить в ход.
Для очень важных вещей у меня есть запасной ходовой механизм. Например: второй сервер, который сидит там и простаивает (и в основном это моя игрушка), но имеет все файлы / службы первого. Когда первый из них выходит из строя, этот может мгновенно вступить во владение, все, что нужно сделать, это изменить запись DNS.
* How do you ensure that all of your Linux servers are properly backed up?
я бегу двуличие на них, резервное копирование на amazon S3.
* How often do you backup your servers?
Я делаю полную резервную копию ежеквартально и каждую ночь инкрементально. Это в основном для сокращения затрат на хранение на S3.
* What do you backup, apart from the obvious /home directories?
/ home, / etc и / var. Я запускаю debian box, поэтому я также выполняю каждую ночь 'dpkg --get-selections> /etc/debian.pkgs', чтобы я мог отслеживать, что установлено.
* How do you ensure that backups are incremental, but still easy to restore?
двуличность делает это хорошо. Время от времени я тестирую его, выполняя восстановление с какого-то исторического момента.
Я сам изучаю это, и, поскольку мне нужно автоматическое резервное копирование вне офиса в службу хранения, Amazon Glacier и Backblaze B2 сейчас кажутся хорошими вариантами (Backblaze сейчас дешевле).
Если посмотреть на клиентов, которые поддерживают эти службы, и ожидаемые функции (шифрование, дедупликация, инкрементное резервное копирование), кажется, есть два варианта, которые работают в Linux: