Назад | Перейти на главную страницу

Как лучше всего структурировать резервные копии Glacier?

Я планирую делать резервные копии нескольких веб-сайтов на Glacier каждый день в полночь.

Моя текущая система состоит в том, чтобы создать tar.gz всего / var / www (то есть всех сайтов) и скопировать его на другой сервер.

Я предполагаю, что использовал бы эти резервные копии, если бы вышел из строя весь сервер, хотя, возможно, я иногда хотел бы получить отдельные файлы.

Должен ли я продолжать таким же образом (tar.gz всех в день в одном хранилище) или иметь разные tar.gz для каждого сайта в одном хранилище или разные tar.gz для каждого сайта, каждый в хранилище для каждого сайта?

Подход «лучшее из обоих миров» будет следующим:

  1. Создайте корзину S3 для резервных копий
  2. Настройте правило жизненного цикла, чтобы элементы старше 2 недель (например) автоматически переводились в хранилище класса Glacier.
  3. Планируйте резервные копии как простые задачи синхронизации файлов с использованием S3 в качестве места назначения. У вас есть множество инструментов для автоматизации этого.

Сделав это таким образом, вы получите приличную «мгновенно готовую» резервную копию в S3 за последние недели с гораздо более продвинутыми инструментами копирования (извините, Glacier), и вы получите выгоду от более низкой стоимости Glacier и интерфейса S3 для извлечения предметы, гораздо более дружелюбные, чем у Glacier.