Я планирую делать резервные копии нескольких веб-сайтов на Glacier каждый день в полночь.
Моя текущая система состоит в том, чтобы создать tar.gz всего / var / www (то есть всех сайтов) и скопировать его на другой сервер.
Я предполагаю, что использовал бы эти резервные копии, если бы вышел из строя весь сервер, хотя, возможно, я иногда хотел бы получить отдельные файлы.
Должен ли я продолжать таким же образом (tar.gz всех в день в одном хранилище) или иметь разные tar.gz для каждого сайта в одном хранилище или разные tar.gz для каждого сайта, каждый в хранилище для каждого сайта?
Подход «лучшее из обоих миров» будет следующим:
Сделав это таким образом, вы получите приличную «мгновенно готовую» резервную копию в S3 за последние недели с гораздо более продвинутыми инструментами копирования (извините, Glacier), и вы получите выгоду от более низкой стоимости Glacier и интерфейса S3 для извлечения предметы, гораздо более дружелюбные, чем у Glacier.