Назад | Перейти на главную страницу

Выгрузка на вид большого (~ 200 ГБ) архива в Amazon Glacier

Я хочу загрузить в Amazon Glacier архив объемом более 200 ГБ - один .tgz.

Интересно, есть ли у кого-нибудь опыт с этим, и кажется ли это необычным, чтобы сделать это без проблем с тайм-аутом и т. Д. С одной стороны, 200 ГБ - это много данных. С другой стороны, похоже, что Glacier создан для удовлетворения такого спроса.

Я намерен использовать Python boto библиотека. У кого-нибудь есть рекомендации в противном случае?

Как уже говорили другие, Glacier более чем способен обрабатывать 200 ГБ данных.
(Откровенно говоря, с точки зрения Большое количество данных 200 ГБ - это ничто - я обычно перемещаю резервные копии такого размера каждый месяц.)

Две вещи, о которых следует знать, - это ограничения вашего восходящего соединения, как упоминалось в комментариях, и ваша необходимость когда-либо возвращать эти данные (Glacier действительно дешево хранить, но очень дорого получать).
Если вам не помешает ни одна из этих проблем (и обзор Книга / документация по леднику не обнаруживает других проблемных мест для запланированного развертывания), все будет в порядке.