Назад | Перейти на главную страницу

Перенести данные из хранилища Glacier в Glacier Deep Archive

У меня есть несколько хранилищ данных Glacier с данными в них.
Я бы хотел переместить эти данные в новый класс хранилища - «Glacier Deep Archive».

Как это сделать? Я не вижу такой опции в консоли в настройках хранилища.

Я посмотрел на это, когда вышел Glacier, и опубликовал комментарий в блоге AWS, на который так и не ответили.

Насколько я могу судить, нет никакого пути миграции из Glacier в Glacier Cold Archive. Вам придется перенести данные вручную.

У меня есть два предложенных подхода:

Локальная загрузка

Если у вас есть данные локально и вы уверены в их целостности, просто используйте командную строку AWS или любой инструмент, который вы хотите загрузить. Возможно, вы захотите настроить параметры S3 в своем файле конфигурации, чтобы ускорить это, что может увеличить использование полосы пропускания Интернета за счет использования большего количества потоков. Это особенно полезно, если у вас много маленьких файлов, а с большими файлами вы потенциально можете максимально увеличить пропускную способность.

Скачать, затем загрузить

Второй подход заключается в

  • Восстановить данные из Glacier
  • Загрузите данные на компьютер, либо локальный, либо, в идеале, экземпляр EC2 по требованию (не точечный, поскольку вы можете потерять свои данные, если ваш экземпляр будет остановлен)
  • Загрузите данные в S3, используя уровень IA

Создать пользователя

Вот команда S3, которую я использую для загрузки из Windows. Обратите внимание, что вам нужен профиль «ледник писатель».

Вы создадите пользователя IAM, у которого будет доступ к этому сегменту и любым другим нужным вам ресурсам. Имейте доступ к секретным ключам. Если вам нужно сделать это с ролью, это немного больше, но не сложно, в Интернете есть документация.

aws configure --glacier-writer

Затем вы можете отредактировать файл конфигурации, включив в него это или подобное. Это хорошо работает в моем домашнем интернет-соединении, так как у меня скорость загрузки составляет 20 Мбит / с. Если у вас высокая пропускная способность и быстрая машина, вы можете увеличить количество одновременных запросов. Я успешно использовал до 80 потоков в корпоративных соединениях с высокой пропускной способностью, что требует 1-2 ядра xeon.

[profile glacier-writer]
region = us-west-2
output = json
s3 =
    max_concurrent_requests = 10
    max_queue_size = 100
    multipart_chunksize = 75MB
    multipart_threshold = 200MB

В Windows это в

c:\users\username\.aws\configure

В Linux это

~\home\.aws\configure

Сделайте загрузку

Я делаю простую синхронизацию S3, но вы также можете использовать "s3 cp" для простой загрузки на S3.

aws s3 sync C:\Source\Folder\ s3://bucket-name/ --profile glacier-writer --storage-class DEEP_ARCHIVE --exclude *.tmp