У меня есть несколько хранилищ данных Glacier с данными в них.
Я бы хотел переместить эти данные в новый класс хранилища - «Glacier Deep Archive».
Как это сделать? Я не вижу такой опции в консоли в настройках хранилища.
Я посмотрел на это, когда вышел Glacier, и опубликовал комментарий в блоге AWS, на который так и не ответили.
Насколько я могу судить, нет никакого пути миграции из Glacier в Glacier Cold Archive. Вам придется перенести данные вручную.
У меня есть два предложенных подхода:
Локальная загрузка
Если у вас есть данные локально и вы уверены в их целостности, просто используйте командную строку AWS или любой инструмент, который вы хотите загрузить. Возможно, вы захотите настроить параметры S3 в своем файле конфигурации, чтобы ускорить это, что может увеличить использование полосы пропускания Интернета за счет использования большего количества потоков. Это особенно полезно, если у вас много маленьких файлов, а с большими файлами вы потенциально можете максимально увеличить пропускную способность.
Скачать, затем загрузить
Второй подход заключается в
Создать пользователя
Вот команда S3, которую я использую для загрузки из Windows. Обратите внимание, что вам нужен профиль «ледник писатель».
Вы создадите пользователя IAM, у которого будет доступ к этому сегменту и любым другим нужным вам ресурсам. Имейте доступ к секретным ключам. Если вам нужно сделать это с ролью, это немного больше, но не сложно, в Интернете есть документация.
aws configure --glacier-writer
Затем вы можете отредактировать файл конфигурации, включив в него это или подобное. Это хорошо работает в моем домашнем интернет-соединении, так как у меня скорость загрузки составляет 20 Мбит / с. Если у вас высокая пропускная способность и быстрая машина, вы можете увеличить количество одновременных запросов. Я успешно использовал до 80 потоков в корпоративных соединениях с высокой пропускной способностью, что требует 1-2 ядра xeon.
[profile glacier-writer]
region = us-west-2
output = json
s3 =
max_concurrent_requests = 10
max_queue_size = 100
multipart_chunksize = 75MB
multipart_threshold = 200MB
В Windows это в
c:\users\username\.aws\configure
В Linux это
~\home\.aws\configure
Сделайте загрузку
Я делаю простую синхронизацию S3, но вы также можете использовать "s3 cp" для простой загрузки на S3.
aws s3 sync C:\Source\Folder\ s3://bucket-name/ --profile glacier-writer --storage-class DEEP_ARCHIVE --exclude *.tmp