У меня есть несколько экземпляров EC2 (Linux и Windows) с прикрепленными томами EBS, некоторые базы данных MySQL и сегменты S3 в учетной записи AWS. Я в ситуации, когда
Я ищу руководство о том, как этого можно достичь, учитывая следующие соображения:
Я понимаю, что придется идти на компромиссы (например, время v автономное / оперативное резервное копирование или время v стоимость) и т.д.
Я видел предложения по использованию ледника s3 или snapshot to s3
варианты, но не ясно, что будет стоить мне дороже.
Предположим, ниже указаны серверы, которые у меня есть
Я сделал быстрый расчет Таким образом, текущая инфраструктура обходится примерно в 940 долларов США в месяц, но не включает пропускную способность. Скажем, 1000 долларов США.
Я предполагаю, что размеры вашего тома являются фактическими данными. Это достаточный объем данных, и этот объем данных действительно имеет значение для ваших вариантов, поскольку полоса пропускания AWS очень дорога. Если у вас меньше данных, расчет может быть другим, что сделает загрузку данных более рентабельной, но только для относительно небольших объемов данных.
Я сосредоточусь на снижении затрат, а не на простоте / скорости для развертывания инфраструктуры. Я также предполагаю, что мы-восток-1 / Вирджиния.
Обратимся к этой услуге по услуге
S3
S3 с хранилищем на 600 ГБ стоит всего 14 долларов в месяц, так что ничего не стоит делать. Ваши варианты:
Рекомендуется: класс S3 Glacier Deep Archive.
EC2 / EBS
Отключение экземпляров очевидно, поэтому я посмотрю на EBS.
S3 Deep Archive снова выигрывает
RDS
Затраты на поиски ледника S3
Массовое извлечение уровня стоит 0,0025 USD / ГБ. У вас около 3,6 ТБ, что составляет около 9 долларов США.
Резюме
По сути, Glacier Deep Archive - лучший вариант для всех ваших данных. При отключении экземпляров EC2 / RDS, копировании / архивировании данных, удалении экземпляров / томов / моментальных снимков / резервных копий RDS ваш счет снижается с примерно 1000 долларов до примерно 3,63 долларов в месяц.
Большое предостережение при использовании глубокого архива S3 заключается в том, что данные будут оплачиваться минимум за 6 месяцев независимо от того, как долго они там хранятся. Класс Glacier стоит в 4 раза больше, но длится минимум 90 дней. Следующий уровень - это класс IA, который еще в 3 раза выше, что в целом в 12 раз дороже, чем глубокий архив.
Обратите внимание, что я не учел затраты на запрос S3 API. Обычно они относительно низкие, если вы загружаете меньшее количество больших файлов, особенно если вы устанавливаете размер многоэлементного блока выше.
s3 =
max_concurrent_requests = 20
max_queue_size = 1000
multipart_threshold = 64MB
multipart_chunksize = 128MB
Также может взиматься плата за пропускную способность при перемещении данных. Если кто-то укажет на что-нибудь существенное, я добавлю это к своему ответу.