Я новичок в морошке.
У меня есть сценарий, в котором около 2,5 ТБ данных с локального сервера должны быть скопированы как на NAS в локальной сети, так и на Amazon S3. Эти данные постоянно меняются несколькими пользователями. Каковы были бы лучшие практики для достижения чего-то подобного с помощью облачной версии Windows Server Edition?
Я также хотел бы сохранить некоторую возможность управления версиями для рассматриваемых файлов.
Я бы посоветовал вам взглянуть на AcloudA который можно использовать в качестве аппаратного шлюза, который представляет облачное хранилище как локальный DAS для вашего сервера и выгружает данные в облако.
Его можно установить либо на локальном сервере, либо на NAS (это зависит от особенностей используемого оборудования) в качестве жесткого диска SATA / SAS с подключением к облаку (Amazon или Azure), что позволяет запускать задания резервного копирования, как если бы это было в локальном хранилище.
Это действительно зависит от размера вашего файла и количества объектов. Хранилище GW от AWS стоит вам ежемесячно, и у вас есть вариант кеширования, который хорошо.
CloudBerry Backup имеет резервное копирование на уровне блоков, при котором огромные объекты могут выгружаться на основе инкрементного уровня блоков (в основном изменения относятся к S3), что дает вам еще одну точку восстановления.
Существует также резервное копирование в реальном времени, которое вы можете попробовать.