Я погуглил, самое близкое, что я нашел до сих пор, - это еще один вопрос SF здесь: Ограничения службы хранилища Azure
Цель:
Переместите около 50 ТБ хранилища в облако, представьте это хранилище как стандартный файловый ресурс Windows и сравнительно легко увеличьте его по мере роста.
Эта проблема:
Похоже, что один VHD может иметь размер только 1 ТБ, что явно не очень хорошо.
Я не думаю, что у кого-то есть решение, которое они могли бы предложить?
Спасибо за чтение,
Ксавье.
Попробуйте исследовать пространства имен Microsoft DFS и начать разделять данные в Azure - я сделал аналогичный проект. Если вы добавляете небольшой отдельный VHD, а затем монтируете дополнительные VHD емкостью 1 ТБ в качестве точек подключения под первым диском, например.
Крепление диска 100 ГБ как D:
Затем N-й виртуальный жесткий диск емкостью 1 ТБ будет монтироваться под D: \ Disk1 ... D: \ Disk50, затем с пространствами имен DFS вы можете поделиться данными, например. \ DOMAIN \ SHARES \ Finance будет отображаться в \ NEWFILESERVER \ DISK43 $ \ Finance и т. Д.
Не самый идеальный, но будет работать в текущих технических пределах Azure.
Надеюсь, я объяснил это достаточно, чтобы вы начали - не стесняйтесь обращаться к нам, если вам понадобится дополнительная помощь.
Удачи в загрузке 50 ТБ. Возможно, стоит подумать о том, является ли хранение этих данных в Azure более рентабельным, чем их хранение в офисах, но с увеличением количества WAN / Интернет-ссылок. Тем не менее, тогда вам не придется беспокоиться о новом оборудовании и т. Д. Вышеупомянутое решение будет достаточно хорошо масштабироваться, я могу представить.
Служба хранилища файлов Azure позволяет создавать общие файловые ресурсы размером до 5 ТБ с размером каждого файла до 1 ТБ. Фактически это том SMB с базовым API REST. Вы можете получить доступ к этому общему ресурсу как из ресурсов Azure, так и из локальных ресурсов.
Поскольку вы имеете дело с 50 ТБ, вам необходимо создать несколько томов файловой службы. Служба хранилища Azure поддерживает до 500 ТБ на одну учетную запись хранения, но не в качестве одного общего файлового ресурса. Вы жестяная банка загружать файлы в отдельные большие двоичные объекты, что дает вам доступ ко всем 500 ТБ, но это не обеспечивает интерфейс SMB; вместо этого вам придется полагаться либо на выбранный вами SDK для конкретного языка (.net, java, python, node, ruby, php), либо на прямые вызовы REST для работы с этими дискретными объектами.
Что касается перемещения контента в облако, вы можете сделать это с помощью своего собственного приложения (после подключения к общему файловому ресурсу) или использовать такой инструмент, как AzCopy, который теперь поддерживает файловую службу в качестве источника / места назначения. Видеть Эта статья в котором упоминается AzCopy и то, как вы могли бы использовать его для передачи в файловую службу.
Файловая служба Azure может быть вам полезен. Также, как отмечает HBrujn выше, 1 ТБ намного больше, чем 50 ГБ, которые вы ищете.