Назад | Перейти на главную страницу

Перемещение 3 ТБ файлов NTFS с локального файлового сервера на сервер Azure - лучший способ переноса

Мы перемещаем наш локальный файловый сервер Windows с 2,7 ТБ файлов NTFS в Azure (у нас есть VPN-соединение со скоростью 100 МБ / с для подключения к Azure).

Что люди посоветовали бы лучше всего передавать наши файлы, сохраняя разрешения NTFS нетронутыми?

Мы можем воссоздать около 20 общих сетевых ресурсов на файловом сервере, но мы не хотим воссоздавать 300+ пользовательских прав доступа к каталогу NTFS.

Мы создали сервер Azure и настроили репликацию файлов DFS между локальным сервером (Windows Server 2008R2 с 3 дисками, виртуализированными в VMware), но у нас возникли проблемы с его работой, он работает для небольшого количества файлов, но не работает. все они.

Кто-нибудь использовал ez copy или службы экспорта Azure (отправьте Azure жесткий диск), может ли любой из этих методов сохранить разрешения NTFS без изменений?

С таким большим объемом данных на такой скорости, вероятно, лучший вариант для вас - кроссовки. У меня нет непосредственного опыта работы со службами экспорта Azure, но я был бы очень удивлен, если бы у них не было способа сохранить метаданные, включая информацию ACL.

я хотел бы использовать robocopy /mir /copyall /z для сохранения ACL.

Также учтите, что robocopy может использоваться для предварительного заполнения DFSR для ускорения начальной репликации