Мы перемещаем наш локальный файловый сервер Windows с 2,7 ТБ файлов NTFS в Azure (у нас есть VPN-соединение со скоростью 100 МБ / с для подключения к Azure).
Что люди посоветовали бы лучше всего передавать наши файлы, сохраняя разрешения NTFS нетронутыми?
Мы можем воссоздать около 20 общих сетевых ресурсов на файловом сервере, но мы не хотим воссоздавать 300+ пользовательских прав доступа к каталогу NTFS.
Мы создали сервер Azure и настроили репликацию файлов DFS между локальным сервером (Windows Server 2008R2 с 3 дисками, виртуализированными в VMware), но у нас возникли проблемы с его работой, он работает для небольшого количества файлов, но не работает. все они.
Кто-нибудь использовал ez copy или службы экспорта Azure (отправьте Azure жесткий диск), может ли любой из этих методов сохранить разрешения NTFS без изменений?
С таким большим объемом данных на такой скорости, вероятно, лучший вариант для вас - кроссовки. У меня нет непосредственного опыта работы со службами экспорта Azure, но я был бы очень удивлен, если бы у них не было способа сохранить метаданные, включая информацию ACL.
я хотел бы использовать robocopy /mir /copyall /z
для сохранения ACL.
Также учтите, что robocopy
может использоваться для предварительного заполнения DFSR для ускорения начальной репликации