У меня есть 2 набора данных на разных сайтах, которые являются зеркалами друг друга. 2-й набор является клоном 1-го набора. Тем не менее, 1-й набор будет данными в реальном времени и, следовательно, будет меняться в будущем. Нам нужно настроить DFS между ними, причем второй набор действует только как прием. Это нормально, мы можем это сделать. Мой вопрос: когда я запускаю DFS, будет ли он пытаться скопировать все заново, или он поймет, что большая часть материала уже существует и такая же, и поэтому нет необходимости копировать / изменять его? Спасибо
Если ваши данные действительно идентичны, это не так. Если у вас есть небольшие отличия, они будут. DFS вычисляет хэш файла, чтобы определить необходимость репликации.
Вы можете использовать dfsrdiag
инструмент для проверки нескольких файлов с обеих сторон, чтобы определить, вычисляют ли они один и тот же хэш. Если они оба получат один и тот же хэш, то DFS не будет пытаться повторно скопировать данные. Имейте в виду, что, поскольку он использует хэш, такие вещи, как разрешения безопасности, время последнего доступа и т. Д., Будут включены в этот расчет.
Например.
dfsrdiag filehash /path:"\\server1\file.txt"
File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1
Operation Succeeded
dfsrdiag filehash /path:"\\server2\file.txt"
File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1
Operation Succeeded
В этом примере оба файла имеют одинаковый хэш, поэтому они действительно идентичны.