У меня есть сервер с МНОЖЕСТВОМ маленьких файлов - много миллионов файлов и более 1,5 ТБ данных. Мне нужна достойная стратегия резервного копирования.
Любое резервное копирование на основе файловой системы занимает слишком много времени - просто перечисление файлов, которые необходимо скопировать, занимает день.
Acronis может создать образ диска за 24 часа, но терпит неудачу при попытке сделать дифференциальную резервную копию на следующий день.
DFS-R не будет реплицировать том с таким количеством файлов.
Я начинаю смотреть на Double Take, который, кажется, может выполнять непрерывную репликацию. Существуют ли другие решения, которые могут выполнять непрерывную репликацию на уровне блоков или секторов, а не пофайлово по WAN?
Некоторые детали:
Файлы разделены примерно на 75 000 каталогов.
99% ежедневных изменений происходит за счет добавления новых каталогов; существующие файлы редко меняются.
Есть еще одно важное обсуждение Вот.
1,5 ТБ займет 30 минут с http://www.exdupe.com/ :п
... учитывая, что ваши диски достаточно быстрые (exdupe настолько быстр, что он привязан к вводу-выводу, а не к процессору).
И я еще не достиг никаких ограничений на количество файлов. Были и миллионы.
Изменить: Ах, вам нужна резервная копия на основе разделов / секторов, а не на уровне файловой системы? Он не может этого сделать ... Может быть, http: // www. Drivesnapshot.de/en/ стоит попробовать (пришлось добавить пробелы из-за защиты от спама). Делает также резервные копии diff и копирование теневого тома (без перезагрузки).
Мне очень повезло с Doubletake, несмотря на цену. Хотя их «ходовой» продукт вполне может уложиться в бюджет ...
Смотрите мой ответ на аналогичный вопрос Вот.
Проверьте Shadowprotect. Это не непрерывно, но его можно настроить на добавление каждые 15 минут. Это довольно классная программа. Добавьте корпоративную часть ImageManager, и она также даст вам отличные возможности репликации для резервного копирования вне офиса.