Назад | Перейти на главную страницу

Очень большой кеш дублирования

В настоящее время я использую сценарий дублирования для резервного копирования моего сервера CentOS 110G / 2T на сервер sftp 2T.

По прошествии 4 дней дублирование скопировало только 90G. Это не является проблемой. Основная проблема: У меня почти 600 ГБ кеш-памяти, дублирующаяся в "/user/.cache/duplicity". Это не нормальный размер, что мне делать? Будет ли дублирование сжимать или удалять эти файлы и папки кеша по завершении задачи? Будет ли дублироваться резервное копирование его кеша (я не исключал папку / user)?

Дополнительная информация: я использую сервер Hetzner, и это сценарий резервного копирования, который я использую: https://wiki.hetzner.de/index.php/Duplicity_Script/en

Кроме того, я просто исключил каталоги proc, sys и dev из корня (и сделал резервную копию всего остального, начиная с корня, потому что мне нужна была полная резервная копия сервера).

Согласно список рассылки

вам придется вручную исключить его ..

он содержит файлы индекса ваших цепочек резервных копий (содержание репозитория резервных копий). Кэширование их локально ускоряет такие параметры, как состояние, инкрементное резервное копирование и другие. Эти операции должны знать, что уже зарезервировано для работы. Если они кэшированы, их не нужно передавать и расшифровывать каждый раз снова и снова.

.. эде

В остальном вроде бы давняя ошибка.

В системе отслеживания ошибок Debian они рекомендуют

duplicity cleanup --extra-clean --force ....

Предупреждение: Предлагаемый --extra-clean вариант опасен и может очень сильно вас укусить. Делает резервные копии не подлежит восстановлению обычными средствами.

Когда мы начали удаленно очищать очень старые резервные копии (S3), то команды duply начали автоматически удалять очень старые локальные метаданные.

То есть мы храним резервные копии только x месяцев. Соответственно уменьшился и размер кэша локальных метаданных.