Назад | Перейти на главную страницу

Репо SVN в 3 раза меньше после сброса / загрузки

У меня есть репо на старом сервере svn, работающем на RHL9. Версия svn - 1.1.4. Репо составляет 1,1 ГБ (du -sh $REPO), его полный дамп - 1,7 ГБ. Я загружаю дамп на недавний svn-сервер, работающий на ubuntu 16.04, svn версии 1.9.3. Я запускаю следующую команду:

svnadmin load --bypass-prop-validation -q "/path/to/repo.svn" < "/path/to/repo.dump"

Теперь размер репо составляет всего 412 МБ (du -sh).

Я только администрирую сервер, сам svn не использую. Когда я смотрю журналы репо на Tortoise, кажется, что все версии и все документы здесь (не могу проверить все вручную, 3733 оборотов).

Но я не знаю, как проверить, привела ли эта разница в размерах к потере данных.

Как я могу знать ? (из tortoise или server cli, я - root) Вас не устраивает эта разница в размерах?

Выборочная проверка, выглядит ли репо вменяемым из HEAD, последней пары значимых коммитов и, возможно, в самом начале. Возвращайтесь только настолько, насколько это необходимо для ваших нужд: разработка, поддержка и, возможно, соблюдение требований.

Сделайте резервную копию дампа и заархивируйте ее столько, сколько считаете нужным.

Чтобы количественно оценить выгоды, которые вы получили от избавления от файлов каждой ревизии, попробуйте svnadmin pack на копии исходного репо.

SVN много сделал для уменьшения размера репозитория после SVN 1.4 (я думаю), поэтому вы видите объединенные результаты этих усилий по разработке сейчас (Исходный код SVN).

  1. Новый репозиторий не содержит старых мертвых переходов (которые не были удалены в SVN 1.1)
  2. более старые репозитории SVN не сохраняли содержимое файла в сжатом виде
  3. дельтафикация модификаций теперь также сохраняется в сжатом виде, который сохраняется в более поздних файлах ревизий
  4. SVN представила совместное использование представлений, что означает, что два одинаковых файла хранятся только один раз. Это можно оптимизировать с помощью svnadmin pack команда (которая упаковывает 1000 оборотов в один файл и устраняет дублирование всего содержимого)

Современные алгоритмы могут сжать длинный текст примерно до 15% или меньше. Видеть Вот для получения дополнительных чисел и данных о сжатии.