Назад | Перейти на главную страницу

Нужен совет по стратегии резервного копирования

Я спрашивал некоторых других раньше, но до сих пор не уверен, как это решить. В основном у меня есть сервер разработки с несколькими папками разных веток для проекта. Прямо сейчас я ежедневно tar.gz их на S3, поэтому у меня есть полные ежедневные резервные копии, потому что иногда приходит разработчик и просит меня вернуться к предыдущему дню (да, я знаю ... не говорите мне). Проблема в том, что это очень тяжелый ввод-вывод / нагрузка, поскольку мы говорим о 2-значных гигабайтах и ​​более 100000 файлов. Так что теперь меня просят сделать еще больше резервных копий. Я думал о rsync, но затем мне не хватает ежедневной полной опции, за исключением, может быть, комбинирования rsync с «копировать измененные файлы в папку, архивировать, дату, называть»? Для rsync мне понадобится резервный сервер, потому что S3 как подключенный общий ресурс очень медленный и не подходит для такого количества файлов. Что я должен делать? Или просто скажите моим разработчикам «svn / git, вы говорите на нем?»?

Спасибо за помощь

Я думаю, вам действительно будет полезно запустить и запустить DVCS, например git. Попросите ваших разработчиков использовать свои собственные машины и, как только вы сделаете это, отправьте их на центральный сервер. После этого они могут вернуться к более ранним версиям, не беспокоя вас. Затем вы можете использовать rsync, чтобы просто синхронизировать изменения с сервера. Я думаю, вы также можете просто перетащить репо на резервный сервер.

rsync - это просто инструмент синхронизации - вы можете синхронизировать два местоположения, чтобы иметь одинаковый контент. Вы можете смотреть на rdiff-backup инструмент. Он передает различия из одного места в другое (как это делает rsync), но сохраняет версии файлов в целевом месте, так что вы можете вернуться в прошлое. Если файл не был изменен, он ничего не передает, просто отмечает, что нет никаких изменений по сравнению с последней версией.