У меня есть приблизительное представление о том, как это может работать, но я не уверен, возможно ли это, поскольку я никогда раньше не делал ничего подобного. Так что мне было интересно, может ли мне помочь кто-нибудь с опытом.
В настоящее время у меня есть одна выделенная машина, которую я назову «Машина А» с примерно 100 ГБ данных. Я хотел бы быть в безопасности и делать резервную копию 100 ГБ данных каждый день или, может быть, каждые несколько дней, в зависимости от того, что работает лучше всего. Итак, моя идея состоит в том, чтобы купить другую машину за пределами предприятия и хранить резервные копии данных на случай, если жесткий диск машины А выйдет из строя.
Однако загрузка содержимого на новую машину (назовем ее «Машина B») каждый день вручную занимает довольно много времени и требует повторения. Итак, мне было интересно, можно ли заставить машину B автоматически загружать определенные каталоги с машины A? Может быть, работа cron с использованием Rsync?
Кроме того, поскольку он будет загружать много данных, как мне удалить старые резервные копии, но при этом автоматически сохранить новые?
Если использование cronjob неэффективно, и у вас есть другой способ сделать это легко, о чем вы можете мне сказать, я был бы очень признателен. Заранее спасибо!
Другие примечания: я использую CentOS на машине A и, возможно, CentOS или Debian на машине B.
Да, это возможно с заданиями cron, это очень распространенный подход к резервному копированию. Все, что вам нужно, это набор ключей SSH, чтобы избежать запроса пароля, и, конечно же, доступ SSH / rsync хотя бы в одном направлении.
В зависимости от ваших потребностей вы можете сохранить только одну настроенную резервную копию (с --delete...
options rsync) или нескольких дифференциальных копий с помощью параметров жесткой ссылки rsync, но для этого лучше изучить вспомогательные инструменты, такие как rsnapshot.