Назад | Перейти на главную страницу

Как сделать резервные копии, устойчивые к повреждению данных, быстро и надежно в Linux?

Мне нужно надежное решение для резервного копирования. Я использовал tar с pigz, но опасаюсь повреждения tar.gz и потери данных. Проекты имеют размер от 4 ТБ до 25 ТБ данных для каждой папки проекта. Мы говорим о данных от 240 ТБ до 400 ТБ с входящими проектами ... Я также отвечаю за настройку нескольких файловых серверов с HW и SW raid и SSD-кешами. И это начинает пугать :).

У меня есть несколько идей, но мне нужна ваша помощь, совет и критическая оценка этих идей. Или вы можете просто дать мне другой способ решить эту проблему. Спасибо, что дочитали до сих пор, и за ваш вклад заранее.

Идеи:

Итак, у меня есть этот беспорядок, если честно, он мне действительно нравится. Не могли бы вы помочь мне немного снять напряжение. Поскольку я много читал, некоторые говорят, что какая-то версия gzip содержит ошибки. Другие говорят, что xz - это не формат сжатия, а формат контейнера, и он не придерживается философии UNIX, заключающейся в том, чтобы делать что-то хорошее. Некоторые говорят, что рейды не являются резервным копированием (я согласен) и могут быть тихие битовые повреждения. Некоторые говорят, что raid не может восстановить себя, если вы не помечаете некоторые диски в горячем резерве.

Это очень серьезные статьи, а некоторые из них даже академические ... Среди них также есть страницы переполнения стека и ошибок сервера.

Дело в том, что данные для нас очень важны.

Gzip сам по себе очень стабилен, но это просто сжатие, и оно не будет делать резервные копии в одиночку.

А tar - это просто программа для архивирования. Он просто не делает всего того, что требуется для резервного копирования в современной среде.

Возможно, вы захотите проверить программное обеспечение, специально разработанное для резервного копирования, которое обеспечит такие вещи, как согласованность данных и другие.