Поскольку CephFS еще не поддерживает моментальные снимки, можем ли мы использовать Ceph Pool Snapshot для резервного копирования от случайного удаления файлов внутри CephFS?
ceph osd pool mksnap {pool-name} {snap-name}
ceph osd pool rmsnap {pool-name} {snap-name}
rados -p {pool-name} lssnap
rados -p {pool-name} rollback {snap-name}
Если это возможно, я хотел бы использовать Ceph Pool Snapshot для резервного копирования файлов внутри CephFS и отката пула CephFS в случае случайного удаления файла внутри CephFS.
Я знаю, что мы всегда можем использовать внешнее резервное копирование, но в настоящий момент я не мог позволить себе еще 200+ ТБ хранилища, и я надеюсь, что моментальный снимок будет использовать только небольшой объем пространства внутри кластера Ceph.
Ссылки:
Мне было интересно узнать об использовании и механизме снэпшота CephFS, и результаты поиска привели меня сюда.
Во-первых, снимок в CephFS доступен, но еще не стабилен. С участием allow_new_snaps
set, снимок будет включен в CephFS, а создание снимков так же просто, как создание каталога. Помимо того, что они нестабильны, я обнаружил, что файлы в моментальных снимках все еще меняются по мере изменения файлов в файловой системе, но я понятия не имею об этом.
Создание снимков пула кажется надежным способом создания резервных копий, но имейте в виду, что вам необходимо сделать снимок как пула данных, так и пула метаданных, и оба снимка необходимо делать одновременно, чтобы получить согласованный снимок файловая система. Что еще хуже, вам нужно будет объединить оба снимка и создать с ними новую файловую систему, чтобы получить из снимка один файл или каталог, но multi-fs
еще не реализован, AFAIK, в ceph. Таким образом, единственным способом восстановления может быть полная перезапись текущей файловой системы снимком.
Я использую allow_new_snaps
способ, который кажется более перспективным.