В кластере Cassandra под управлением Apache Cassandra 3.11.4, который восстанавливается с помощью Cassandra Reaper 1.4.1, я испытываю проблему, заключающуюся в том, что моментальные снимки, созданные в процессе восстановления, иногда не удаляются.
Это означает, что со временем накапливается все больше и больше таких снимков (с именами в форме UUID, например xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx), и в конечном итоге у меня заканчивается место на диске, если я не удалю эти снимки вручную.
Конечно, я мог бы создать задание cron, которое периодически удаляет эти снимки, но это может помешать запуску сеансов восстановления, потому что нет хорошего способа узнать, какие снимки устарели, а какие связаны с активными сеансами восстановления.
Кто-нибудь знает, почему эти снимки иногда не удаляются автоматически (как и положено) и имеют лучшее решение, чем упомянутое выше задание cron?
Кстати: я также видел эту проблему со старыми версиями Apache Cassandra и Cassandra Reaper, поэтому я не думаю, что это специфично для упомянутых версий. В другом кластере, в котором хранится мало данных, я еще не видел этой проблемы, поэтому она может быть связана с неудачными сеансами восстановления.
Какие настройки вы используете для исправления параллелизма в своем расписании?
У нас возникла проблема, из-за которой для этого параметра было установлено значение DATACENTER_AWARE, и снимки не очищались.
Теперь мы используем «Parallel», который, похоже, обрабатывает снимки.