Вот как выглядит моя ситуация с Ceph (из ceph df
):
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
596G 593G 3633M 0.59
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 0 0 296G 0
.rgw.root 1 1636 0 296G 4
default.rgw.control 2 0 0 296G 8
default.rgw.data.root 3 1214 0 296G 4
default.rgw.gc 4 0 0 296G 32
default.rgw.log 5 0 0 296G 127
default.rgw.users.uid 6 327 0 296G 2
default.rgw.users.keys 7 12 0 296G 1
default.rgw.meta 8 3281 0 296G 10
default.rgw.buckets.index 9 0 0 296G 2
default.rgw.buckets.data 12 0 0 197G 0
Я замечаю, что мой глобальный размер 596G. Но default.rgw.buckets.data
, куда отправляются все данные, которые я отправляю в rados gw, имеет только 197G max. Почему это? Как я могу использовать все свое доступное пространство с этим пулом?
Столбец «MAX AVAIL» представляет объем данных, который можно использовать до заполнения первого экранного меню. Он учитывает прогнозируемое распределение данных по дискам из карты CRUSH и использует «первое заполненное OSD» в качестве целевого.
Это также влияет на размер репликации. Если ваш пул данных имеет больший размер репликации, чем другие пулы, это объясняет разницу.
Вы можете проверить размер репликации вот так.
ceph osd pool get default.rgw.buckets.data size