У меня есть три набора реплик для моего шарда, но я заметил, что локальная база данных на каждом узле репликации было создано множество локальных файлов данных. *. Диск, на котором mongodb хранит файлы данных, имеет размер ~ 50 ГБ, но локальные файлы данных. * Занимают до 22 ГБ. Фактическим данным вообще не нужен один гигабайт (пока). Я прочитал Чрезмерное дисковое пространство статья, в которой говорится, что local-db должен занимать не более 5% дискового пространства.
Я до сих пор не знаю, стоит ли мне устанавливать --oplogSize
, то -fallocate
или --noprealloc
переключатель, и как он влияет на другие реплицированные базы данных.
# ll mongo -h
total 23G
-rw------- 1 mongod mongod 64M Mar 26 10:20 test.0
-rw------- 1 mongod mongod 128M Mar 1 14:03 test.1
-rw------- 1 mongod mongod 16M Mar 26 10:19 test.ns
-rw------- 1 mongod mongod 64M Mar 26 10:20 production.0
-rw------- 1 mongod mongod 128M Feb 29 18:28 production.1
-rw------- 1 mongod mongod 16M Mar 23 17:39 production.ns
drwxr-xr-x 2 mongod mongod 4.0K Feb 29 18:28 journal
-rw------- 1 mongod mongod 64M Feb 29 18:01 local.0
-rw------- 1 mongod mongod 128M Feb 29 18:00 local.1
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.10
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.11
-rw------- 1 mongod mongod 2.0G Mar 26 10:20 local.12
-rw------- 1 mongod mongod 2.0G Mar 26 10:20 local.2
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.3
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.4
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.5
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.6
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.7
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.8
-rw------- 1 mongod mongod 2.0G Feb 29 18:00 local.9
-rw------- 1 mongod mongod 16M Mar 26 10:19 local.ns
-rwxr-xr-x 1 mongod mongod 6 Feb 29 18:01 mongod.lock
drwxr-xr-x 2 mongod mongod 4.0K Mar 1 14:03 _tmp
Я использую mongodb 2.0.4 на centos 6.2 / 64bit.
Обновление: когда я запрашиваю коллекцию oplog.rs в локальной базе данных, я получаю следующее:
PRIMARY> db.oplog.rs.count();
130234
Ах, я посмотрел не на ту строку в df. /
составляет 50 ГБ, но данные хранятся в другом смонтированном томе, где у нас 1,8 ТБ, поэтому правило 5% теперь имеет смысл (это означает, что он все еще может вырасти до ~ 90 ГБ). Так что я буду использовать --oplogSize
параметр, так как этот размер немного избыточен для нашего случая использования.
(Однако кажется, что --oplogSize не может изменить размер существующих журналов, я должен сначала проверить, могу ли я удалить эти файлы).
Это нормальное поведение в MongoDB. Сервер Mongo резервирует часть дискового пространства сразу после установки.