Назад | Перейти на главную страницу

Сжатие файловой системы - хорошая идея для хранилища CouchDB?

Я размещаю базы данных CouchDB на Amazon EC2, и мне было интересно, смогу ли я повысить производительность ввода-вывода (и, конечно, лучше использовать диск), если буду использовать файловую систему, поддерживающую сжатие. Я помню, как где-то читал, что будущие версии CouchDB будут поддерживать сжатие данных, и мне было интересно, смогу ли я получить эту функцию сейчас, если просто сожму свою файловую систему. Я ищу небольшие экземпляры, но и с большими не может быть и речи. Я боюсь, что сжатие убьет ЦП в этих случаях, но я не могу сказать, пока не протестирую это.

Я слишком сумасшедший? Кто-то это уже пробовал?

Я не пробовал это по принципу KISS, но думаю, вы увидите некоторое повышение производительности.

CouchDB будет использовать Google Мгновенное сжатие алгоритм. Филипе Манана представил эту функцию в системе отслеживания проблем, COUCHDB-1120, и с тех пор зафиксировал его в «стволе» (теперь это «главная» ветвь с момента миграции Git). Он находится в ветке 1.2.x, поэтому, когда вы увидите, что CouchDB 1.2 выпущен, вы будете знать, что он отправлен.

А пока да, CouchDB - это не что иное, как поиск в b-дереве. Даже «запросы» Javascript (они больше похожи на определения индексов) выполняются только один раз при обновлении документа. Будучи базой данных, CouchDB любит хорошее хранилище, и вы, вероятно, избыточно выделите ресурсы ЦП, чтобы удовлетворить свои потребности в хранилище. Поэтому кажется правдоподобным, что вы увидите либо повышение, либо, в худшем случае, отсутствие чистых изменений, если потратите больше процессора на сжатие.

Если вы сделаете тесты, я уверен, что сообществу CouchDB они понравятся! Не стесняйтесь отправить его в список пользователей или просто напишите в Твиттере о CouchDB. Удачи!