У нас есть базы данных Oracle 11.2 в хранилище SAN (Fibre Channel на EMC) с Solaris 11.3. В средах разработки пространство, используемое в файловых системах, в большинстве случаев превышает 80%.
Насколько важно правило «80%» для баз данных? Почти вся деятельность файловой системы обновляется в случайных местах в существующих файлах, обычно это файлы размером 30 ГБ. Общий размер базы данных составляет около 400-500 ГБ.
Предположительно, вы ссылаетесь на рекомендации, взятые из Руководства по передовой практике ZFS, из (ныне несуществующей) вики solarisinternals.com. Обсуждаемый ранее о сбое сервера, см. Ответ Дэна.
По соображениям производительности оставьте свободное место в бассейны, может быть, 85% использовано. Набор данных свободное пространство менее критично для производительности. Но все же использование 85% заставляет меня нервничать с точки зрения планирования мощности.
Рассмотрите возможность мониторинга и обеспечения выполнения пулов с заполнением <85% во всех средах, включая разработку и тестирование. Последовательный подход к управлению емкостью также позволит избежать снижения производительности всего пула.
Я думаю, это зависит от того, насколько вы заботитесь о задержке и пропускной способности? Если не очень, то, наверное, не заметите. Если много, то заметите. Этот ответ обеспечивает гораздо большую глубину, а также предлагает использовать echo metaslab_debug/W1 | mdb -kw
в качестве обходного пути для хранения ваших пространственных карт (вещей, которые необходимо загрузить в очень полный пул, что замедляет его работу) в памяти. Показанный график немного устарел (и не для версии ZFS от Oracle), но он показывает резкое падение производительности, которого вы, вероятно, ожидаете.