Один из моих клиентов планирует открыть новое хранилище документов, которое, вероятно, будет расти на 1-2 ТБ в год. Один из моих коллег говорит, что производительность Windows крайне низка, если у нее есть один том NTFS, размер которого превышает пять или шесть ТБ. Он считает, что нам нужно настроить их систему с несколькими томами, чтобы ни один из них не превышал этот предел.
Это настоящая проблема? Windows или NTFS тормозит, когда размер тома достигает нескольких терабайт? Или можно создать единый том размером 10 и более ТБ?
Раньше я делал тома по 30 ТБ. В них хранятся большие файлы, что очень помогает избежать снижения производительности. Нет проблем с меньшими объемами.
Где проблемы мощь начнут происходить, если эта большая файловая система создает достаточно файлов и каталогов, чтобы добраться до безумно больших диапазонов. Я говорю о 20 миллионах файлов и каталогов или более уровнях. На этом этапе MFT, вероятно, будет довольно фрагментированным и Серверы с ограниченным объемом оперативной памяти который мощь начать вводить некоторые проблемы с производительностью отображения каталогов. Фактический доступ к файлам не должен быть затронут, только операции fileOpen () и сканирование каталогов.
Это реальная возможность? Да, но этот эффект справедлив и для файловых систем такого же размера на других платформах и по той же причине. Кроме того, операции, на которые больше всего повлияло падение производительности, могут быть даже не теми, о которых вы беспокоитесь. Поскольку это звучит как новая установка, не похоже, что вы будете использовать эти 10 ТБ на сервере только с 1 ГБ ОЗУ, поэтому вам не о чем беспокоиться.
Причина беспокойства по поводу размера, вероятно, связана с эпохой WinNT и Windows 2000, когда ограничения MBR затрудняли создание больших томов. Чтобы решить все эти проблемы, требовались некоторые уловки, а в ту эпоху у этих уловок была цена. Это увеличило много маленьких файлов штраф за производительность. У GPT такой проблемы нет. Тома GPT были первыми в Windows 2003, но их новизна означала, что консервативные системные администраторы поначалу ими не пользовались.
Иногда старые взгляды умирают с трудом. Особенно, если есть усиливающая их травма.
У нас есть гораздо большие (с использованием W2K8), и мы не видели заметного падения производительности.
У вас больше шансов столкнуться с проблемами производительности оборудования задолго до проблем, связанных с программным обеспечением.
Учти это,
На данный момент у меня два сервера. Объем составляет 16 ТБ и 6 ТБ данных 5 миллионов файлов / каталогов. В конце дня было изменено или добавлено 200 ГБ данных. К серверу подключается 100 пользователей. И, конечно же, эти серверы реплицируют данные в реальном времени с помощью DoubleTake. На производительность сервера никто не жалуется.
Тем не менее, это также зависит от того, что вы хотите реализовать. Например, MS DFS-R на Win2008R2 имеет ограничения, такие как 8 миллионов файлов и 10 ТБ на сервер / том в качестве официального ответа. Но я видел сообщения о 20+ ТБ.
Вы также можете прочитать это, если хотите ... http://www.microsoft.com/whdc/system/sysperf/perf_tun_srv.mspx