Возможно, об этом спросили, но ...
Я пытаюсь определить влияние фрагментации файлов на одно из наших бизнес-приложений. Какой самый простой и самый чистый способ разбить файл размером 20 ГБ на примерно (скажем) 35 000 частей?
В идеале распределение должно быть случайным по всему диску и / или воспроизводиться напрямую, насколько это возможно, но это второстепенные проблемы. Это не обязательно должно быть точное количество фрагментов, но в пределах 2–3 тысяч фрагментов.
Естественно, я бы не стал работать с живыми данными, но я бы хотел избежать всего, что могло бы вызвать более широкие проблемы с файловой системой (это было бы на производственном сервере в нерабочее время).
Если нет элегантного способа сделать это, я буду рад изучить альтернативы - например, создание тысяч файлов в нескольких одновременных процессах с использованием Perl или консольной программы C #.
Платформа - Windows Server 2003. Не уверен в конфигурации физических дисков, но дисковое пространство разделено между
- раздел ОС 12 ГБ
- Раздел файла страницы 35 ГБ
- Раздел «данных» на 500 ГБ. (здесь есть интересующие меня файлы)
Вы можете скачать Дефраглер для выборочной дефрагментации файлов, и вы можете использовать MyFragmenter как описано Вот для создания новых фрагментированных файлов.
Что касается фрагментации существующих файлов, мое лучшее предложение - удалить файл, сгенерировать тонны фрагментированных файлов с помощью MyFragmenter, а затем скопировать файл обратно на диск. Поскольку все пустое пространство фрагментировано, вы получите фрагментированную копию.
Предлагаю посмотреть Инструмент Марка Руссиновича на http://technet.microsoft.com/en-us/sysinternals/bb897428.aspx Это покажет фрагменты вашего файла с опцией -a.
Лед любви и мира