Назад | Перейти на главную страницу

Лучшие практики для сетевого файлового ресурса?

Итак, у нас есть общий доступ к файлам, который был запущен около 10 лет назад и начался с самых лучших побуждений. Но теперь он раздувается, там есть файлы, которые никто не знает, кто их туда положил, трудно найти информацию и т. Д. Вы, наверное, знаете проблему. Мне интересно, что люди делают в этой ситуации. Кто-нибудь знает приличную программу, которая может пройти через файловый ресурс и найти файлы, которых никто не трогал? Повторяющиеся файлы? Есть ли другие предложения по устранению этого беспорядка?


Общий файловый ресурс основан на Windows, и его размер почти превышает 3 ТБ. Есть ли утилита, которая может делать за меня отчеты? Нам нравится идея найти что-нибудь старше 6 месяцев, а затем отправить его в архив, единственная проблема заключается в таком большом файловом ресурсе, который может быть действительно сложно сделать вручную.

Мы часто советуем клиентам «выжчь землю» и начать все сначала.

Мне еще предстоит увидеть хорошее решение, которое бы не привлекало заинтересованных лиц, не связанных с ИТ. Лучший сценарий, который я когда-либо видел, - это заказчик, у которого руководство определило «распорядителей» различных областей данных и делегировало этим «распорядителям» контроль над группами AD, которые контролируют доступ к этим общим областям. Это сработало очень, очень хорошо, но потребовало некоторой тренировки со стороны «стюардов».

Вот что я знаю, не работает:

  • Именование отдельных пользователей в разрешениях. Используйте группы. Всегда. Каждый раз. Безошибочно. Даже если это группа из одного пользователя, используйте группу. Меняются рабочие роли, происходит текучесть кадров.
  • Разрешение пользователям, не имеющим отношения к ИТ, изменять разрешения. В итоге получится «компьютерный Вьетнам» (вовлеченные стороны имеют «добрые» намерения, никто не может выбраться, и все проигрывают).
  • Слишком грандиозные представления о разрешениях. «Мы хотим, чтобы пользователи могли записывать сюда файлы, но не изменять файлы, которые они уже написали» и т. Д. Сохраняйте простоту.

Вещи, которые я видел, работают (некоторые хорошо, другие не очень):

  • Опубликуйте «карту», ​​указывающую, где должны храниться различные типы данных, обычно по функциональным областям. Это хорошее место, чтобы провести интервью с представителями различных отделов и узнать, как они используют общие файловые ресурсы.
  • Рассмотрите возможность «обратного выставления счетов» за использование пространства или, по крайней мере, регулярную публикацию «таблицы лидеров» пользователей пространства в отделе.
  • Я упоминал именование групп исключительно в разрешениях?
  • Разработайте план для областей данных, которые «неограниченно растут», чтобы переводить старые данные в «автономный режим» или в «ближайшее» хранилище. Если вы позволите данным расти вечно, так и будет, и ваши резервные копии будут постоянно расти.
  • Планируйте какие-то тенденции использования пространства и роста папок. Вы можете использовать коммерческие инструменты (кто-то упомянул Tree Size Professional или SpaceObServer от JAM Software), или вы можете написать что-нибудь достаточно эффективное с помощью программы "du" и некоторого "клея" сценариев.
  • Сегментируйте общие файловые ресурсы на основе «SLA». Вы можете подумать о том, чтобы иметь как «критически важный для бизнеса» общий ресурс, пересекающий границы отделов, так и «приятный для работы, но не критический» общий ресурс. Идея состоит в том, чтобы разделить «критически важный для бизнеса» общий ресурс для целей резервного копирования / восстановления / обслуживания. Необходимость прекратить работу по восстановлению 2 ТБ файлов из резервной копии, когда все, что действительно требовалось для работы, было около 2 ГБ файлов, немного глупо (и я видел, как это происходит).

Я согласен с Эваном в том, что начать все сначала - хорошая идея. За годы работы в моей нынешней компании я сделал 4 «миграции файлов», и каждый раз, когда мы настраивали новую структуру и копировали (некоторые) файлы, создавали резервные копии старых общих файлов и переводили их в автономный режим.

Одна вещь, которую мы сделали во время последней миграции, может сработать для вас. У нас была в чем-то похожая ситуация с тем, что мы назвали «общим» диском, где любой мог читать / писать / удалять. За эти годы там накопилось много материала, так как люди делились материалами в группах. Когда мы переехали на новый файловый сервер, мы создали новый общий каталог, но мы ничего не копировали в него для пользователей. Мы оставили старый Common (и назвали его Old Common), сделали его доступным только для чтения и сказали всем, что у них есть 30 дней, чтобы скопировать все, что они хотят, в новые каталоги. После этого мы скрыли каталог, но по запросу откроем его. Во время этого перехода мы также работали со всеми отделами, создавали новые общие каталоги и помогали людям выявлять дубликаты.

Мы годами использовали Treesize для выяснения того, кто использует дисковое пространство. Недавно мы попробовали Spacehound, и некоторым моим коллегам он понравился, но я продолжаю возвращаться к Treesize.

После нашей последней миграции мы попытались настроить структуру архива, которую люди могли бы использовать самостоятельно, но это не сработало. У людей просто нет времени следить за тем, что активно, а что нет. Мы ищем инструменты, которые могли бы выполнять архивирование автоматически, и в нашем случае это будет работать, чтобы периодически перемещать все файлы, которые не были затронуты в течение 6 месяцев, в другой общий ресурс.

На 3 ТБ у вас наверняка много огромных ненужных файлов и дублированного мусора. Я нашел один полезный метод - выполнить поиск, начиная с файлов размером> 100 МБ (в вашем случае я могу даже увеличить до 500 МБ), а затем удалить его. Это делает задачу поиска настоящих космических отходов более управляемой.

Моим первым делом было бы использовать корпоративный файловый менеджер / анализатор / репортер / все, что вы хотите называть, например TreeSize Professional или SpaceObServer. Вы можете видеть, где находятся файлы, сортировать по данным создания, дате доступа и множеству других критериев, включая статистику по типам файлов и владельцам. SpaceObServer может сканировать различные файловые системы, включая удаленные системы Linux / UNIX, через соединение SSH. Это может дать вам отличный обзор вашей коллекции файлов. Оттуда вы можете «Разделяй и властвуй».

Возможно, вы захотите рассмотреть возможность простого архивирования всего, что старше шести месяцев, в другой общий ресурс и следить за доступом к файлам на этом общем ресурсе. Файлы, к которым осуществляется постоянный доступ, вы можете вернуть на основной сервер.

Другой вариант - что-то вроде Google Search Appliance. Таким образом, вы можете позволить приложению Google разумно определять, что люди ищут, когда они ищут что-то, и оно будет «архивировать», помещая документы с меньшим доступом ниже на странице поиска.

На нашем файловом сервере Windows 2003 R2 мы используем встроенную функцию отчетов File Resource Monitor, он будет отправлять вам наименее используемые списки файлов вместе с другими отчетами.

Возможно, первым делом нужно понять масштаб проблемы. Сколько места занимает файловый ресурс? О скольких файлах идет речь?

Если вам повезет, вы обнаружите, что определенные части общего файлового ресурса следуют соглашениям об именах для отдельных пользователей, бизнес-процессов или подразделений. Это может помочь вам разобраться с задачей сортировки файлов.

В худшем случае вы можете отключить все это в автономном режиме и подождать, чтобы увидеть, кто пожалуется. Тогда вы сможете узнать, кто они и для чего их использовали. (Зло, но работает.)

Думаю, лучшее решение - переехать на новый диск. Если количество людей, получающих доступ к общему ресурсу, разумно, спросите их и выясните, какие части действительно необходимы. Переместите их в новую общую папку. Затем предложите всем использовать новую общую папку. Через некоторое время снимите старую долю. Посмотрите, кто кричит, а затем перенесите эти данные в новую общую папку. Если 3-6 месяцев никто что-то не просит, можете смело удалить или заархивировать.

Я перемещаю все существующие данные в новую общую папку, доступную только для чтения: если конечному пользователю нужно обновить файл, он может скопировать его на новый общий диск.

Таким образом, все старые вещи остаются доступными, но я могу убрать из графика резервного копирования.

Кроме того, раз в год я удаляю папки (после проверки работоспособности архива), которые не обновлялись / не открывались в течение 3 лет.