Назад | Перейти на главную страницу

Работа с большими файлами в локальной сети

Я работаю в небольшом (6 человек) магазине веб-дизайна. У нас есть файловый сервер, который мы используем для хранения больших проектных документов (файлы фотошопа, исходные файлы flash, проект и т. Д.) И других незавершенных работ. Сервер - это просто базовая машина с Windows с мощными жесткими дисками и включенным общим доступом к файлам. (Мы находимся в процессе перехода к решению, использующему вместо этого FreeNAS).

Владелец / ведущий дизайнер компании любит работать непосредственно с файлами на сервере (в отличие от создания локальной копии и работы с ней). Это, конечно, приводит ко всевозможным ужасным повреждениям файлов и проблемам с доступом к файлам. Я показал ему статьи поддержки на веб-сайте Adobe, в которых объяснялось, что его рабочий процесс - ужасная идея. Он по-прежнему убежден, что проблема на самом деле просто «проблема с разрешениями», и если мы просто переключимся на использование NFS вместо общих ресурсов Windows / Samba, все будет хорошо.

Мой вопрос: вы можете порекомендовать какие-либо другие ресурсы, которые могут помочь мне изменить его мнение? Как вариант, можете ли вы порекомендовать какие-либо ресурсы, которые могут помочь изменить мой разум? Он использует Mac, поэтому, если есть что-то конкретное для этой ОС, это может иметь больший вес, чем общая информация.

На данный момент я знаю о:

Повреждение файла не может быть связано с проблемами разрешения. Как только у вас есть несколько пользователей, которые потенциально могут работать с одним и тем же файлом одновременно, повреждение произойдет, если приложение не заблокирует файл, пока он открыт (так, чтобы только один пользователь мог одновременно открыть файл) и блокировка работает через вашу систему обмена файлами (NFS / samba /…). Использование NFS вместо samba может помочь с последним, но это спорный вопрос, поскольку, согласно ссылкам, которые вы цитируете, приложения, с которыми работает ваша группа, не принимают блокировки.

В некоторых местах стараются соблюдать дисциплину, когда каждый должен спрашивать разрешения, прежде чем работать с файлом, и сообщает диспетчеру разрешений, когда они закончили свою работу. Закон Мерфи гарантирует, что это не сработает (особенно за день до крайнего срока, когда все в неистовстве).

Система контроля версий - правильное решение: оформление заказа, работа, фиксация; если два человека работали с файлом одновременно, операция фиксации завершится ошибкой, и второму коммиттеру говорят, что он должен объединить свою работу с первым коммиттером. Системы контроля версий имеют дополнительное преимущество, заключающееся в хранении истории изменений.

К сожалению, вы столкнулись с социальной проблемой, а не с технической проблемой. Вы можете попробовать показать своему начальнику статьи, восхваляющие достоинства контроля версий (погуглите что-то вроде «почему контроль версий» и отфильтруйте все, что ориентировано на разработчиков), но есть вероятность, что он просто отклонит их. Возможно, лучшее, что вы можете сделать, - это убедиться, что когда случаются неудачи, они вовлекают его, и он знает, почему они происходят. Удачи.

Я прочитал статью о flash 2009 и согласен, что это смешно. Один пользователь, обращающийся к файлу по сети, должен работать аналогично локальному хранилищу.

NFS не является решением проблемы, как и iSCSI. iSCSI представит диск системе, но после того, как этот диск будет смонтирован, вам нужно будет «поделиться» им, и, следовательно, вы окажетесь в том же затруднительном положении, что и раньше.

Если цель состоит в том, чтобы иметь центральное хранилище, и вы собираетесь соблюдать нелепое ограничение Adobe, "Использование файлов Flash в локальных сетях не поддерживается ни в каком контексте.", вам нужно будет использовать какую-то систему, которая проверяет файлы для вас. Не уверен в деталях, но может подойти Subversion или другая система cvs.

Я думаю, что работать с большим файлом на сервере - это нормально, и я использую его без проблем. Это файлы разного типа, от фотошопа до личных папок Outlook, каждая размером около 2 ГБ, и у них никогда не будет проблем с повреждением, если сеть (или, конечно, диск сервера) не выйдет из строя. Вы должны убедиться, что блокировка файлов работает, и ваша сеть должна быть надежной. Я использую как NFSv4 для рабочих столов Linux, так и Samba для рабочих столов Windows (в одних и тех же файлах). Раньше я использовал все через самбу, но поскольку я перемещаю все окна в Linux, я тоже установил nfs4, и все работает нормально.

В любом случае, копирование файла на локальный компьютер во время редактирования не является решением! Что вы будете делать с двумя разными силмутно модифицированными копиями? Для этого вам не нужен файловый сервер ... Вы будете в большей безопасности с каждым файлом на определенном компьютере, и вам нужно будет сесть на нем, чтобы редактировать файл, как в предсетевые времена. В этом совершенно прав хозяин вашего магазина.

Проблема будет продолжаться и усугубляться и не будет решена до тех пор, пока вы либо не измените способ своей работы (социальная инженерия, упомянутая выше), перейдя к жесткому режиму регистрации / выселения, либо не перейдете к более щадящему решению. того, как ведущий дизайнер хочет работать, и - угадайте, что? - это означает поиск современной реализации AFP для ваших общих файловых ресурсов. [Мы переходим от «обычных» общих папок Windows (SMB, подключенных через ADmitMac) к общим папкам Windows, представленным ExtremeZ-IP. Наши тесты показывают, что InDesign ведет себя немного более изящно при открытии по сети (например, вы не можете открывать и редактировать один и тот же документ на двух компьютерах Mac одновременно с AFP!)]. Однако у вас по-прежнему будет проблема, связанная с тем, что вы работаете за пределами параметров дизайна Adobe для приложения InDesign, которые включают (я перефразирую здесь) «немедленный, частый, произвольный доступ к быстрому ЛОКАЛЬНОМУ хранилищу».

Удачи!

iSCSI звучит как решение.