Я не был уверен, что это лучшее место для этого вопроса, но я думаю, что он находится в сфере компетенции ИТ-администратора, поэтому я и поставил его здесь.
Нам нужно поделиться большими файлами (несколько гигабайт) с внешними клиентами. Нам нужен простой способ надежной и автоматической публикации этих файлов, чтобы клиенты могли потом их загружать. В нашей организации есть настольные компьютеры с Windows и сервер Windows SBS 2011.
Совместное использование с нашего сервера, вероятно, неоптимально с точки зрения клиента из-за низкой пропускной способности восходящего потока типичного ADSL (около 1 Мбит / с) - клиенту потребуется целый день (9 часов для файла 4 Гб), чтобы загрузить файл.
Загрузка на сторонний сервер хороша для клиента, но болезненна для нас, потому что тогда нам приходится иметь дело с многочасовой загрузкой.
Загрузка на сторонний сервер была бы менее проблематичной, если бы ее можно было сделать надежной и автоматической, например что-то вроде Groove / SharePoint Workspace, просто вставьте файл и подождите, пока он синхронизируется, но Groove имеет ограничение в 2 ГБ, что недостаточно.
Итак, в идеале мне нужна услуга со следующими атрибутами:
Какие-либо предложения?
Я предполагаю, что вы ищете серверное решение, а не продукт SAAS, иначе этот вопрос был бы оффтопом.
Sparkleshare это программное обеспечение с открытым исходным кодом, которое может удовлетворить ваши потребности.
Но я бы рекомендовал просто использовать rsync для зеркалирования на удаленный сервер, имеющий требуемую пропускную способность. Вы можете настроить эту систему за считанные минуты, и она сделает все, что вы хотите.
Просто укажите исходную папку и поместите туда свои файлы. Предоставьте своим клиентам доступ в Интернет или ftp и т. Д. На удаленном сервере.
Я бы рекомендовал запускать сценарий оболочки с бесконечным циклом, который выполняет rsync и спит в течение 1 секунды после каждой итерации. По сравнению с Cronjob это имеет то преимущество, что вы не получаете мешающих параллельных загрузок. И с вашими большими файлами это проблема, которую я вижу прямо сейчас.
Rsync даже имеет то преимущество, что файлы сначала загружаются как «скрытые» файлы с расширением. префикс и случайное имя, поэтому клиент видит только файлы, загрузка которых завершена и прошла проверку целостности.
Если файл обновляется, rsync также может справиться с этим эффективно.
Как раз этот скрипт должен вам подойти:
#!/bin/bash
while [ 1 = 1 ]
do
rsync -arvz /my/sourcefolder/ user@remotehost.com:/remote/folder/
sleep 1;
done
Просто следите за его работой, включите автозапуск и т. Д.
Вы также можете извлечь выгоду из сжатия с помощью rsync.
Вы можете использовать вышеизложенное - вы можете настроить для этого специальное окно Windows и создать свою структуру папок для разных клиентов, поделиться этими папками на своей локальной сети, любой файл, который находится в этих папках, начинает передаваться автоматически.
Вы также можете предоставить своим клиентам URL-адрес веб-интерфейса или клиент файлового катализатора, который подключается к вашему серверу и загружает эти большие файлы.
Riverbed - еще одно решение (погуглите).
Надеюсь это поможет