У меня есть сеть 20 machines
, под управлением Ubuntu 10.04.
На каждой машине хранится около 200 [ГБ] данных, которыми я хотел бы поделиться со всеми другими 19 machines
для ЧИТАЙТЕ ТОЛЬКО ЦЕЛИ. Считывание должно производиться как можно быстрее.
Друг посоветовал мне изучить настройку HTTP / FTP. Действительно ли это оптимальный способ обмена данными между машинами (лучше, чем NFS)? если да, то как мне это сделать?
Есть ли python
модуль, который поможет в доступе / чтении данных?
ОБНОВИТЬ: Чтобы уточнить, все, что я хочу, это иметь возможность (изнутри машины X
) для доступа к одной из машин Y
s и ЗАГРУЗИТЕ ЕГО В ПАМЯТЬ. все файлы имеют одинаковый размер (500 [КБ]). Какой метод самый быстрый (SAMBA / NFS / HTTP / FTP)?
С участием python
вы можете запустить веб-сервер через простой однострочный каталог в каталоге, где хранятся данные.
python -m SimpleHTTPServer
Редактировать:
Он создает простой веб-сервер на порту 8000, с точки зрения производительности я не могу вам много сказать, и для такого типа вопросов было бы лучше задавать в SuperUser, а не SO.
Он не запускается автоматически, но сделать это несложно.
Есть сотни способов решить эту проблему. Вы можете смонтировать файловую систему FTP или HTTP поверх fuse или даже использовать NFS (почему бы и нет?). Найдите httpfs2 или curlftpfs (или даже sshfs, которые не следует использовать, если вам нужна производительность)
Но проблема, которую я вижу, в том, что у вас есть единственная точка отказа единственной главной машины. Почему бы не раздать хранилище?
Я обычно использую glusterfs [1], которая работает быстро и может использоваться в разных режимах.