Назад | Перейти на главную страницу

Синхронизировать папку BIG в сети

У меня есть N серверов Windows 2016 с папкой, в которой должны быть обновленные двоичные файлы. Эта папка (на самом деле) имеет ~ 200 ГБ, но она может вырасти вдвое или даже больше.

Моя идея заключалась в том, чтобы обновлять эти папки с помощью Ansible, поэтому каждый раз, когда мне нужен новый сервер, Ansible будет держать все наготове. (один за другим не вариант, так как у меня может быть от 1 до ... 1000-10000 серверов)

Я думал о чем-то похожем на git, но, читая о git и больших файлах / двоичных файлах, я увидел, что это не лучшее решение. (Может быть, ртуть?)

Другая идея заключалась в том, чтобы настроить сервер NFS и поддерживать все серверы подключенными. Затем, когда мне понадобится обновление, просто загрузите эту папку (Примечание: я НЕ хотите, чтобы папка обновлялась в реальном времени). Против: если это всего лишь одно изменение, это будет излишним, каждому серверу потребуется много времени.

Просматривая здесь и в Интернете, я нашел много информации, но почти всегда относящейся к общим дискам для предприятий или папкам в реальном времени. Итак, я бы знал, пробовал ли кто-нибудь что-то подобное или знает что-то, и хотел бы высказать свое мнение об этом.

Мне очень нравится функция загрузки только изменений репо из контрольной версии, но я бы не стал использовать все остальные функции, такие как коммиты, ветки и т.д ... Может уже есть что-то, чтобы просто загрузить изменения с сервера?

Спасибо!

Вы рассматривали возможность использования rsync? Эта программа может синхронизировать все ваши файлы и передавать только новые / измененные файлы.

Также учтите DFSR который является родным вариантом Microsoft