Я хотел бы лучше понять лучший подход к этой проблеме и любые подводные камни, которые я мог упустить из виду с точки зрения загрузки ЦП / памяти / сети / ввода-вывода на сервере A:
Сервер A = производственный сервер, обслуживающий клиента, с файлами, которые я хочу заархивировать Сервер B = сервер, не ориентированный на клиента, для различных задач системного администратора
Это самый оптимальный подход? Должен ли я вместо этого копировать файлы с сервера A на B, а затем запускать любые команды, которые я хочу? Как команды, такие как find и tar, работают в сети, и какой сервер выполняет основную работу? Следует ли ограничивать find и tar определенной пропускной способностью, если я запускаю их для файлов в общей папке NFS?
PS: Это около 10 ГБ (30 000 файлов) в день, и я могу хранить их в течение года. Самый простой подход - просто запустить aws sync на prod-сервере в нерабочее время ... но это не кажется элегантным решением.