Я настраиваю некоторые веб-серверы в Google Cloud Compute, и мне нужен каталог, синхронизированный между всеми серверами, чтобы синхронизировать веб-сайты. Я также хотел бы использовать функцию автомасштабирования для подготовки новых серверов при необходимости.
Я понимаю, что GlusterFS необходимо знать обо всех экземплярах, но моя идея состояла бы в том, чтобы настроить мониторинг с каждого сервера и автоматическое обновление конфигураций при новых / удаленных серверных событиях. (хотя еще не пробовал)
Кто-нибудь имел опыт работы с любой из этих систем? Если да, то как поддерживалось то и другое, и какие затраты были связаны, поскольку я не уверен, будет ли GlusterFS стоить каких-либо дополнительных затрат, кроме дисков, на которых он находится, в то время как Google Cloud Storage FS стоит за хранилище плюс для команд api, которые он запускает .
Раньше я использовал GCS Fuse в качестве общего каталога для веб-сервера, и я обнаружил, что его задержка была неприемлемо высокой и что скорость передачи была низкой при обслуживании файлов через nginx.
У меня нет опыта работы с GlusterFS, но если вы пытаетесь разместить общие файлы для веб-сайта с небольшим или средним трафиком, NFS будет работать быстрее, чем GCS Fuse, с меньшей конфигурацией, чем GlusterFS.
В настоящее время я запускаю виртуальную машину контейнера NFS v4 внутри Google Compute Engine с постоянным диском, поддерживающим каталог / exports, и она работает очень хорошо. Виртуальная машина NFS может быть реализована на экземпляре f1-micro со стандартным постоянным диском на 100 ГБ менее чем за 10 долларов в месяц. Я бы порекомендовал по крайней мере экземпляр n1-standard-1 и подумал об использовании постоянного диска с поддержкой SSD для производства. Я опубликовал суть для создания виртуальной машины NFS на GCE