У меня почти такая же проблема, но я могу предоставить более подробную информацию о том, как это делается:
2х реплика сервера 2 густера тома из двух кирпичей. Brick IMG-01: / изображений / хранилище / brick1 49152 0 Y
3497 Brick IMG-02: / images / storage / brick1 49152 0
Y 3512 NFS-сервер на локальном хосте Н / Д
N / A N N / A Демон самовосстановления на локальном хосте
Н / Д Н / Д Д Сервер NFS 3490 на IMG-02
Н / Д Н / Д Н / Д Демон самовосстановления в IMG-02
N / AN / AY 3505 Состояние задачи тома gv1 --------------------------------------- --------------------------------------- Нет активных объемных задач
Чтобы разрешить HA, я сделал это со стороны клиентов Gluster:
IMG-01:/gv1 /mnt/glustervol1 glusterfs _netdev,backupvolfile-server=IMG-02,direct-io-mode=disable,log-level=WARNING,log-file=/var/log/gluster.log 0 0
Версия Glusterfs-server - 3.7 на Ubuntu 16.04, а клиенты - glusterfs 3.8 на ubuntu 14.0.4. Серверы Gluster обмениваются данными через прямое соединение Infiniband и подсеть / 30; пока клиенты подключаются через интерфейс 1G Ethernet.
Теперь, когда один из серверов отключен по какой-либо причине, например, из-за перезагрузки или недоступности службы, клиенты поддерживают соединения, но не могут читать или писать, и в конечном итоге клиенты также зависают. Если серверы являются копиями друг друга и если
Разъяснение и возможное объяснение, которое могло бы стать ответом на поставленный выше вопрос: a. Хранилище 2x реплик может фактически обеспечивать HA, если ваши файлы, такие как мой, не редактируются, то есть изображения ... поэтому в случае сбоя на основном узле хранения glusterfs вторичный будет обслуживать и принимать записи ... при наличии основного сервера gluster он самовосстанавливается и может быть в эксплуатации. б. В моем случае основная причина заключалась в том, что огромное количество файлов изображений было записано в папку приложением, то есть +500000 изображений за пару дней без реального управления структурой и иерархией ... это в конечном итоге привело к невозможности синхронизации двух серверов с каждым другое и в конечном итоге нарушит ответ службы. Исправив хранилище каталогов и создав подкаталоги, мы исправили это.