В CentOS 7 есть два кирпича на srv1
и srv2
Я улучшил gluster с 313 до 6, используя yum
. Затем я перезагрузил сервер 1, запустил и успешно смонтировал диск.
Это моя команда монтирования: /usr/sbin/mount.glusterfs 127.0.0.1:/RepVol /home -o direct-io-mode=enable
Затем я перезапустил srv2
, Не могу смонтировать:
[2019-08-29 14:16:01.354362] I [MSGID: 101190] [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0
[2019-08-29 14:16:01.354402] I [glusterfsd-mgmt.c:2443:mgmt_rpc_notify] 0-glusterfsd-mgmt: disconnected from remote-host: srv2
[2019-08-29 14:16:01.354409] I [glusterfsd-mgmt.c:2463:mgmt_rpc_notify] 0-glusterfsd-mgmt: Exhausted all volfile servers
[2019-08-29 14:16:01.354600] W [glusterfsd.c:1570:cleanup_and_exit] (-->/lib64/libgfrpc.so.0(+0xf1d3) [0x7f477284f1d3] -->/usr/sbin/glusterfsd(+0x12fef) [0x564e35a67fef] -->/usr/sbin/glusterfsd(cleanup_and_exit+0x6b) [0x564e35a6001b] ) 0-: received signum (1), shutting down
[2019-08-29 14:16:01.357036] I [socket.c:3754:socket_submit_outgoing_msg] 0-glusterfs: not connected (priv->connected = 0)
[2019-08-29 14:16:01.357050] W [rpc-clnt.c:1704:rpc_clnt_submit] 0-glusterfs: failed to submit rpc-request (unique: 0, XID: 0x2 Program: Gluster Portmap, ProgVers: 1, Proc: 5) to rpc-transport (glusterfs)
Сообщение об ошибке Exhausted all volfile servers
. По крайней мере, это единственное, что отображается как ошибка imo.
на srv1
:
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick srv1:/datafold 49152 0 Y 16291
Self-heal Daemon on localhost N/A N/A Y 16313
Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks
на srv2
:
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick srv1:/datafold 49152 0 Y 16291
Brick srv2:/datafold N/A N/A N N/A
Self-heal Daemon on localhost N/A N/A N N/A
Self-heal Daemon on srv1 N/A N/A Y 16313
Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks
Поэтому логично, что он не может монтироваться, когда кирпич отключен. Однако я понятия не имею, как запустить этот кирпич, даже после нескольких часов поисков. Было бы неплохо найти решение.
Я попытался удалить том, чтобы воссоздать его, но он жалуется, что не все блоки подключены.
Я также читал, что gluster использует ipv6 по умолчанию, начиная с версии 5, но не уверен, как это повлияет на мою настройку, поскольку srv1, похоже, запущен и работает?
РЕДАКТИРОВАТЬ:
Glusterd не работает на правильном порту! Так должно быть 24007
но это показано как: netstat -tulpn | grep gluster
tcp 0 0 0.0.0.0:34678 0.0.0.0:* LISTEN 28743/glusterd
какого черта? Как это исправить?? Перезапуск ничего не делает, кроме назначения нового случайного порта ... tcp 0 0 0.0.0.0:43914 0.0.0.0:* LISTEN 17134/glusterd
Почему он не работает на 24007?
Я удалил glusterfs-server yum remove glusterfs-server -y
и снова установил:
yum install glusterfs-server -y
systemctl enable glusterd.service
systemctl start glusterd.service
Затем он запустился на порту 24007, и все снова заработало.
Я просто потратил пару часов, потому что glusterd решил, что случайный порт подойдет, а 24007 даже не использовался, отлично!