Назад | Перейти на главную страницу

GlusterFS не работает на правильном порту! (одноранговый узел отключен / кирпич не запускается)

В CentOS 7 есть два кирпича на srv1 и srv2

Я улучшил gluster с 313 до 6, используя yum. Затем я перезагрузил сервер 1, запустил и успешно смонтировал диск.

Это моя команда монтирования: /usr/sbin/mount.glusterfs 127.0.0.1:/RepVol /home -o direct-io-mode=enable

Затем я перезапустил srv2, Не могу смонтировать:

[2019-08-29 14:16:01.354362] I [MSGID: 101190] [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0
[2019-08-29 14:16:01.354402] I [glusterfsd-mgmt.c:2443:mgmt_rpc_notify] 0-glusterfsd-mgmt: disconnected from remote-host: srv2
[2019-08-29 14:16:01.354409] I [glusterfsd-mgmt.c:2463:mgmt_rpc_notify] 0-glusterfsd-mgmt: Exhausted all volfile servers
[2019-08-29 14:16:01.354600] W [glusterfsd.c:1570:cleanup_and_exit] (-->/lib64/libgfrpc.so.0(+0xf1d3) [0x7f477284f1d3] -->/usr/sbin/glusterfsd(+0x12fef) [0x564e35a67fef] -->/usr/sbin/glusterfsd(cleanup_and_exit+0x6b) [0x564e35a6001b] ) 0-: received signum (1), shutting down
[2019-08-29 14:16:01.357036] I [socket.c:3754:socket_submit_outgoing_msg] 0-glusterfs: not connected (priv->connected = 0)
[2019-08-29 14:16:01.357050] W [rpc-clnt.c:1704:rpc_clnt_submit] 0-glusterfs: failed to submit rpc-request (unique: 0, XID: 0x2 Program: Gluster Portmap, ProgVers: 1, Proc: 5) to rpc-transport (glusterfs)

Сообщение об ошибке Exhausted all volfile servers. По крайней мере, это единственное, что отображается как ошибка imo.

на srv1:

Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick srv1:/datafold                        49152     0          Y       16291
Self-heal Daemon on localhost               N/A       N/A        Y       16313

Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks

на srv2:

Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick srv1:/datafold                        49152     0          Y       16291
Brick srv2:/datafold                        N/A       N/A        N       N/A
Self-heal Daemon on localhost               N/A       N/A        N       N/A
Self-heal Daemon on srv1                    N/A       N/A        Y       16313

Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks

Поэтому логично, что он не может монтироваться, когда кирпич отключен. Однако я понятия не имею, как запустить этот кирпич, даже после нескольких часов поисков. Было бы неплохо найти решение.

Я попытался удалить том, чтобы воссоздать его, но он жалуется, что не все блоки подключены.

Я также читал, что gluster использует ipv6 по умолчанию, начиная с версии 5, но не уверен, как это повлияет на мою настройку, поскольку srv1, похоже, запущен и работает?

РЕДАКТИРОВАТЬ:

Glusterd не работает на правильном порту! Так должно быть 24007 но это показано как: netstat -tulpn | grep gluster tcp 0 0 0.0.0.0:34678 0.0.0.0:* LISTEN 28743/glusterd

какого черта? Как это исправить?? Перезапуск ничего не делает, кроме назначения нового случайного порта ... tcp 0 0 0.0.0.0:43914 0.0.0.0:* LISTEN 17134/glusterd

Почему он не работает на 24007?

Я удалил glusterfs-server yum remove glusterfs-server -y и снова установил:

yum install glusterfs-server -y
systemctl enable glusterd.service
systemctl start glusterd.service

Затем он запустился на порту 24007, и все снова заработало.

Я просто потратил пару часов, потому что glusterd решил, что случайный порт подойдет, а 24007 даже не использовался, отлично!