Назад | Перейти на главную страницу

GlusterFs - удалить и добавить кирпич невозможно

У меня кластер GlusterFS (3.12.1) из 3 узлов.

Setp 1: удален узел (node2)

из узла1

# gluster volume remove-brick swarm-data replica 2 node2:/glusterfs/swarm-data force  
# gluster peer detach node2  

Setp 2: очистить узел

из узла2

# rm -rf /glusterfs/swarm-data  
# mkdir /glusterfs/swarm-data

И ремонтные работы

Setp 3: повторно добавить узел

из узла1

# gluster peer probe node2  
# gluster volume add-brick swarm-data replica 3 node2:/glusterfs/swarm-data force
volume add-brick: failed: Commit failed on node2. Please check log
file for details.

показать журналы:

failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
E [MSGID: 108006] [afr-common.c:5001:__afr_handle_child_down_event] 0-swarm-data-replicate-0: All subvolumes are down. Going offline until atleast one of them comes back up.

следующий:

# gluster volume status
Status of volume: swarm-data
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick node1:/glusterfs/swarm
-data                                       49152     0          Y       31216
Brick node3:/glusterfs/swarm
-data                                       49152     0          Y       2373 
Brick node2:/glusterfs/swarm
-data                                       N/A       N/A        N       N/A  
Self-heal Daemon on localhost               N/A       N/A        Y       27293
Self-heal Daemon on node3    N/A       N/A        Y       20268
Self-heal Daemon on node2    N/A       N/A        Y       7568 

Task Status of Volume swarm-data
------------------------------------------------------------------------------
There are no active volume tasks

=> Порт TCP: N / A для Node2 !!

Следующий:

# gluster volume info swarm-data

Volume Name: swarm-data
Type: Replicate
Volume ID: 0edd8275-8d39-4e95-abc8-9f028c2098a7
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 3 = 3
Transport-type: tcp
Bricks:
Brick1: node1:/glusterfs/swarm-data
Brick2: node3:/glusterfs/swarm-data
Brick3: node2:/glusterfs/swarm-data
Options Reconfigured:
auth.allow: 127.0.0.1
transport.address-family: inet
nfs.disable: on

Node2 здесь! но нет синхронизации данных

узлы 1 и 3 прослушивают порт 49152, но не узел 2:

netstat -an | grep LISTEN

Вы можете помочь мне ?

Проверьте имя разрешения (DNS или файл hosts). Проверьте, запущены ли службы glusterd на node2. Если glusterd не запускается, опубликуйте журнал.

Я тоже иногда сталкивался с такой ситуацией. Вы можете попробовать перезапустить сервис GlusterFS позже и снова проверить его:

systemctl restart glusterd
gluster volume status