Я пытаюсь добавить два кубика в Gluster Volume. Два новых узла находятся в сети и могут быть проверены с помощью:
root /# gluster peer status
Также объем:
Status of volume: mainvolume
Gluster process Port Online Pid
------------------------------------------------------------------------------
Brick Node-1:/storage 49152 Y 1162
NFS Server on localhost 2049 Y 4004
Self-heal Daemon on localhost N/A Y 4011
NFS Server on 104.xxx.xxx.xxx 2049 Y 3024
Self-heal Daemon on 104.xxx.xxx.xxx N/A Y 3031
Brick 45.xx.xx.xx:/storage-pool N/A N N/A
NFS Server on 45.xx.xx.xx N/A N N/A
There are no active volume tasks
Последний кирпич был добавлен случайно, и его нужно удалить. Я смотрел на Документы Gluster а также чей-то гитхаб шпаргалка, но я не могу добавить два узла. Я начал с желания добавить только один узел, но затем случайно удалил узел. Итак, теперь мне нужно добавить два узла. Ниже приведен пример кода того, что я пытаюсь сделать:
gluster volume add-brick mainvolume replica 2 Node-2:/storage Node-3:/storage
--> volume add-brick: failed:
Лог-файл:
[2015-09-07 02:57:44.475415] I [input.c:36:cli_batch] 0-: Exiting with: -1
[2015-09-07 03:04:31.229023] I [input.c:36:cli_batch] 0-: Exiting with: -1
[2015-09-07 02:49:54.270231] E [glusterd-brick-ops.c:492:__glusterd_handle_add_brick] 0-management:
[2015-09-07 02:52:48.909897] E [glusterd-brick-ops.c:454:__glusterd_handle_add_brick] 0-management: Incorrect number of bricks supplied 1 with count 2
[2015-09-07 02:16:46.498829] E [client-handshake.c:1742:client_query_portmap_cbk] 1-mainvolume-client-2: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
Я добавляю потерь из-за того, что делать, моим следующим шагом будет воссоздание сети, если я не могу это понять.
вы можете удалить кирпич Brick 45.xx.xx.xx: / storage-pool, если он не нужен. при удалении укажите правильный номер реплики.
gluster volume remove-brick mainvolume replica 1 45.xx.xx.xx/storage-pool force
Затем вы убедитесь, что на узлах 2 и 3 нет расширенных атрибутов, выполнив
setfattr -x trusted.glusterfs.volume-id /brick-path
setfattr -x trusted.gfid /brick-path
rm -rf /brick-path/.glusterfs
т.е.
setfattr -x trusted.glusterfs.volume-id /storage
setfattr -x trusted.gfid /storage
rm -rf /storage/.glusterfs
на обоих новых узлах.
Тогда попробуйте add-brick
давая правильный номер реплики, в данном случае 3, поскольку у нас есть три блока, включая существующий.
gluster volume add-brick mainvolume replica 3 Node-2:/storage Node-3:/storage force