Назад | Перейти на главную страницу

Ранее монтируемый том GlusterFS теперь не может монтироваться из-за нескольких ошибок

Ранее я установил пару томов GlusterFS (называемых cyclorana0 и cyclorana1) через два узла (с IP 10.0.2.4 (имя хоста alboguttata) и 10.0.2.5 (имя хоста verrucosa)) в моей локальной сети. В probe команды и т. д. были успешными, и два узла могут правильно видеть друг друга и тома. Два узла работают под управлением Armbian Linux 4.14.144-odroidxu4 с glusterfs-server версия 3.13.2-1ubuntu1.

Я также установил клиент RHEL (с glusterfs пакеты версии 3.12.2), чтобы смонтировать тома через /etc/fstab, и он работал нормально несколько месяцев, даже после нескольких перезагрузок. Вот содержание:

10.0.2.5:/cyclorana0 /home/[username]/cyclorana0 glusterfs defaults,_netdev 0 0
10.0.2.5:/cyclorana1 /home/[username]/cyclorana1 glusterfs defaults,_netdev 0 0

Однако после вчерашней перезагрузки клиента RHEL монтирование не выполняется. После того, как я попытался запустить вручную mount -a, Я получаю только это:

Mount failed. Please check the log file for more details.
Mount failed. Please check the log file for more details.

Единственные журналы, о которых я могу думать, это те, которые находятся в /var/log/glusterfs/, и действительно, я нашел файлы журналов, соответствующие моим попыткам. Вывод для двух томов одинаковый, поэтому вот один из них, например:

[2019-09-21 02:21:59.834507] I [MSGID: 100030] [glusterfsd.c:2646:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.12.2 (args: /usr/sbin/glusterfs --volfile-server=10.0.2.5 --volfile-id=/cyclorana1 /home/[username]/cyclorana1)
[2019-09-21 02:21:59.844494] W [MSGID: 101002] [options.c:995:xl_opt_validate] 0-glusterfs: option 'address-family' is deprecated, preferred is 'transport.address-family', continuing with correction
[2019-09-21 02:21:59.863736] I [MSGID: 101190] [event-epoll.c:676:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0
[2019-09-21 02:21:59.863931] I [MSGID: 101190] [event-epoll.c:676:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2019-09-21 02:21:59.873312] I [MSGID: 114020] [client.c:2361:notify] 0-cyclorana1-client-0: parent translators are ready, attempting connect on transport
[2019-09-21 02:21:59.883477] E [MSGID: 101075] [common-utils.c:482:gf_resolve_ip6] 0-resolver: getaddrinfo failed (family:2) (Name or service not known)
[2019-09-21 02:21:59.883561] E [name.c:267:af_inet_client_get_remote_sockaddr] 0-cyclorana1-client-0: DNS resolution failed on host verrucosa
Final graph:
+------------------------------------------------------------------------------+
  1: volume cyclorana1-client-0
  2:     type protocol/client
  3:     option ping-timeout 42
  4:     option remote-host verrucosa
  5:     option remote-subvolume /bricks/brick1
  6:     option transport-type socket
  7:     option transport.address-family inet
  8:     option transport.tcp-user-timeout 0
  9:     option transport.socket.keepalive-time 20
 10:     option transport.socket.keepalive-interval 2
 11:     option transport.socket.keepalive-count 9
 12:     option send-gids true
 13: end-volume
 14:  
 15: volume cyclorana1-dht
 16:     type cluster/distribute
 17:     option lock-migration off
 18:     subvolumes cyclorana1-client-0
 19: end-volume
 20:  
 21: volume cyclorana1-write-behind
 22:     type performance/write-behind
 23:     subvolumes cyclorana1-dht
 24: end-volume
 25:  
 26: volume cyclorana1-read-ahead
 27:     type performance/read-ahead
 28:     subvolumes cyclorana1-write-behind
 29: end-volume
 30:  
 31: volume cyclorana1-readdir-ahead
 32:     type performance/readdir-ahead
 33:     option parallel-readdir off
 34:     option rda-request-size 131072
 35:     option rda-cache-limit 10MB
 36:     subvolumes cyclorana1-read-ahead
 37: end-volume
 38:  
 39: volume cyclorana1-io-cache
 40:     type performance/io-cache
 41:     subvolumes cyclorana1-readdir-ahead
 42: end-volume
 43:  
 44: volume cyclorana1-quick-read
 45:     type performance/quick-read
 46:     subvolumes cyclorana1-io-cache
 47: end-volume
 48:  
 49: volume cyclorana1-open-behind
 50:     type performance/open-behind
 51:     subvolumes cyclorana1-quick-read
 52: end-volume
 53:  
 54: volume cyclorana1-md-cache
 55:     type performance/md-cache
 56:     subvolumes cyclorana1-open-behind
 57: end-volume
 58:  
 59: volume cyclorana1-io-threads
 60:     type performance/io-threads
 61:     subvolumes cyclorana1-md-cache
 62: end-volume
 63:  
 64: volume cyclorana1
 65:     type debug/io-stats
 66:     option log-level INFO
 67:     option latency-measurement off
 68:     option count-fop-hits off
 69:     subvolumes cyclorana1-io-threads
 70: end-volume
 71:  
 72: volume meta-autoload
 73:     type meta
 74:     subvolumes cyclorana1
 75: end-volume
 76:  
+------------------------------------------------------------------------------+
[2019-09-21 02:21:59.887159] I [fuse-bridge.c:4915:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 kernel 7.23
[2019-09-21 02:21:59.887257] I [fuse-bridge.c:5548:fuse_graph_sync] 0-fuse: switched to graph 0
[2019-09-21 02:21:59.887755] E [fuse-bridge.c:4983:fuse_first_lookup] 0-fuse: first lookup on root failed (Transport endpoint is not connected)
[2019-09-21 02:21:59.891025] W [fuse-bridge.c:1242:fuse_attr_cbk] 0-glusterfs-fuse: 2: LOOKUP() / => -1 (Transport endpoint is not connected)
[2019-09-21 02:21:59.896995] W [fuse-bridge.c:1242:fuse_attr_cbk] 0-glusterfs-fuse: 3: LOOKUP() / => -1 (Transport endpoint is not connected)
[2019-09-21 02:21:59.905103] I [fuse-bridge.c:5822:fuse_thread_proc] 0-fuse: initating unmount of /home/[username]/cyclorana1
[2019-09-21 02:21:59.905610] W [glusterfsd.c:1462:cleanup_and_exit] (-->/lib64/libpthread.so.0(+0x7ea5) [0x7f2075213ea5] -->/usr/sbin/glusterfs(glusterfs_sigwaiter+0xe5) [0x557ca6064d05] -->/usr/sbin/glusterfs(cleanup_and_exit+0x6b) [0x557ca6064b6b] ) 0-: received signum (15), shutting down
[2019-09-21 02:21:59.905659] I [fuse-bridge.c:6611:fini] 0-fuse: Unmounting '/home/[username]/cyclorana1'.
[2019-09-21 02:21:59.905685] I [fuse-bridge.c:6616:fini] 0-fuse: Closing fuse connection to '/home/[username]/cyclorana1'.

Я с трудом понимаю эти журналы, но насколько я могу судить, мой клиент RHEL «видит» том, но почему-то не может его смонтировать. Основные проблемные строки в журнале кажутся (скажите, если я ошибаюсь):

[2019-09-21 02:21:59.883477] E [MSGID: 101075] [common-utils.c:482:gf_resolve_ip6] 0-resolver: getaddrinfo failed (family:2) (Name or service not known)
[2019-09-21 02:21:59.883561] E [name.c:267:af_inet_client_get_remote_sockaddr] 0-cyclorana1-client-0: DNS resolution failed on host verrucosa

Я сбит с толку DNS resolution ошибка, так как я подключаюсь напрямую через его IP-адрес локальной сети, а клиент RHEL находится в той же локальной сети.

Я также пытался смонтировать из отдельного клиента Manjaro Linux в той же локальной сети, что выдавало те же сообщения об ошибках.

Как мне устранить неполадки и исправить это, чтобы я мог смонтировать эти тома? Спасибо.

P.S. Вот журнал, когда был успешный:

[2019-08-27 06:07:08.806469] I [MSGID: 100030] [glusterfsd.c:2646:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.12.2 (args: /usr/sbin/glusterfs --volfile-server=10.0.2.5 --volfile-id=/cyclorana1 /home/[username]/cyclorana1)
[2019-08-27 06:07:09.225314] W [MSGID: 101002] [options.c:995:xl_opt_validate] 0-glusterfs: option 'address-family' is deprecated, preferred is 'transport.address-family', continuing with correction
[2019-08-27 06:07:09.377519] I [MSGID: 101190] [event-epoll.c:676:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0
[2019-08-27 06:07:09.379969] I [MSGID: 101190] [event-epoll.c:676:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2019-08-27 06:07:10.809517] I [MSGID: 114020] [client.c:2361:notify] 0-cyclorana1-client-0: parent translators are ready, attempting connect on transport
Final graph:
+------------------------------------------------------------------------------+
  1: volume cyclorana1-client-0
  2:     type protocol/client
  3:     option ping-timeout 42
  4:     option remote-host verrucosa
  5:     option remote-subvolume /bricks/brick1
  6:     option transport-type socket
  7:     option transport.address-family inet
  8:     option transport.tcp-user-timeout 0
  9:     option transport.socket.keepalive-time 20
 10:     option transport.socket.keepalive-interval 2
 11:     option transport.socket.keepalive-count 9
 12:     option send-gids true
 13: end-volume
 14:  
 15: volume cyclorana1-dht
 16:     type cluster/distribute
 17:     option lock-migration off
 18:     subvolumes cyclorana1-client-0
 19: end-volume
 20:  
 21: volume cyclorana1-write-behind
 22:     type performance/write-behind
 23:     subvolumes cyclorana1-dht
 24: end-volume
 25:  
 26: volume cyclorana1-read-ahead
 27:     type performance/read-ahead
 28:     subvolumes cyclorana1-write-behind
 29: end-volume
 30:  
 31: volume cyclorana1-readdir-ahead
 32:     type performance/readdir-ahead
 33:     option parallel-readdir off
 34:     option rda-request-size 131072
 35:     option rda-cache-limit 10MB
 36:     subvolumes cyclorana1-read-ahead
 37: end-volume
 38:  
 39: volume cyclorana1-io-cache
 40:     type performance/io-cache
 41:     subvolumes cyclorana1-readdir-ahead
 42: end-volume
 43:  
 44: volume cyclorana1-quick-read
 45:     type performance/quick-read
 46:     subvolumes cyclorana1-io-cache
 47: end-volume
 48:  
 49: volume cyclorana1-open-behind
 50:     type performance/open-behind
 51:     subvolumes cyclorana1-quick-read
 52: end-volume
 53:  
 54: volume cyclorana1-md-cache
 55:     type performance/md-cache
 56:     subvolumes cyclorana1-open-behind
 57: end-volume
 58:  
 59: volume cyclorana1-io-threads
 60:     type performance/io-threads
 61:     subvolumes cyclorana1-md-cache
 62: end-volume
 63:  
 64: volume cyclorana1
 65:     type debug/io-stats
 66:     option log-level INFO
 67:     option latency-measurement off
 68:     option count-fop-hits off
 69:     subvolumes cyclorana1-io-threads
 70: end-volume
 71:  
 72: volume meta-autoload
 73:     type meta
 74:     subvolumes cyclorana1
 75: end-volume
 76:  
+------------------------------------------------------------------------------+
[2019-08-27 06:07:10.825446] I [rpc-clnt.c:2013:rpc_clnt_reconfig] 0-cyclorana1-client-0: changing port to 49153 (from 0)
[2019-08-27 06:07:10.836134] I [MSGID: 114057] [client-handshake.c:1397:select_server_supported_programs] 0-cyclorana1-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)
[2019-08-27 06:07:10.839068] I [MSGID: 114046] [client-handshake.c:1150:client_setvolume_cbk] 0-cyclorana1-client-0: Connected to cyclorana1-client-0, attached to remote volume '/bricks/brick1'.
[2019-08-27 06:07:10.839149] I [MSGID: 114047] [client-handshake.c:1161:client_setvolume_cbk] 0-cyclorana1-client-0: Server and Client lk-version numbers are not same, reopening the fds
[2019-08-27 06:07:10.840019] I [MSGID: 114035] [client-handshake.c:121:client_set_lk_version_cbk] 0-cyclorana1-client-0: Server lk version = 1
[2019-08-27 06:07:10.863385] I [fuse-bridge.c:4915:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 kernel 7.23
[2019-08-27 06:07:10.863513] I [fuse-bridge.c:5548:fuse_graph_sync] 0-fuse: switched to graph 0