ФИКСИРОВАННЫЙ по крайней мере для меня. И я не знаю как. Я просматривал журналы с того момента, когда он не работал, до настоящего момента, когда он есть, и я всю жизнь не вижу другого. Что отличается, и я не знаю, совпадение ли это, когда я выполняю
gluster volume status
На обоих узлах они оба говорят Task Status of Volume glustervol1
где, как и раньше в server2, это было имя хоста коробки. Понятия не имею, как это произошло. Но это произошло ... Не знаю, исправило ли это это или что, но он сделал это самостоятельно после многочисленных перезагрузок.
ПО-ПРЕЖНЕМУ?! Об этом много писали с 2014 года на ubuntu и 14.04 с использованием init. я бегу centos 7.3-1611
полностью пропатчен ядром 3.10.0-514.10.2.el7
, и тома gluster по-прежнему не монтируются после перезагрузки на серверах, где блоки lvm и монтирование клиентского тома находятся на одном сервере.
У меня 3 коробки
Они используют бэкэнд lvm. И glustervol должен смонтировать в / data / glusterfs. Проблема отсутствует на server3, где это только клиент. Он подключается и монтируется по тем же правилам, что и другие серверы. Я покопался в журналах данных, в selinux в журнале запуска. Я не могу найти способ обойти это. Я рассматривал CTBD и пробовал autofs безрезультатно.
glusterfs 3.10.0
Repository revision: git://git.gluster.org/glusterfs.git
Copyright (c) 2006-2016 Red Hat, Inc. <https://www.gluster.org/>
GlusterFS comes with ABSOLUTELY NO WARRANTY.
It is licensed to you under your choice of the GNU Lesser
General Public License, version 3 or any later version (LGPLv3
or later), or the GNU General Public License, version 2 (GPLv2),
in all cases as published by the Free Software Foundation.
/dev/vg_gluster/brick1 /data/bricks/brick1 xfs defaults 0 0
gluster1:/glustervol1 /data/glusterfs glusterfs defaults,_netdev 0 0
sdb LVM2_member 6QrvQI-v5L9-bds3-BUn0-ySdB-hDmz-nVojpX
└─vg_gluster-brick1 xfs d181747c-8ed3-430c-bd1c-0b7968666dfe /data/bricks/brick1
and
gluster1:/glustervol1 49G 33M 49G 1% /data/glusterfs
Это работает, запустив руководство mount -t glusterfs...
или выполнив mount -a
с правилами в моем fstab
. Но при загрузке это не сработает. Я читал, что это как-то связано с попытками монтирования до запуска демона. Как лучше всего решить эту проблему? Это для редактирования файлов systemd? Кто-нибудь знает фикс?
Это фрагмент новой загрузки при попытке смонтировать через fstab, где говорится, что не запущен процесс кирпича.
[2017-04-03 16:35:47.353523] I [MSGID: 100030] [glusterfsd.c:2460:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.10.0 (args: /usr/sbin/glusterfs --volfile-server=gluster1 --volfile-id=/glustervol1 /data/glusterfs)
[2017-04-03 16:35:47.456915] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2017-04-03 16:35:48.711381] I [afr.c:94:fix_quorum_options] 0-glustervol1-replicate-0: reindeer: incoming qtype = none
[2017-04-03 16:35:48.711398] I [afr.c:116:fix_quorum_options] 0-glustervol1-replicate-0: reindeer: quorum_count = 0
[2017-04-03 16:35:48.712437] I [socket.c:4120:socket_init] 0-glustervol1-client-1: SSL support on the I/O path is ENABLED
[2017-04-03 16:35:48.712451] I [socket.c:4140:socket_init] 0-glustervol1-client-1: using private polling thread
[2017-04-03 16:35:48.712892] E [socket.c:4201:socket_init] 0-glustervol1-client-1: failed to open /etc/ssl/dhparam.pem, DH ciphers are disabled
[2017-04-03 16:35:48.713139] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 2
[2017-04-03 16:35:48.759228] I [socket.c:4120:socket_init] 0-glustervol1-client-0: SSL support on the I/O path is ENABLED
[2017-04-03 16:35:48.759243] I [socket.c:4140:socket_init] 0-glustervol1-client-0: using private polling thread
[2017-04-03 16:35:48.759308] E [socket.c:4201:socket_init] 0-glustervol1-client-0: failed to open /etc/ssl/dhparam.pem, DH ciphers are disabled
[2017-04-03 16:35:48.759596] W [MSGID: 101174] [graph.c:361:_log_if_unknown_option] 0-glustervol1-readdir-ahead: option 'parallel-readdir' is not recognized
[2017-04-03 16:35:48.759680] I [MSGID: 114020] [client.c:2352:notify] 0-glustervol1-client-0: parent translators are ready, attempting connect on transport
[2017-04-03 16:35:48.762408] I [MSGID: 114020] [client.c:2352:notify] 0-glustervol1-client-1: parent translators are ready, attempting connect on transport
[2017-04-03 16:35:48.904234] E [MSGID: 114058] [client-handshake.c:1538:client_query_portmap_cbk] 0-glustervol1-client-0: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
[2017-04-03 16:35:48.904286] I [MSGID: 114018] [client.c:2276:client_rpc_notify] 0-glustervol1-client-0: disconnected from glustervol1-client-0. Client process will keep trying to connect to glusterd until brick's port is available
Final graph:
+------------------------------------------------------------------------------+
1: volume glustervol1-client-0
2: type protocol/client
3: option ping-timeout 42
4: option remote-host gluster1
5: option remote-subvolume /data/bricks/brick1/brick
6: option transport-type socket
7: option transport.address-family inet
8: option username xxx
9: option password xxx
10: option transport.socket.ssl-enabled on
11: option send-gids true
12: end-volume
13:
14: volume glustervol1-client-1
15: type protocol/client
16: option ping-timeout 42
17: option remote-host gluster2
18: option remote-subvolume /data/bricks/brick1/brick
19: option transport-type socket
20: option transport.address-family inet
21: option username xxx
22: option password xxx
23: option transport.socket.ssl-enabled on
24: option send-gids true
25: end-volume
26:
27: volume glustervol1-replicate-0
28: type cluster/replicate
29: option afr-pending-xattr glustervol1-client-0,glustervol1-client-1
30: option use-compound-fops off
31: subvolumes glustervol1-client-0 glustervol1-client-1
32: end-volume
33:
34: volume glustervol1-dht
35: type cluster/distribute
36: option lock-migration off
37: subvolumes glustervol1-replicate-0
38: end-volume
39:
40: volume glustervol1-write-behind
41: type performance/write-behind
42: subvolumes glustervol1-dht
43: end-volume
44:
45: volume glustervol1-read-ahead
46: type performance/read-ahead
47: subvolumes glustervol1-write-behind
48: end-volume
49:
50: volume glustervol1-readdir-ahead
51: type performance/readdir-ahead
52: option parallel-readdir off
53: option rda-request-size 131072
54: option rda-cache-limit 10MB
55: subvolumes glustervol1-read-ahead
56: end-volume
57:
58: volume glustervol1-io-cache
59: type performance/io-cache
60: subvolumes glustervol1-readdir-ahead
61: end-volume
62:
63: volume glustervol1-quick-read
64: type performance/quick-read
65: subvolumes glustervol1-io-cache
66: end-volume
67:
68: volume glustervol1-open-behind
69: type performance/open-behind
70: subvolumes glustervol1-quick-read
71: end-volume
72:
73: volume glustervol1-md-cache
74: type performance/md-cache
75: subvolumes glustervol1-open-behind
76: end-volume
77:
78: volume glustervol1
79: type debug/io-stats
80: option log-level INFO
81: option latency-measurement off
82: option count-fop-hits off
83: subvolumes glustervol1-md-cache
84: end-volume
85:
86: volume meta-autoload
87: type meta
88: subvolumes glustervol1
89: end-volume
90:
+------------------------------------------------------------------------------+
[2017-04-03 16:35:48.949500] I [rpc-clnt.c:1964:rpc_clnt_reconfig] 0-glustervol1-client-1: changing port to 49152 (from 0)
[2017-04-03 16:35:49.105087] I [socket.c:348:ssl_setup_connection] 0-glustervol1-client-1: peer CN = <name>
[2017-04-03 16:35:49.105103] I [socket.c:351:ssl_setup_connection] 0-glustervol1-client-1: SSL verification succeeded (client: <ip>:24007)
[2017-04-03 16:35:49.106999] I [MSGID: 114057] [client-handshake.c:1451:select_server_supported_programs] 0-glustervol1-client-1: Using Program GlusterFS 3.3, Num (1298437), Version (330)
[2017-04-03 16:35:49.109591] I [MSGID: 114046] [client-handshake.c:1216:client_setvolume_cbk] 0-glustervol1-client-1: Connected to glustervol1-client-1, attached to remote volume '/data/bricks/brick1/brick'.
[2017-04-03 16:35:49.109609] I [MSGID: 114047] [client-handshake.c:1227:client_setvolume_cbk] 0-glustervol1-client-1: Server and Client lk-version numbers are not same, reopening the fds
[2017-04-03 16:35:49.109713] I [MSGID: 108005] [afr-common.c:4756:afr_notify] 0-glustervol1-replicate-0: Subvolume 'glustervol1-client-1' came back up; going online.
[2017-04-03 16:35:49.110987] I [fuse-bridge.c:4146:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 kernel 7.22
[2017-04-03 16:35:49.111004] I [fuse-bridge.c:4831:fuse_graph_sync] 0-fuse: switched to graph 0
[2017-04-03 16:35:49.112283] I [MSGID: 114035] [client-handshake.c:202:client_set_lk_version_cbk] 0-glustervol1-client-1: Server lk version = 1
[2017-04-03 16:35:52.547781] I [rpc-clnt.c:1964:rpc_clnt_reconfig] 0-glustervol1-client-0: changing port to 49152 (from 0)
[2017-04-03 16:35:52.558003] I [socket.c:348:ssl_setup_connection] 0-glustervol1-client-0: peer CN = <name>
[2017-04-03 16:35:52.558015] I [socket.c:351:ssl_setup_connection] 0-glustervol1-client-0: SSL verification succeeded (client: <ip>:24007)
[2017-04-03 16:35:52.558167] I [MSGID: 114057] [client-handshake.c:1451:select_server_supported_programs] 0-glustervol1-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)
[2017-04-03 16:35:52.558592] I [MSGID: 114046] [client-handshake.c:1216:client_setvolume_cbk] 0-glustervol1-client-0: Connected to glustervol1-client-0, attached to remote volume '/data/bricks/brick1/brick'.
[2017-04-03 16:35:52.558604] I [MSGID: 114047] [client-handshake.c:1227:client_setvolume_cbk] 0-glustervol1-client-0: Server and Client lk-version numbers are not same, reopening the fds
[2017-04-03 16:35:52.558781] I [MSGID: 114035] [client-handshake.c:202:client_set_lk_version_cbk] 0-glustervol1-client-0: Server lk version = 1
Возможно, вы могли бы попробовать
ip:/volume /dir glusterfs defaults,noauto,x-systemd.automount,x-systemd.device-timeout=30,_netdev 0 0
.
ссылаться archwiki-fstab # удаленная файловая система
Потому что моя ОС Cent6.9 без systemd, поэтому у меня она не работает (может быть, есть какие-то варианты для init, скажите, пожалуйста, если знаете :))
Я добавил правило в fstab
, но glusterfs не может быть автоматически смонтирован после загрузки. Версия 3.10.
Я выполняю команду mount -a
, файловая система может быть смонтирована.
Файл журнала пилы /etc/log/boot.log
, он обнаруживает, что файловая система смонтирована неудачно.
Файл журнала пилы /var/log/gluster/<your gluster volume name>.log
, он сказал, что подключенный сервер Gluster вышел из строя (но сервер ping, это нормально).
Думаю, может, при монтаже сеть была не готова?
Я ищу много вопросов, блогов или форумов, проблема не решалась ... 👿
В конце концов, я сдался и добавил команду в /etc/rc.local
sleep 30s
mount -a
Это решение некрасивое (возможно), но после перезагрузки системы мир снова станет прекрасным.
#gluster volume set glustervol1 performance.cache-size 32MB
установите низкий объем памяти для кеша чтения