Назад | Перейти на главную страницу

glusterfs centos 7 - не запускается

Я пытаюсь создать кластер glusterfs на двух узлах. Единственное, что может быть немного сложным в моей настройке, это то, что у меня есть два узла, подключенных друг к другу через кабель кросс-коммутации, поэтому переключателя нет. Мои частные IP-адреса настраиваются на каждом узле следующим образом. Обратите внимание, что для сети 10.0.0.0/24 нет шлюза по умолчанию, что может вызвать у меня проблемы с его работой.:

[idf@node1 ~]$ uname -a
Linux node1.synctrading 3.10.0-229.1.2.el7.x86_64 #1 SMP Fri Mar 27 03:04:26 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
[idf@node1 ~]$ 

[idf@node2 ~]$ uname -a
Linux node2.synctrading 3.10.0-229.el7.x86_64 #1 SMP Fri Mar 6 11:36:42 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
[idf@node2 ~]$

Кажется, что каждый узел имеет каталог "config", но я не помню, чтобы касался какого-либо из этих файлов:

[idf@node1 ~]$ ls /etc/glusterfs/
glusterd.vol                glusterfs-logrotate       gluster-rsyslog-7.2.conf  logger.conf.example
glusterfs-georep-logrotate  gluster-rsyslog-5.8.conf  group-virt.example
[idf@node1 ~]$ 

У меня есть один диск в каждом узле, установленный на SDB в качестве моих "кирпичей"

[idf@node1 ~]$ df -h
Filesystem               Size  Used Avail Use% Mounted on
/dev/mapper/centos-root   50G  6.9G   44G  14% /
devtmpfs                 3.9G     0  3.9G   0% /dev
tmpfs                    3.9G  140K  3.9G   1% /dev/shm
tmpfs                    3.9G  9.1M  3.9G   1% /run
tmpfs                    3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/sdb                 932G   33M  932G   1% /data/brick1
/dev/mapper/centos-home  408G  4.9G  403G   2% /home
/dev/sda1                497M  162M  336M  33% /boot
10.0.0.61:/var/nfsshare   50G   43G  7.7G  85% /mnt/nfs/var/nfsshare

[idf@node2 ~]$ df -h
Filesystem               Size  Used Avail Use% Mounted on
/dev/mapper/centos-root   50G   43G  7.7G  85% /
devtmpfs                 3.9G     0  3.9G   0% /dev
tmpfs                    3.9G  140K  3.9G   1% /dev/shm
tmpfs                    3.9G  9.1M  3.9G   1% /run
tmpfs                    3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/sdb                 932G   33M  932G   1% /data/brick1
/dev/mapper/centos-home  408G   17G  391G   5% /home
/dev/sda1                497M  133M  365M  27% /boot
[idf@node2 ~]$ 

Моя сеть настроена следующим образом:

[idf@node1 ~]$ more /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=none
IPADDR0=10.0.0.60
NETMASK=255.255.255.0
PREFIX0=24
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eth0
DEVICE=enp1s0f1
ONBOOT=yes

[idf@node2 ~]$ more /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=none
IPADDR0=10.0.0.61
NETMASK=255.255.255.0
PREFIX0=24
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eth0
DEVICE=enp1s0f1
ONBOOT=yes

Файл моих хостов выглядит так

[idf@node1 ~]$ more /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
127.0.0.1   glusterfs2
10.0.0.61   glusterfs1
10.0.0.60   glusterfs2

[idf@node2 ~]$ more /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
127.0.0.1   glusterfs1
10.0.0.61   glusterfs1
10.0.0.60   glusterfs2 

Я добавил эти правила брандмауэра на каждый узел:

sudo iptables  -A INPUT -m state --state NEW -m tcp -p tcp -s 10.0.0.0/24 --dport 111         -j ACCEPT
sudo iptables  -A INPUT -m state --state NEW -m udp -p udp -s 10.0.0.0/24 --dport 111         -j ACCEPT
sudo iptables  -A INPUT -m state --state NEW -m tcp -p tcp -s 10.0.0.0/24 --dport 2049        -j ACCEPT
sudo iptables  -A INPUT -m state --state NEW -m tcp -p tcp -s 10.0.0.0/24 --dport 24007       -j ACCEPT
sudo iptables  -A INPUT -m state --state NEW -m tcp -p tcp -s 10.0.0.0/24 --dport 38465:38469 -j ACCEPT
sudo iptables  -A INPUT -m state --state NEW -m tcp -p tcp -s 10.0.0.0/24 --dport 49152       -j ACCEPT

Выход ip route

[idf@node2 ~]$ ip route
default via xxx.xxx.xx.xx dev enp1s0f0  proto static  metric 100 
10.0.0.0/24 dev enp1s0f1  proto kernel  scope link  src 10.0.0.61  metric 100 
192.168.0.0/24 dev ib0  proto kernel  scope link  src 192.168.0.1  metric 150 
[idf@node2 ~]$ 

[idf@node1 ~]$ ip route
default via xxx.xxx.xx.xx dev enp1s0f0  proto static  metric 100 
10.0.0.0/24 dev enp1s0f1  proto kernel  scope link  src 10.0.0.60  metric 100 
192.168.0.0/24 dev ib0  proto kernel  scope link  src 192.168.0.2  metric 150 
[idf@node1 ~]$ 

Содержание /etc/sysconfig/network пусто

[idf@node1 ~]$ sudo more /etc/sysconfig/network
# Created by anaconda
[idf@node1 ~]$ 

Когда я бегу

[idf@node1 ~]$ service glusterd status
Redirecting to /bin/systemctl status  glusterd.service
glusterd.service - GlusterFS, a clustered file-system server
   Loaded: loaded (/usr/lib/systemd/system/glusterd.service; enabled)
   Active: active (running) since Sat 2015-05-09 23:32:06 EDT; 26min ago
  Process: 5561 ExecStart=/usr/sbin/glusterd -p /var/run/glusterd.pid (code=exited, status=0/SUCCESS)
 Main PID: 5562 (glusterd)
   CGroup: /system.slice/glusterd.service
           \u2514\u25005562 /usr/sbin/glusterd -p /var/run/glusterd.pid

[idf@node1 ~]$ sudo gluster peer probe glusterfs1
peer probe: failed: Probe returned with unknown errno 107
[idf@node1 ~]$ 

Содержимое файла журнала / var / log / glusterfs:

[idf@node1 ~]$ sudo tail -f /var/log/glusterfs/etc-glusterfs-glusterd.vol.log
[2015-05-10 04:22:43.599679] I [mem-pool.c:545:mem_pool_destroy] 0-management: size=588 max=0 total=0
[2015-05-10 04:22:43.599693] I [mem-pool.c:545:mem_pool_destroy] 0-management: size=124 max=0 total=0
[2015-05-10 04:28:53.944473] I [glusterd-handler.c:1015:__glusterd_handle_cli_probe] 0-glusterd: Received CLI probe req node2 24007
[2015-05-10 04:28:53.945762] I [glusterd-handler.c:3165:glusterd_probe_begin] 0-glusterd: Unable to find peerinfo for host: node2 (24007)
[2015-05-10 04:28:53.985030] I [rpc-clnt.c:969:rpc_clnt_connection_init] 0-management: setting frame-timeout to 600
[2015-05-10 04:28:53.990323] I [glusterd-handler.c:3098:glusterd_friend_add] 0-management: connect returned 0
**[2015-05-10 04:28:53.990605] E [socket.c:2276:socket_connect_finish] 0-management: connection to 10.0.0.61:24007 failed (No route to host)**
[2015-05-10 04:28:53.990665] I [MSGID: 106004] [glusterd-handler.c:4365:__glusterd_peer_rpc_notify] 0-management: Peer 00000000-0000-0000-0000-000000000000, in Establishing Connection state, has disconnected from glusterd.
[2015-05-10 04:28:53.990849] I [mem-pool.c:545:mem_pool_destroy] 0-management: size=588 max=0 total=0
[2015-05-10 04:28:53.990867] I [mem-pool.c:545:mem_pool_destroy] 0-management: size=124 max=0 total=0

на любом узле я эта ошибка: Я не уверен, что делаю не так. У меня нет gw по умолчанию для сети 10.0.0.0/24?