Я хотел попробовать георепликацию glusterfs в некоторых виртуальных боксах на моем компьютере для последующего использования на нескольких сайтах.
Я установил glusterfs 3.6 на 32-битные серверы ubuntu следующим образом:
add-apt-repository -y ppa:gluster/glusterfs-3.6
apt-get update -qq
apt-get install glusterfs-server -y
В /etc/hosts
на каждом виртуальном ящике есть такая запись, чтобы я мог использовать имена хостов:
192.168.1.1 ivymaster.com
192.168.1.2 ivyslave2.com
192.168.1.3 ivyslave1.com
Сначала я создал и запустил том на мастере (force
создать на rootfs):
gluster volume create master ivymaster.com:/var/glustermaster/ force
gluster volume start master
Работает отлично. Я устанавливаю беспарольный вход в систему root с помощью ssh-copy-id
и входил в систему один раз вручную, чтобы проверить, правильно ли это настроено и хост хранится в known_hosts
.
Мне не удалось настроить синхронизацию в каталог, как описано в Терминология георепликации - понимание URI. Не удалось создать георепликацию из-за проблемы с URI.
gluster volume geo-replication master ivyslave2.com:/var/slave2 start
Staging failed on localhost. Please check the log file for more details.
Файл журнала содержит записи вроде Invalid slave name
, Unable to store slave volume name
, Unable to fetch slave or confpath details
.
Когда я создаю том на ivyslave2.com
и создать георепликацию с использованием этого объема, это работает:
gluster volume geo-replication master ivyslave2.com::slave2 create push-pem force
Creating geo-replication session between master & ivyslave2.com::slave2 has been successful
К сожалению, gluster volume geo-replication master ivyslave2.com::slave2 status
говорит, что состояние репликации неверное.
MASTER NODE MASTER VOL MASTER BRICK SLAVE STATUS CHECKPOINT STATUS CRAWL STATUS
--------------------------------------------------------------------------------------------------------------------------------
ivyVirtMaster master /var/glusterfs_master_nv ivyslave2.com::slave2 faulty N/A N/A
После выполнения этой команды файл журнала на главном сервере будет содержать Using passed config template(/var/lib/glusterd/geo-replication/master_ivyslave2.com_slave2/gsyncd.conf).
, Unable to read gsyncd status file
, Unable to read the statusfile for /var/glusterfs_master_nv brick for master(master), ivyslave2.com::slave2(slave) session
.
Файл журнала на ведомом устройстве содержит Received status volume req for volume slave2
, tune2fs exited with non-zero exit status
, failed to get inode size
.
Неисправен ли звук на ведомом устройстве? Связана ли эта проблема с tune2fs завершился с ненулевым статусом выхода? Как можно настроить георепликацию без тома? Что-то не так в конфигурации георепликации?
Связь Это дубликат разместить в stackoverflow.