Я пытаюсь изучить drbd с помощью centoOS 6.3 на виртуальном поле, у меня настроено два vm, node1 и node2, я копирую файл в точку монтирования / данные, которые являются / dev / drbd0 node1, но не отражаются на node2's / данные
вот конфиг
# You can find an example in /usr/share/doc/drbd.../drbd.conf.example
#include "drbd.d/global_common.conf";
#include "drbd.d/*.res";
global {
# do not participate in online usage survey
usage-count no;
}
resource data {
# write IO is reported as completed if it has reached both local
# and remote disk
protocol C;
net {
# set up peer authentication
cram-hmac-alg sha1;
shared-secret "s3cr3tp@ss";
# default value 32 - increase as required
max-buffers 512;
# highest number of data blocks between two write barriers
max-epoch-size 512;
# size of the TCP socket send buffer - can tweak or set to 0 to
# allow kernel to autotune
sndbuf-size 0;
}
startup {
# wait for connection timeout - boot process blocked
# until DRBD resources are connected
wfc-timeout 30;
# WFC timeout if peer was outdated
outdated-wfc-timeout 20;
# WFC timeout if this node was in a degraded cluster (i.e. only had one
# node left)
degr-wfc-timeout 30;
}
disk {
# the next two are for safety - detach on I/O error
# and set up fencing - resource-only will attempt to
# reach the other node and fence via the fence-peer
# handler
#on-io-error detach;
#fencing resource-only;
# no-disk-flushes; # if we had battery-backed RAID
# no-md-flushes; # if we had battery-backed RAID
# ramp up the resync rate
# resync-rate 10M;
}
handlers {
# specify the two fencing handlers
# see: http://www.drbd.org/users-guide-8.4/s-pacemaker-fencing.html
fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
}
# first node
on node1 {
# DRBD device
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.101:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
# second node
on node2 {
# DRBD debice
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.102:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
}
вот кот / proc / drbd
cat: /proc/data: No such file or directory
[root@node1 /]# cat /proc/drbd
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
ns:543648 nr:0 dw:265088 dr:280613 al:107 bm:25 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:7848864
[>...................] sync'ed: 6.5% (7664/8188)M
finish: 7:47:11 speed: 272 (524) K/sec
Я скопировал файл в / data в узле 1, но не могу найти файл в / date в node2, кто-нибудь может помочь?
статус drbd на узле 1
[root@node1 /]# service drbd status
drbd driver loaded OK; device status:
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
m:res cs ro ds p mounted fstype
0:data SyncSource Primary/Secondary UpToDate/Inconsistent C /data ext3
... sync'ed: 8.1% (7536/8188)M
DRBD означает распределенное реплицированное блочное устройство. Это не файловая система.
Если вы пишете файл на своем основном узле, файловая система выполняет операции записи. На уровне чуть ниже DRBD обеспечивает репликацию этих записей на вторичный узел. Для вторичного узла эти записи отображаются как блоки данных. Чтобы он мог видеть файлы, вам обычно придется размонтировать свой раздел на первичном узле и смонтировать его на вторичном узле.
Однако есть решение того, чего вы хотите достичь. Для этого вам понадобится кластерная файловая система. Такая файловая система позволяет вам монтировать раздел на двух узлах одновременно. С широко используемыми файловыми системами, такими как ext4, это невозможно.
Примером такой кластерной файловой системы, которая работает поверх DRBD, является OCFS2. Чтобы использовать эту файловую систему и иметь раздел, смонтированный на обоих серверах одновременно, ваш ресурс DRBD должен быть настроен в двойном основном режиме. Это означает, что первичного узла нет. Обоим узлам разрешено писать в ресурс одновременно. Файловая система кластера обеспечивает согласованность записываемых данных.
Докажите, что я ошибаюсь, но IIRC вы можете монтировать FS только на одном из узлов одновременно. Пусть они синхронизируются, размонтируют / data. Переключитесь, установите его на node2, и вы должны увидеть все данные.