Я тестирую настройку Xen DomU с хранилищем DRBD для упрощения аварийного переключения. В большинстве случаев сразу после загрузки DomU я получаю ошибку ввода-вывода:
[ 3.153370] EXT3-fs (xvda2): using internal journal
[ 3.277115] ip_tables: (C) 2000-2006 Netfilter Core Team
[ 3.336014] nf_conntrack version 0.5.0 (3899 buckets, 15596 max)
[ 3.515604] init: failsafe main process (397) killed by TERM signal
[ 3.801589] blkfront: barrier: write xvda2 op failed
[ 3.801597] blkfront: xvda2: barrier or flush: disabled
[ 3.801611] end_request: I/O error, dev xvda2, sector 52171168
[ 3.801630] end_request: I/O error, dev xvda2, sector 52171168
[ 3.801642] Buffer I/O error on device xvda2, logical block 6521396
[ 3.801652] lost page write due to I/O error on xvda2
[ 3.801755] Aborting journal on device xvda2.
[ 3.804415] EXT3-fs (xvda2): error: ext3_journal_start_sb: Detected aborted journal
[ 3.804434] EXT3-fs (xvda2): error: remounting filesystem read-only
[ 3.814754] journal commit I/O error
[ 6.973831] init: udev-fallback-graphics main process (538) terminated with status 1
[ 6.992267] init: plymouth-splash main process (546) terminated with status 1
На странице руководства drbdsetup говорится, что LVM (который я использую) не поддерживает барьеры (более известные как tagged command queuing
или native command queing
), поэтому я настроил устройство drbd, чтобы не использовать барьеры. Это можно увидеть в /proc/drbd
(по "wo:f
, то есть сброс, следующий метод, который drbd выбирает после барьера):
3: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r----
ns:2160152 nr:520204 dw:2680344 dr:2678107 al:3549 bm:9183 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
А на другом хосте:
3: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r----
ns:0 nr:2160152 dw:2160152 dr:0 al:0 bm:8052 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
Я также включил опцию disable_sendpage в соответствии с документами drbd:
cat /sys/module/drbd/parameters/disable_sendpage
Y
Я также попытался добавить барьеры = 0 в fstab в качестве опции монтирования. Тем не менее иногда говорится:
[ 58.603896] blkfront: barrier: write xvda2 op failed
[ 58.603903] blkfront: xvda2: barrier or flush: disabled
Я даже не знаю, есть ли у ext3 опция nobarrier. И, поскольку только одна из моих систем хранения имеет батарейное питание, в любом случае это было бы неразумно.
Почему он все еще жалуется на препятствия, когда я его отключил?
Оба хоста:
Debian: 6.0.4
uname -a: Linux 2.6.32-5-xen-amd64
drbd: 8.3.7
Xen: 4.0.1
Гость:
Ubuntu 12.04 LTS
uname -a: Linux 3.2.0-24-generic pvops
ресурс drbd:
resource drbdvm
{
meta-disk internal;
device /dev/drbd3;
startup
{
# The timeout value when the last known state of the other side was available. 0 means infinite.
wfc-timeout 0;
# Timeout value when the last known state was disconnected. 0 means infinite.
degr-wfc-timeout 180;
}
syncer
{
# This is recommended only for low-bandwidth lines, to only send those
# blocks which really have changed.
#csums-alg md5;
# Set to about half your net speed
rate 60M;
# It seems that this option moved to the 'net' section in drbd 8.4. (later release than Debian has currently)
verify-alg md5;
}
net
{
# The manpage says this is recommended only in pre-production (because of its performance), to determine
# if your LAN card has a TCP checksum offloading bug.
#data-integrity-alg md5;
}
disk
{
# Detach causes the device to work over-the-network-only after the
# underlying disk fails. Detach is not default for historical reasons, but is
# recommended by the docs.
# However, the Debian defaults in drbd.conf suggest the machine will reboot in that event...
on-io-error detach;
# LVM doesn't support barriers, so disabling it. It will revert to flush. Check wo: in /proc/drbd. If you don't disable it, you get IO errors.
no-disk-barrier;
}
on host1
{
# universe is a VG
disk /dev/universe/drbdvm-disk;
address 10.0.0.1:7792;
}
on host2
{
# universe is a VG
disk /dev/universe/drbdvm-disk;
address 10.0.0.2:7792;
}
}
DomU cfg:
bootloader = '/usr/lib/xen-default/bin/pygrub'
vcpus = '2'
memory = '512'
#
# Disk device(s).
#
root = '/dev/xvda2 ro'
disk = [
'phy:/dev/drbd3,xvda2,w',
'phy:/dev/universe/drbdvm-swap,xvda1,w',
]
#
# Hostname
#
name = 'drbdvm'
#
# Networking
#
# fake IP for posting
vif = [ 'ip=1.2.3.4,mac=00:16:3E:22:A8:A7' ]
#
# Behaviour
#
on_poweroff = 'destroy'
on_reboot = 'restart'
on_crash = 'restart'
В моей тестовой установке: основным хранилищем хоста является 9650SE SATA-II RAID PCIe с батареей. Вторичный - программный RAID1.
Разве DRBD + Xen не используется широко? С этими проблемами ничего не выйдет.
Изменить: барьеры на самом деле являются известной проблемой (Вот и Вот). Я пока не вижу решения.
Добавить extra = " barrier=off"
в вашу конфигурацию DomU. Обратите внимание на пробел перед барьер.
Также добавьте соответствующую опцию барьер / выключение (в соответствии с опциями монтирования файловых систем) в / etc / fstab вашего DomU.
Обновить:
Параметр «Барьер / выключено» - это вторая мера, позволяющая убедиться, что барьеры сняты.
Что касается барьерных операций: как вы можете видеть во время запуска, эти операции не выполняются. Так что выключение не ухудшает ситуацию. Кроме того, эти барьеры имеют смысл только на жестких дисках с включенным кешем записи, которые не записываются обратно на диск при сбоях питания.
Сервер должен иметь ИБП с батарейным питанием, а также рейд-контроллер с батарейным питанием. Таким образом, включение барьеров будет стоить только производительности (даже если это сработает).
Я не знаю, изменится ли это что-нибудь, но вы также можете указать тома DRBD в своей конфигурации DomU следующим образом:
disk = [ 'drbd:drbdvm,xvda2,w' ... ]
Таким образом, при создании DomU Xen автоматически сделает текущий узел основным для указанного ресурса (если ресурс уже не используется второй машиной). Также при уничтожении DomU ресурс будет освобожден.
У меня много пар DRBD, работающих таким образом, и я никогда не видел опубликованной вами ошибки.