У меня OpenSuSE 11.3 работает как хост Xen на машине с 8x296GB дисками Cheetah 15k.6 SAS, 4 из которых являются зеркальными, а остальные 4 полосатыми. Я использую LVM для управления дисками, и они отформатированы с помощью OCFS2. Я настроил Xen domU как логический том в группе томов «vg» и использовал XFS для файловой системы domU. После настройки domU я сделал снимок LVM и сохранил его в группе томов «vg». Создавая снимок, я убедился, что смонтировал его, чтобы убедиться, что он работает.
На хосте Xen также есть логический том для раздела / home, который монтируется парой domU. Короче говоря, я думал, что нахожусь в domU, но на самом деле был в dom0, и выполнил «rm -rf / home /», чтобы очистить домашний каталог. (Этот domU не монтировал LV / home.) Хотя ничего ценного не было потеряно, я заметил ошибку ввода-вывода при возврате команды rm.
Итак, вчера я пошел смонтировать снимок LVM и получил
stage:/ # mount -t xfs /dev/vg/xen-util-configured /mnt/template
mount: /dev/mapper/vg-xen--util--configured: can't read superblock
Поэтому я пытаюсь выполнить xfs_check и получить
xfs_check: /dev/vg/xen-util-configured is invalid (cannot read first 512 bytes)
Аналогично для xfs_repair
Phase 1 - find and verify superblock...
superblock read failed, offset 0, size 524288, ag 0, rval -1
fatal error -- Input/output error
Я даже не могу дд первый блок, так как он сообщает
stage:/ # dd if=/dev/vg/xen-util-configured of=foo bs=512 count=1
dd: reading `/dev/vg/xen-util-configured': Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 0.00100721 s, 0.0 kB/s
отчеты dmesg
[ 1875.331675] Buffer I/O error on device dm-12, logical block 0
[ 1875.331687] Buffer I/O error on device dm-12, logical block 1
[ 1875.331696] Buffer I/O error on device dm-12, logical block 2
[ 1875.331704] Buffer I/O error on device dm-12, logical block 3
dm-12 - это символическая ссылка на / dev / vg / xen-util-configure (снимок LVM, который я пытаюсь смонтировать).
Здесь я пытаюсь выяснить, действительно ли на диске (ах) где-то поврежден (а) сектор (а) или повреждена ли файловая система XFS снимка (и если да, то как ее вернуть). Мне не нравится, что я не могу даже блокировать 0 снимка. Контроллер RAID не сообщает о неисправных дисках во время загрузки. Я воздерживаюсь от использования Seagate SeaTools, потому что в руководстве говорится, что тесты «потенциально или полностью разрушительны для данных на дисках SCSI или SAS».
Изменить: vgdisplay показывает следующее:
vgdisplay
--- Volume group ---
VG Name vg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 39
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 12
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 1.07 TiB
PE Size 4.00 MiB
Total PE 281322
Alloc PE / Size 131616 / 514.12 GiB
Free PE / Size 149706 / 584.79 GiB
VG UUID eqvoEL-4qhV-AREf-7p3D-xr08-6VHh-iz13w7
Похоже, у меня свободно более 1/2 ТБ.
Извиняюсь за длинный пост ...
Что выводит vgdisplay? Возможно, у вас закончилось место, и снимок LV теперь является мусором.
Также перед запуском моментального снимка файловой системы xfs вы должны запустить xfs_freeze, чтобы получить согласованную файловую систему. Однако это звучит как проблема с LVM.