Я хочу удалить программный массив raid-1 [когда он находится в деградированном состоянии], настроенный на LVM в системе Linux, и не могу его удалить. Я даже пытался использовать Knoppix Live CD, чтобы удалить RAID-1, связанный с LVM, но эта попытка также не удалась. Когда я проанализировал проблему, я увидел, что LVM настроен вместе с RAID, а логический том (vg0-root) смонтирован в файловой системе «/». Не могли бы вы предложить способ удалить этот массив Raid-1 без потери данных.
Пожалуйста, узнайте конфигурацию системы:
root@:~# fdisk -l
Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738
Device Boot Start End Blocks Id System
/dev/sdb1 2048 34613373 17305663 da Non-FS data
/dev/sdb4 * 34613374 156248189 60817408 fd Linux raid autodetect
Partition 4 does not start on physical sector boundary.
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738
Device Boot Start End Blocks Id System
/dev/sda1 2048 34613373 17305663 da Non-FS data
/dev/sda4 * 34613374 156248189 60817408 fd Linux raid autodetect
Partition 4 does not start on physical sector boundary.
root@:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465.8G 0 disk
├─sda1 8:1 0 16.5G 0 part
└─sda4 8:4 0 58G 0 part
└─md0 9:0 0 58G 0 raid1
├─vg0-swap (dm-0) 252:0 0 1.9G 0 lvm [SWAP]
├─vg0-root (dm-1) 252:1 0 19.6G 0 lvm /
└─vg0-backup (dm-2) 252:2 0 19.6G 0 lvm
sdb 8:16 0 465.8G 0 disk
├─sdb1 8:17 0 16.5G 0 part
└─sdb4 8:20 0 58G 0 part
root@S761012:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda4[0]
60801024 blocks super 1.2 [2/1] [U_]
unused devices: <none>
root@:~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Sep 23 02:59:04 2015
Raid Level : raid1
Array Size : 60801024 (57.98 GiB 62.26 GB)
Used Dev Size : 60801024 (57.98 GiB 62.26 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Tue Mar 7 23:38:20 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : Raja:0
UUID : 8b007464:369201ca:13634910:1d1d4bbf
Events : 823063
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 0 0 1 removed
root@:~# mdadm --manage /dev/md0 --fail /dev/sda4
mdadm: set device faulty failed for /dev/sda4: Device or resource busy
root@:~# mdadm --manage /dev/md0 --remove /dev/sda4
mdadm: hot remove failed for /dev/sda4: Device or resource busy
root@:~# mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
root@:~# pvdisplay
--- Physical volume ---
PV Name /dev/md0
VG Name vg0
PV Size 57.98 GiB / not usable 3.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 14843
Free PE 4361
Allocated PE 10482
PV UUID uxH3FS-sUOF-LsIP-kAjq-7Bwq-suhK-CLJXI1
root@:~#:~# lvdisplay
--- Logical volume ---
LV Path /dev/vg0/swap
LV Name swap
VG Name vg0
LV UUID BIwp5H-NYlf-drQJ-12Vf-5qYM-7NUj-ty9GhE
LV Write Access read/write
LV Creation host, time S000001, 2015-09-23 03:00:58 +0000
LV Status available
# open 2
LV Size 1.86 GiB
Current LE 476
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0
--- Logical volume ---
LV Path /dev/vg0/root
LV Name root
VG Name vg0
LV UUID SBf1mc-iqaB-noBx-1neo-IEPi-HhsH-SM14er
LV Write Access read/write
LV Creation host, time S000001, 2015-09-23 03:01:19 +0000
LV Status available
# open 1
LV Size 19.54 GiB
Current LE 5003
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1
--- Logical volume ---
LV Path /dev/vg0/backup
LV Name backup
VG Name vg0
LV UUID w1jGGy-KkfJ-0lDp-MFDl-8BJU-uJWU-24XKSL
LV Write Access read/write
LV Creation host, time SRAJA, 2016-10-22 05:30:03 +0000
LV Status available
# open 0
LV Size 19.54 GiB
Current LE 5003
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:2
root@:~# vgdisplay
--- Volume group ---
VG Name vg0
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 674
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 3
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size 57.98 GiB
PE Size 4.00 MiB
Total PE 14843
Alloc PE / Size 10482 / 40.95 GiB
Free PE / Size 4361 / 17.04 GiB
VG UUID LjCUyX-25MQ-WCFT-j2eF-2UWX-LYCp-TtLVJ5
Наконец, я попытался сделать:
root@S761012:~# mdadm --zero-superblock /dev/md0
mdadm: Couldn't open /dev/md0 for write - not zeroing
root @: ~ # umount / dev / md0 umount: / dev / md0: not connected root @: ~ # root @: ~ # mdadm --manage / dev / md0 --remove / dev / sda4 mdadm: не удалось выполнить горячее удаление для / dev / sda4: устройство или ресурс занят корень @: ~ # mdadm --stop / dev / md0 mdadm: невозможно получить монопольный доступ к / dev / md0: возможно, запущенный процесс, смонтированная файловая система или активная группа томов? root @: ~ # mdadm --zero-superblock / dev / sda4 mdadm: Не удалось открыть / dev / sda4 для записи - не обнуление
Поскольку sda4 является активным диском, он не позволяет мне выполнять какие-либо операции. Не могли бы вы предложить какие-либо другие способы достижения того же.
Я попытался использовать указанные шаги:
create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search -> After deep search is not showing any thing.
-> Раздел не найден и не выбран для восстановления. Пусто. Из-за чего восстановление загрузки также не работает должным образом. Всегда будет режим спасения grub.
Прежде всего вы должны понять, как это работает. Разделы работают по всему диску sda, программный RAID работает по разделам и далее, как показано на схеме:
Диск sda -> раздел sda4 -> программный RAID md0 -> физический том LVM -> группа томов LVM vg0 -> логический том LVM -> файловая система -> точка монтирования системы.
Вы не можете отключить корневую файловую систему из интерфейса командной строки, который из нее запущен. Вот почему вам нужно запустить ту же систему Linux с CD / DVD. Вы можете использовать тот же установочный компакт-диск Linux или последнюю версию SystemRescueCD. Вам необходимо проверить после запуска с компакт-диска:
Программный RAID запускается и его состояние по команде cat /proc/mdstat
? Устройство RAID md
может быть другой номер.
Активна ли группа томов LVM по команде vgdisplay
?
Монтируются ли файловые системы (на томах LVM) командой mount
?
Затем отключите все файловые системы, размещенные на томах LVM, командой umount
, деактивировать группу томов LVM vg0 командой vgchange -a n vg0
, выключите массив RAID командой mdadm --stop /dev/md0
, удалите устройство RAID командой mdadm --remove /dev/md0
и только потом обнулить суперблок на sda4 командой mdadm --zero-superblock /dev/sda4
.
Прежде всего вам нужно сделать резервную копию всех файлов на всех файловых системах томов LVM.
Может быть, вы восстановите загрузчик grub.
Обновления:
Перед восстановлением загрузки необходимо восстановить LVM! Снова загрузите вашу систему с SystemResqueCD. Бегать fdisk /dev/sda
и нажмите:
t (type)
4
8e (Linux LVM)
w
Тогда беги testdisk
:
create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search
select Linux LVM with heights start CHS values and press space key to change this found structure as Primary partition and press enter
select Write
Затем сохраните резервную копию testdisk где-нибудь, scp backup.log user@somehost:~
и снова перезагрузитесь с SystemResqueCD. после перезагрузки вы можете увидеть свою группу томов vg0
командой vgdisplay. Если это не так, запустите testdisk
снова загрузите резервную копию тестового диска и начните снова с другого найденного раздела Linux LVM.
После успешного восстановления LVM вы можете восстановить загрузку, как описано на Восстановление загрузки Ubuntu.
Скорее всего, вам придется вернуться в «однопользовательский» режим с помощью команды выключения, а затем отключить том в однопользовательском режиме. В этот момент том RAID-1 не будет использоваться, и вы сможете удалить массив RAID.
выключить сейчас должен привести вас к однопользовательскому режиму.
выключение -h сейчас остановит систему
выключение -r сейчас перезапустит его
выключение - помощь предоставляет вам все параметры команды, включая отправку сообщений вошедшим в систему пользователям о том, что вы переводите систему в однопользовательский режим.