Назад | Перейти на главную страницу

Невозможно удалить программный массив raid-1, когда он находится в деградированном состоянии

Я хочу удалить программный массив raid-1 [когда он находится в деградированном состоянии], настроенный на LVM в системе Linux, и не могу его удалить. Я даже пытался использовать Knoppix Live CD, чтобы удалить RAID-1, связанный с LVM, но эта попытка также не удалась. Когда я проанализировал проблему, я увидел, что LVM настроен вместе с RAID, а логический том (vg0-root) смонтирован в файловой системе «/». Не могли бы вы предложить способ удалить этот массив Raid-1 без потери данных.

Пожалуйста, узнайте конфигурацию системы:

root@:~# fdisk -l

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    34613373    17305663   da  Non-FS data
/dev/sdb4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048    34613373    17305663   da  Non-FS data
/dev/sda4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.


root@:~# lsblk
NAME                    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                       8:0    0 465.8G  0 disk
├─sda1                    8:1    0  16.5G  0 part
└─sda4                    8:4    0    58G  0 part
  └─md0                   9:0    0    58G  0 raid1
    ├─vg0-swap (dm-0)   252:0    0   1.9G  0 lvm   [SWAP]
    ├─vg0-root (dm-1)   252:1    0  19.6G  0 lvm   /
    └─vg0-backup (dm-2) 252:2    0  19.6G  0 lvm
sdb                       8:16   0 465.8G  0 disk
├─sdb1                    8:17   0  16.5G  0 part
└─sdb4                    8:20   0    58G  0 part

root@S761012:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda4[0]
      60801024 blocks super 1.2 [2/1] [U_]

unused devices: <none>


root@:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Sep 23 02:59:04 2015
     Raid Level : raid1
     Array Size : 60801024 (57.98 GiB 62.26 GB)
  Used Dev Size : 60801024 (57.98 GiB 62.26 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Tue Mar  7 23:38:20 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : Raja:0
           UUID : 8b007464:369201ca:13634910:1d1d4bbf
         Events : 823063

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed


root@:~# mdadm --manage /dev/md0 --fail /dev/sda4
mdadm: set device faulty failed for /dev/sda4:  Device or resource busy

root@:~# mdadm --manage /dev/md0 --remove /dev/sda4
mdadm: hot remove failed for /dev/sda4: Device or resource busy

root@:~# mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?


    root@:~# pvdisplay
      --- Physical volume ---
      PV Name               /dev/md0
      VG Name               vg0
      PV Size               57.98 GiB / not usable 3.00 MiB
      Allocatable           yes
      PE Size               4.00 MiB
      Total PE              14843
      Free PE               4361
      Allocated PE          10482
      PV UUID               uxH3FS-sUOF-LsIP-kAjq-7Bwq-suhK-CLJXI1

    root@:~#:~# lvdisplay
      --- Logical volume ---
      LV Path                /dev/vg0/swap
      LV Name                swap
      VG Name                vg0
      LV UUID                BIwp5H-NYlf-drQJ-12Vf-5qYM-7NUj-ty9GhE
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:00:58 +0000
      LV Status              available
      # open                 2
      LV Size                1.86 GiB
      Current LE             476
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:0

      --- Logical volume ---
      LV Path                /dev/vg0/root
      LV Name                root
      VG Name                vg0
      LV UUID                SBf1mc-iqaB-noBx-1neo-IEPi-HhsH-SM14er
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:01:19 +0000
      LV Status              available
      # open                 1
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:1

      --- Logical volume ---
      LV Path                /dev/vg0/backup
      LV Name                backup
      VG Name                vg0
      LV UUID                w1jGGy-KkfJ-0lDp-MFDl-8BJU-uJWU-24XKSL
      LV Write Access        read/write
      LV Creation host, time SRAJA, 2016-10-22 05:30:03 +0000
      LV Status              available
      # open                 0
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:2

    root@:~# vgdisplay
      --- Volume group ---
      VG Name               vg0
      System ID
      Format                lvm2
      Metadata Areas        1
      Metadata Sequence No  674
      VG Access             read/write
      VG Status             resizable
      MAX LV                0
      Cur LV                3
      Open LV               2
      Max PV                0
      Cur PV                1
      Act PV                1
      VG Size               57.98 GiB
      PE Size               4.00 MiB
      Total PE              14843
      Alloc PE / Size       10482 / 40.95 GiB
      Free  PE / Size       4361 / 17.04 GiB
      VG UUID               LjCUyX-25MQ-WCFT-j2eF-2UWX-LYCp-TtLVJ5

Наконец, я попытался сделать:

 root@S761012:~# mdadm --zero-superblock /dev/md0
 mdadm: Couldn't open /dev/md0 for write - not zeroing

root @: ~ # umount / dev / md0 umount: / dev / md0: not connected root @: ~ # root @: ~ # mdadm --manage / dev / md0 --remove / dev / sda4 mdadm: не удалось выполнить горячее удаление для / dev / sda4: устройство или ресурс занят корень @: ~ # mdadm --stop / dev / md0 mdadm: невозможно получить монопольный доступ к / dev / md0: возможно, запущенный процесс, смонтированная файловая система или активная группа томов? root @: ~ # mdadm --zero-superblock / dev / sda4 mdadm: Не удалось открыть / dev / sda4 для записи - не обнуление

Поскольку sda4 является активным диском, он не позволяет мне выполнять какие-либо операции. Не могли бы вы предложить какие-либо другие способы достижения того же.

Я попытался использовать указанные шаги:

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search   -> After deep search is not showing any thing.

-> Раздел не найден и не выбран для восстановления. Пусто. Из-за чего восстановление загрузки также не работает должным образом. Всегда будет режим спасения grub.

Прежде всего вы должны понять, как это работает. Разделы работают по всему диску sda, программный RAID работает по разделам и далее, как показано на схеме:

Диск sda -> раздел sda4 -> программный RAID md0 -> физический том LVM -> группа томов LVM vg0 -> логический том LVM -> файловая система -> точка монтирования системы.

Вы не можете отключить корневую файловую систему из интерфейса командной строки, который из нее запущен. Вот почему вам нужно запустить ту же систему Linux с CD / DVD. Вы можете использовать тот же установочный компакт-диск Linux или последнюю версию SystemRescueCD. Вам необходимо проверить после запуска с компакт-диска:

  • Программный RAID запускается и его состояние по команде cat /proc/mdstat? Устройство RAID md может быть другой номер.

  • Активна ли группа томов LVM по команде vgdisplay?

  • Монтируются ли файловые системы (на томах LVM) командой mount?

Затем отключите все файловые системы, размещенные на томах LVM, командой umount, деактивировать группу томов LVM vg0 командой vgchange -a n vg0, выключите массив RAID командой mdadm --stop /dev/md0, удалите устройство RAID командой mdadm --remove /dev/md0 и только потом обнулить суперблок на sda4 командой mdadm --zero-superblock /dev/sda4.

Прежде всего вам нужно сделать резервную копию всех файлов на всех файловых системах томов LVM.

Может быть, вы восстановите загрузчик grub.

Обновления:

Перед восстановлением загрузки необходимо восстановить LVM! Снова загрузите вашу систему с SystemResqueCD. Бегать fdisk /dev/sda и нажмите:

t (type)
4
8e (Linux LVM)
w

Тогда беги testdisk:

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search
select Linux LVM with heights start CHS values and press space key to change this found structure as Primary partition and press enter
select Write

Затем сохраните резервную копию testdisk где-нибудь, scp backup.log user@somehost:~ и снова перезагрузитесь с SystemResqueCD. после перезагрузки вы можете увидеть свою группу томов vg0 командой vgdisplay. Если это не так, запустите testdisk снова загрузите резервную копию тестового диска и начните снова с другого найденного раздела Linux LVM.

После успешного восстановления LVM вы можете восстановить загрузку, как описано на Восстановление загрузки Ubuntu.

Скорее всего, вам придется вернуться в «однопользовательский» режим с помощью команды выключения, а затем отключить том в однопользовательском режиме. В этот момент том RAID-1 не будет использоваться, и вы сможете удалить массив RAID.

выключить сейчас должен привести вас к однопользовательскому режиму.

выключение -h сейчас остановит систему

выключение -r сейчас перезапустит его

выключение - помощь предоставляет вам все параметры команды, включая отправку сообщений вошедшим в систему пользователям о том, что вы переводите систему в однопользовательский режим.