Назад | Перейти на главную страницу

После обновления до SLES11 SP1 - LVM поверх программного обеспечения RAID5 больше не работает

В системе, в которой я некоторое время работал с OpenSuSE11.1, я выполнил новую установку SLES11 SP1. В системе использовалась программная система RAID5, поверх которой был установлен LVM с одним разделом размером около 2,5 ТБ для монтирования типа / data.

Проблема в том, что SLES11.1 не распознает программный RAID, поэтому я больше не могу монтировать LVM.

Вот результат работы vgdisplay и pvdisplay:

$ vgdisplay
--- Volume group ---
VG Name               vg001
System ID
Format                lvm2
Metadata Areas        1
Metadata Sequence No  2
VG Access             read/write
VG Status             resizable
MAX LV                0
Cur LV                1
Open LV               0
Max PV                0
Cur PV                1
Act PV                1 
VG Size               2.73 TB
PE Size               4.00 MB
Total PE              715402
Alloc PE / Size       715402 / 2.73 TB
Free  PE / Size       0 / 0
VG UUID               Aryj93-QgpG-8V1S-qGV7-gvFk-GKtc-OTmuFk

$ pvdisplay
--- Physical volume ---
PV Name               /dev/md0
VG Name               vg001
PV Size               2.73 TB / not usable 896.00 KB
Allocatable           yes (but full)
PE Size (KByte)       4096
Total PE              715402
Free PE               0
Allocated PE          715402
PV UUID               rIpmyi-GmB9-oybx-pwJr-50YZ-GQgQ-myGjhi

Информация PE предполагает, что размер тома распознается, но физический том недоступен.

Программный RAID вроде работает нормально, он собран из следующих mdadm.conf, за которым следует вывод mdadm диагностика устройства md0 и устройств, используемых сборкой:

$ cat /etc/mdadm.conf
DEVICE partitions
ARRAY /dev/md0  auto=no level=raid5 num-devices=4 UUID=a0340426:324f0a4f:2ce7399e:ae4fabd0

$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdb[0] sde[3] sdd[2] sdc[1]
  2930287488 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

$ mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
     Array Size : 2930287488 (2794.54 GiB 3000.61 GB)
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Feb 27 14:55:46 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
         Events : 0.20

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde


$ mdadm --examine /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
     Array Size : 2930287488 (2794.54 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Feb 27 14:55:46 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 2b5182e8 - correct
         Events : 20

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       16        0      active sync   /dev/sdb

   0     0       8       16        0      active sync   /dev/sdb
   1     1       8       32        1      active sync   /dev/sdc
   2     2       8       48        2      active sync   /dev/sdd
   3     3       8       64        3      active sync   /dev/sde

$ mdadm --examine /dev/sdc
/dev/sdc:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
     Array Size : 2930287488 (2794.54 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Feb 27 14:55:46 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 2b5182fa - correct
         Events : 20

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       32        1      active sync   /dev/sdc

   0     0       8       16        0      active sync   /dev/sdb
   1     1       8       32        1      active sync   /dev/sdc
   2     2       8       48        2      active sync   /dev/sdd
   3     3       8       64        3      active sync   /dev/sde

$ mdadm --examine /dev/sdd
/dev/sdd:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
     Array Size : 2930287488 (2794.54 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Feb 27 14:55:46 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 2b51830c - correct
         Events : 20

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       48        2      active sync   /dev/sdd

   0     0       8       16        0      active sync   /dev/sdb
   1     1       8       32        1      active sync   /dev/sdc
   2     2       8       48        2      active sync   /dev/sdd
   3     3       8       64        3      active sync   /dev/sde

$ mdadm --examine /dev/sde
/dev/sde:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
     Array Size : 2930287488 (2794.54 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Feb 27 14:55:46 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 2b51831e - correct
         Events : 20

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       64        3      active sync   /dev/sde

   0     0       8       16        0      active sync   /dev/sdb
   1     1       8       32        1      active sync   /dev/sdc
   2     2       8       48        2      active sync   /dev/sdd
   3     3       8       64        3      active sync   /dev/sde

Единственное подозрение, что у меня есть /dev/md0p1 раздел, который создается автоматически после загрузки - это выглядит неправильно. Кажется, его рассматривают как еще одно программное устройство RAID, хотя мне кажется, что это область четности md0 Устройство RAID:

$ mdadm --detail /dev/md0p1
/dev/md0p1:
        Version : 0.90
  Creation Time : Tue Oct 27 13:04:40 2009
     Raid Level : raid5
     Array Size : 976752000 (931.50 GiB 1000.19 GB)
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Feb 27 15:43:00 2012
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : a0340426:324f0a4f:2ce7399e:ae4fabd0
         Events : 0.20

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde

В средстве разметки из администрирования YaST SLES программное устройство RAID указано в общем разделе жесткого диска, а не в разделе RAID. В md0p1 раздел указан в таблице разделов md0 диск.

Программный RAID-диск не распознается операционной системой правильно? Или это скорее проблема с конфигурацией LVM?

Есть идеи, как решить эту проблему?