Назад | Перейти на главную страницу

Linux Raid: мистическое устройство md_d

У меня есть 64-битный сервер Ubuntu Jaunty (ядро 2.6.28-17-server), установленный на двух дисках SATA (sdc и sde) в зеркальном RAID, это моя текущая конфигурация рейда:

cat / proc / mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

md5 : active raid1 sdd7[1] sdc7[0]
      126953536 blocks [2/2] [UU]

md2 : active raid1 sdd3[1] sdc3[0]
      979840 blocks [2/2] [UU]

md0 : active raid1 sdd1[1] sdc1[0]
      96256 blocks [2/2] [UU]

md4 : active raid1 sdd6[1] sdc6[0]
      9767424 blocks [2/2] [UU]

md3 : active raid1 sdd5[1] sdc5[0]
      979840 blocks [2/2] [UU]

md1 : active raid1 sdd2[1] sdc2[0]
      1951808 blocks [2/2] [UU]

unused devices: none
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/md4              9.2G  922M  7.9G  11% /
tmpfs                 490M     0  490M   0% /lib/init/rw
varrun                490M  316K  490M   1% /var/run
varlock               490M     0  490M   0% /var/lock
udev                  490M  228K  490M   1% /dev
tmpfs                 490M     0  490M   0% /dev/shm
lrm                   490M  2.5M  488M   1% /lib/modules/2.6.28-17-server/volatile
/dev/md0               89M   55M   30M  65% /boot
/dev/md5              120G   96G   18G  85% /data
/dev/md2              942M   18M  877M   2% /tmp
/dev/md3              942M  186M  709M  21% /var

Пользователи быстро заполняют общий ресурс Samba / data, поэтому я добавил два дополнительных жестких диска (sda и sdb, они точно такого же типа и размера), так как я хотел создать из них еще одно зеркало, а затем смонтировать новое устройство рейда. внутри / data.

Шаги, которые я предпринял, заключались в создании одного раздела автоопределения рейда Linux на каждом из новых дисков, убедившись, что они имеют одинаковый размер.

 fdisk / dev / sda -l

Disk /dev/sda: 122.9 GB, 122942324736 bytes
255 heads, 63 sectors/track, 14946 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000e2e78

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1       14946   120053713+  fd  Linux raid autodetect
fdisk / dev / sdb -l

Disk /dev/sdb: 122.9 GB, 122942324736 bytes
255 heads, 63 sectors/track, 14946 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000ef08e

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1       14946   120053713+  fd  Linux raid autodetect

Затем я создал новое зеркало:

mdadm --create / dev / md6 --level = зеркало --raid-devices = 2 / dev / sda1 / dev / sdb1

В этот момент я получил следующее предупреждение:

mdadm: /dev/sdb1 appears to contain an ext2fs file system
    size=120053712K  mtime=Sat Dec 19 11:10:30 2009
Continue creating array?

Это странно, поскольку я только что создал новый раздел, и у меня никогда не создавалась файловая система на нем, но в любом случае я продолжил и ждал завершения синхронизации.

Вроде все нормально:

cat / proc / mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md6 : active raid1 sdb1[1] sda1[0]
      120053632 blocks [2/2] [UU]

md5 : active raid1 sdd7[1] sdc7[0]
      126953536 blocks [2/2] [UU]

md2 : active raid1 sdd3[1] sdc3[0]
      979840 blocks [2/2] [UU]

md4 : active raid1 sdc6[0] sdd6[1]
      9767424 blocks [2/2] [UU]

md3 : active raid1 sdc5[0] sdd5[1]
      979840 blocks [2/2] [UU]

md1 : active raid1 sdc2[0] sdd2[1]
      1951808 blocks [2/2] [UU]

md0 : active raid1 sdc1[0] sdd1[1]
      96256 blocks [2/2] [UU]

unused devices: none
mdadm --detail / dev / md6
/dev/md6:
        Version : 00.90
  Creation Time : Sat Dec 19 11:33:31 2009
     Raid Level : raid1
     Array Size : 120053632 (114.49 GiB 122.93 GB)
  Used Dev Size : 120053632 (114.49 GiB 122.93 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 6
    Persistence : Superblock is persistent

    Update Time : Sat Dec 19 12:24:14 2009
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : b901925f:b5ca90e0:afcf3cfb:09b88def (local to host szerver.mtvsz.local)
         Events : 0.4

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Но как только я перезагружаюсь, возникает проблема:

cat / proc / mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d6 : inactive sdb1[1](S)
      120053632 blocks

md3 : active raid1 sdc5[0] sdd5[1]
      979840 blocks [2/2] [UU]

md5 : active raid1 sdc7[0] sdd7[1]
      126953536 blocks [2/2] [UU]

md2 : active raid1 sdc3[0] sdd3[1]
      979840 blocks [2/2] [UU]

md1 : active raid1 sdd2[1] sdc2[0]
      1951808 blocks [2/2] [UU]

md0 : active raid1 sdd1[1] sdc1[0]
      96256 blocks [2/2] [UU]

md4 : active raid1 sdd6[1] sdc6[0]
      9767424 blocks [2/2] [UU]

unused devices: none
 ls / dev / md *
/dev/md0  /dev/md2  /dev/md4  /dev/md_d6    /dev/md_d6p2  /dev/md_d6p4
/dev/md1  /dev/md3  /dev/md5  /dev/md_d6p1  /dev/md_d6p3

Итак, мой вопрос: Что это за хрень с md_d6 и его разделами?

Хорошо, похоже, это ошибка mdadm или я пропустил ручной шаг. После выдачи этой команды

mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf

и перезагрузка кажется, что массив raid теперь в порядке. Глупый баг :)