У меня есть 64-битный сервер Ubuntu Jaunty (ядро 2.6.28-17-server), установленный на двух дисках SATA (sdc и sde) в зеркальном RAID, это моя текущая конфигурация рейда:
cat / proc / mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md5 : active raid1 sdd7[1] sdc7[0] 126953536 blocks [2/2] [UU] md2 : active raid1 sdd3[1] sdc3[0] 979840 blocks [2/2] [UU] md0 : active raid1 sdd1[1] sdc1[0] 96256 blocks [2/2] [UU] md4 : active raid1 sdd6[1] sdc6[0] 9767424 blocks [2/2] [UU] md3 : active raid1 sdd5[1] sdc5[0] 979840 blocks [2/2] [UU] md1 : active raid1 sdd2[1] sdc2[0] 1951808 blocks [2/2] [UU] unused devices: none
# df -h Filesystem Size Used Avail Use% Mounted on /dev/md4 9.2G 922M 7.9G 11% / tmpfs 490M 0 490M 0% /lib/init/rw varrun 490M 316K 490M 1% /var/run varlock 490M 0 490M 0% /var/lock udev 490M 228K 490M 1% /dev tmpfs 490M 0 490M 0% /dev/shm lrm 490M 2.5M 488M 1% /lib/modules/2.6.28-17-server/volatile /dev/md0 89M 55M 30M 65% /boot /dev/md5 120G 96G 18G 85% /data /dev/md2 942M 18M 877M 2% /tmp /dev/md3 942M 186M 709M 21% /var
Пользователи быстро заполняют общий ресурс Samba / data, поэтому я добавил два дополнительных жестких диска (sda и sdb, они точно такого же типа и размера), так как я хотел создать из них еще одно зеркало, а затем смонтировать новое устройство рейда. внутри / data.
Шаги, которые я предпринял, заключались в создании одного раздела автоопределения рейда Linux на каждом из новых дисков, убедившись, что они имеют одинаковый размер.
fdisk / dev / sda -l Disk /dev/sda: 122.9 GB, 122942324736 bytes 255 heads, 63 sectors/track, 14946 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x000e2e78 Device Boot Start End Blocks Id System /dev/sda1 1 14946 120053713+ fd Linux raid autodetect
fdisk / dev / sdb -l Disk /dev/sdb: 122.9 GB, 122942324736 bytes 255 heads, 63 sectors/track, 14946 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x000ef08e Device Boot Start End Blocks Id System /dev/sdb1 1 14946 120053713+ fd Linux raid autodetect
Затем я создал новое зеркало:
mdadm --create / dev / md6 --level = зеркало --raid-devices = 2 / dev / sda1 / dev / sdb1
В этот момент я получил следующее предупреждение:
mdadm: /dev/sdb1 appears to contain an ext2fs file system size=120053712K mtime=Sat Dec 19 11:10:30 2009 Continue creating array?
Это странно, поскольку я только что создал новый раздел, и у меня никогда не создавалась файловая система на нем, но в любом случае я продолжил и ждал завершения синхронизации.
Вроде все нормально:
cat / proc / mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md6 : active raid1 sdb1[1] sda1[0] 120053632 blocks [2/2] [UU] md5 : active raid1 sdd7[1] sdc7[0] 126953536 blocks [2/2] [UU] md2 : active raid1 sdd3[1] sdc3[0] 979840 blocks [2/2] [UU] md4 : active raid1 sdc6[0] sdd6[1] 9767424 blocks [2/2] [UU] md3 : active raid1 sdc5[0] sdd5[1] 979840 blocks [2/2] [UU] md1 : active raid1 sdc2[0] sdd2[1] 1951808 blocks [2/2] [UU] md0 : active raid1 sdc1[0] sdd1[1] 96256 blocks [2/2] [UU] unused devices: none
mdadm --detail / dev / md6 /dev/md6: Version : 00.90 Creation Time : Sat Dec 19 11:33:31 2009 Raid Level : raid1 Array Size : 120053632 (114.49 GiB 122.93 GB) Used Dev Size : 120053632 (114.49 GiB 122.93 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 6 Persistence : Superblock is persistent Update Time : Sat Dec 19 12:24:14 2009 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : b901925f:b5ca90e0:afcf3cfb:09b88def (local to host szerver.mtvsz.local) Events : 0.4 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1
Но как только я перезагружаюсь, возникает проблема:
cat / proc / mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md_d6 : inactive sdb1[1](S) 120053632 blocks md3 : active raid1 sdc5[0] sdd5[1] 979840 blocks [2/2] [UU] md5 : active raid1 sdc7[0] sdd7[1] 126953536 blocks [2/2] [UU] md2 : active raid1 sdc3[0] sdd3[1] 979840 blocks [2/2] [UU] md1 : active raid1 sdd2[1] sdc2[0] 1951808 blocks [2/2] [UU] md0 : active raid1 sdd1[1] sdc1[0] 96256 blocks [2/2] [UU] md4 : active raid1 sdd6[1] sdc6[0] 9767424 blocks [2/2] [UU] unused devices: none
ls / dev / md * /dev/md0 /dev/md2 /dev/md4 /dev/md_d6 /dev/md_d6p2 /dev/md_d6p4 /dev/md1 /dev/md3 /dev/md5 /dev/md_d6p1 /dev/md_d6p3
Итак, мой вопрос: Что это за хрень с md_d6 и его разделами?
Хорошо, похоже, это ошибка mdadm или я пропустил ручной шаг. После выдачи этой команды
mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf
и перезагрузка кажется, что массив raid теперь в порядке. Глупый баг :)