У меня был том mdadm raid5 с 3 дисками (сделанный из / dev / sd [abc]), который находился в середине изменения формы, переходя на 5 дисков (добавление / dev / sd [df]), когда отключалось питание сервера . это на 64-битном сервере ubuntu 8.10 intrepid (ядро 2.6.27), mdadm версии 2.6.4, созданном из исходников. Демон монитора ups был достаточно хорош, чтобы выполнять следующие команды в то время
mdadm --stop /dev/md0
shutdown -P now
Когда я восстановил и запустил коробку, я использовал следующую команду, чтобы снова запустить рейд, так как он не запускался сам по себе.
mdadm --assemble /dev/md0 /dev/sd[abcdf]
он вернулся и перезапустил процесс изменения формы, но только с 4 дисками. В / dev / sdf не было суперблока, поэтому он не пошел бы на поводу. Я попытался добавить его обратно:
mdadm --add /dev/md0 /dev/sdf
но это просто добавило его как «горячий запас», а не как пропавшего 5-го участника рейда. поэтому я удалил его с помощью --remove, так как горячий резерв на этом этапе процесса бесполезен. Что еще хуже, на диск был добавлен суперблок, который теперь определяет его как «горячую». От него достаточно легко избавиться с помощью --zero-superblock.
я хочу знать, как мне массировать этот диск, чтобы вернуть его в массив на свое место? у меня нет оснований полагать, что данные плохие, только суперблок. или на данном этапе даже не уместно пытаться добавить его заново сейчас, когда изменение формы прошло без него?
содержимое / proc / mdstat:
root@FS1:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda[0] sdd[4] sdc[2] sdb[1]
1953524736 blocks super 0.91 level 5, 512k chunk, algorithm 2 [5/4] [UUU_U]
[======>..............] reshape = 33.4% (326807040/976762368) finish=1175.3min speed=9216K/sec
unused devices: <none>
содержимое /etc/mdadm/mdadm.conf
root@FS1:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=4128dcfb:b5e905ae:60b633ef:af4ede72
# This file was auto-generated on Wed, 15 Jul 2009 09:09:57 -0400
# by mkconf $Id$
вывод mdadm --examine --scan
root@FS1:~# mdadm --examine --scan
ARRAY /dev/md0 level=raid5 num-devices=5 UUID=4128dcfb:b5e905ae:60b633ef:af4ede72
spares=1
вывод mdadm -D
root@FS1:~# mdadm -D /dev/md0
/dev/md0:
Version : 00.91.03
Creation Time : Sun Jul 12 15:57:27 2009
Raid Level : raid5
Array Size : 1953524736 (1863.03 GiB 2000.41 GB)
Used Dev Size : 976762368 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jul 16 23:34:21 2009
State : clean, degraded, recovering
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Reshape Status : 33% complete
Delta Devices : 2, (3->5)
UUID : 4128dcfb:b5e905ae:60b633ef:af4ede72 (local to host FS1)
Events : 0.216044
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
2 8 32 2 active sync /dev/sdc
3 0 0 3 removed
4 8 48 4 active sync /dev/sdd
Прежде всего, дайте устройству md0 завершить переваривание существующей настройки. Не пытайтесь с ним связываться в данный момент, поскольку он занят, пытаясь следовать своему единственному императиву - вернуть массив в чистое состояние!
Как только все стабилизируется, приступайте к удалению «старой» записи для пятого диска. Затем продолжите добавление диска в массив и измените его форму, как вы это делали изначально, хотя на этот раз вы начнете с 4 дисков вместо 3.