При загрузке каждый раз заполняет:
[root][centos ~] cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md127 : inactive sda[2] sdb[3]
1953524992 blocks
unused devices: <none>
[root][centos ~] mdadm --stop /dev/md127
mdadm: stopped /dev/md127
[root][centos ~] mdadm --assemble --scan
mdadm: /dev/md0 has been started with 4 drives.
[root][centos ~] cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1]
2930279424 blocks level 5, 1024k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
Вы можете видеть, что сначала он обнаруживает BS md127, затем я должен остановить его, а затем собрать его, вот одна странность, он обнаруживает два md0, но успешно:
[root][centos ~] mdadm -Es
ARRAY /dev/md0 UUID=39c28990:e753d835:8b94c90b:72da1a08
ARRAY /dev/md0 UUID=88edc937:2ecbc9bb:8b94c90b:72da1a08
мой mdadm.conf
[root][centos ~] cat /etc/mdadm.conf
DEVICE partitions
ARRAY /dev/md0 UUID=88edc937:2ecbc9bb:8b94c90b:72da1a08
MAILADDR root
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
Но самое странное, что в dmesg, я думаю, проблема здесь:
md: kicking non-fresh sdc from array!
md: unbind<sdc>
md: export_rdev(sdc)
md: kicking non-fresh sdd from array!
md: unbind<sdd>
md: export_rdev(sdd)
async_tx: api initialized (async)
xor: automatically using best checksumming function: generic_sse
generic_sse: 6532.000 MB/sec
xor: using function: generic_sse (6532.000 MB/sec)
raid6: int64x1 1664 MB/s
raid6: int64x2 2148 MB/s
raid6: int64x4 1453 MB/s
raid6: int64x8 1457 MB/s
raid6: sse2x1 2417 MB/s
raid6: sse2x2 3222 MB/s
raid6: sse2x4 3429 MB/s
raid6: using algorithm sse2x4 (3429 MB/s)
md: raid6 personality registered for level 6
md: raid5 personality registered for level 5
md: raid4 personality registered for level 4
raid5: device sda operational as raid disk 2
raid5: device sdb operational as raid disk 3
raid5: allocated 4282kB for md127
2: w=1 pa=0 pr=4 m=1 a=2 r=4 op1=0 op2=0
3: w=2 pa=0 pr=4 m=1 a=2 r=4 op1=0 op2=0
raid5: not enough operational devices for md127 (2/4 failed)
RAID5 conf printout:
--- rd:4 wd:2
disk 2, o:1, dev:sda
disk 3, o:1, dev:sdb
raid5: failed to run raid set md127
md: pers->run() failed ...
Вероятно, вам нужно восстановить свой initrd
чтобы у него был правильный mdadm.conf
файл в нем, потому что процесс загрузки должен использовать эту версию, пока не будет смонтирована корневая файловая система.
Что вам нужно сделать, это примерно так:
mkinitrd /boot/initrd-<kernel-version>.img <kernel-version>
Я предполагаю, что используемая вами версия CentOS все еще использует mkinitrd
- если он переключился на dracut
тогда вам захочется:
dracut /boot/initramfs-<kernel-version>.img <kernel-version>
В любом случае вам нужно будет сначала переименовать старый файл, прежде чем вы сможете создать новый.
mdadm должен уметь собирать md-устройство. Похоже, он видит какие-то неправильные диски:
md127: неактивный sda [2] sdb [3]
Похоже, что для массива raid используются все диски sda и sdb, а не разделы sda1 sdb1 sdc1 sdd1.
Что показывает blkid? что показывает mdadm -E / dev / sda или mdadm -E / dev / sdb?
Может, с суперблоками творится что-то странное.
Как сказал TomH, вам также следует попытаться пересобрать initrd.
Думаю, я нашел это, проблема в том, что мой файл mdadm.conf не был достаточно конкретным и, возможно, сбивал с толку ОС.
Итак, я прочитал это: http://manpages.ubuntu.com/manpages/hardy/man5/mdadm.conf.5.html
И я обнаружил, что если я использую это
DEVICE partitions
Затем:
Это заставит mdadm читать / proc / partitions и включать все устройства и разделы, найденные в нем.
Поэтому я изменил его на
DEVICE /dev/sd[abcd]1
В Ubuntu я решил эту проблему следующим образом:
sudo update-initramfs -k all -u