У меня есть RAID 10, состоящий из дисков 4x3TB. Он стал деградированным (отвалился sdd). Я думал, что исправил это, и он перестраивался, но теперь (я думаю) sde, похоже, вызывает проблемы.
root@tower:~# mdadm -A --force /dev/md127 /dev/sd[b-e]
mdadm: /dev/md127 assembled from 2 drives and 1 rebuilding - not enough to start the array.
Это странно - все, что я гуглил, предполагает, что я должен видеть здесь имя устройства / dev / md127, но нет:
root@tower:~# mdadm --examine --scan
ARRAY /dev/md/4x3TB metadata=1.2 UUID=acaef996:1ea7102b:9cd52d00:af0ef09e name=omv:4x3TB
Кто-нибудь может порекомендовать подходящий курс действий? Вот результат работы каждого устройства:
/dev/sdb: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e Name : omv:4x3TB Creation Time : Wed Dec 12 13:48:21 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB) Array Size : 5860530176 (5589.04 GiB 6001.18 GB) Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 08ee73a5:86c62890:3dba03bb:522093e8 Update Time : Sun Jun 7 17:44:09 2015 Checksum : d282c882 - correct Events : 2589917 Layout : near=2 Chunk Size : 512K Device Role : Active device 0 Array State : AA.? ('A' == active, '.' == missing) /dev/sdc: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e Name : omv:4x3TB Creation Time : Wed Dec 12 13:48:21 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB) Array Size : 5860530176 (5589.04 GiB 6001.18 GB) Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 05c34f6d:8bead38f:99a01f60:e6518283 Update Time : Sun Jun 7 17:44:09 2015 Checksum : da150f20 - correct Events : 2589917 Layout : near=2 Chunk Size : 512K Device Role : Active device 1 Array State : AA.? ('A' == active, '.' == missing) /dev/sdd: Magic : a92b4efc Version : 1.2 Feature Map : 0x12 Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e Name : omv:4x3TB Creation Time : Wed Dec 12 13:48:21 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB) Array Size : 5860530176 (5589.04 GiB 6001.18 GB) Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB) Data Offset : 2048 sectors Super Offset : 8 sectors Recovery Offset : 670607488 sectors State : clean Device UUID : 6d632b5f:5a22a515:5c63d798:f1b590ef Update Time : Sun Jun 7 17:44:09 2015 Checksum : 1e80b6bc - correct Events : 2589917 Layout : near=2 Chunk Size : 512K Device Role : Active device 3 Array State : AA.? ('A' == active, '.' == missing) /dev/sde: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e Name : omv:4x3TB Creation Time : Wed Dec 12 13:48:21 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB) Array Size : 5860530176 (5589.04 GiB 6001.18 GB) Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : e6a95b56:6541b0e1:6f3b9ce7:a392ceb9 Update Time : Sun Jun 7 14:06:33 2015 Checksum : d2c1c56c - correct Events : 2589703 Layout : near=2 Chunk Size : 512K Device Role : Active device 3 Array State : AA.A ('A' == active, '.' == missing)
cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : inactive sdb[4](S) sdd[5](S) sdc[1](S) 8790796680 blocks super 1.2 unused devices:
Похоже, вы потеряли целый подмассив своего Raid10 (диски sdd, sde раньше были зеркалом ?!) - если это так, ваши данные будут потеряны.
Из вашего вывода кажется, что у вас есть
Device Role : Active device 3
дважды в вашем --examine
вывод. Это означало бы попытку выздоровления, но сделано неправильно.
Из /proc/mdstat
похоже, что ваш массив собирается, но не запускается. Есть очень странные номера устройств (4,5,1
), а ваши диски должны быть 0,1,2,3
. Это также говорит о расхождениях в метаданных.
Еще одна достопримечательность - Events
счетчики в метаданных дисков. Те согласны на sd[b-d]
, но, похоже, отстает от sde
. Ты уверен что sdd
был диск, который выпал? Поскольку это скорее указывает на sde
быть вне массива в течение некоторого времени.
Вы можете попробовать собрать массив без выпавшего диска (mdadm -A -R /dev/md127 /dev/sd[bcd]
или mdadm -A --force -R /dev/md127 /dev/sd[bce]
). Это может предотвратить конфликт. Если это работает, и даже если это работает, не записывайте ничего в массив, сделайте резервную копию своих данных, а затем попробуйте добавить sdd
назад как горячий запас.
Если это не сработает, вы можете попробовать обновить свой вопрос, выводя mdadm -D /dev/md127
после сборки массива (на самом деле оба предложенных способа).