Назад | Перейти на главную страницу

Как исправить мой сломанный массив raid10

У меня есть RAID 10, состоящий из дисков 4x3TB. Он стал деградированным (отвалился sdd). Я думал, что исправил это, и он перестраивался, но теперь (я думаю) sde, похоже, вызывает проблемы.

root@tower:~# mdadm -A --force /dev/md127 /dev/sd[b-e]
mdadm: /dev/md127 assembled from 2 drives and  1 rebuilding - not enough to start the array.

Это странно - все, что я гуглил, предполагает, что я должен видеть здесь имя устройства / dev / md127, но нет:

root@tower:~# mdadm --examine --scan
ARRAY /dev/md/4x3TB metadata=1.2 UUID=acaef996:1ea7102b:9cd52d00:af0ef09e name=omv:4x3TB

Кто-нибудь может порекомендовать подходящий курс действий? Вот результат работы каждого устройства:

/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e
           Name : omv:4x3TB
  Creation Time : Wed Dec 12 13:48:21 2012
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 08ee73a5:86c62890:3dba03bb:522093e8

    Update Time : Sun Jun  7 17:44:09 2015
       Checksum : d282c882 - correct
         Events : 2589917

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AA.? ('A' == active, '.' == missing)
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e
           Name : omv:4x3TB
  Creation Time : Wed Dec 12 13:48:21 2012
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 05c34f6d:8bead38f:99a01f60:e6518283

    Update Time : Sun Jun  7 17:44:09 2015
       Checksum : da150f20 - correct
         Events : 2589917

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AA.? ('A' == active, '.' == missing)
/dev/sdd:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x12
     Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e
           Name : omv:4x3TB
  Creation Time : Wed Dec 12 13:48:21 2012
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
Recovery Offset : 670607488 sectors
          State : clean
    Device UUID : 6d632b5f:5a22a515:5c63d798:f1b590ef

    Update Time : Sun Jun  7 17:44:09 2015
       Checksum : 1e80b6bc - correct
         Events : 2589917

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AA.? ('A' == active, '.' == missing)
/dev/sde:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : acaef996:1ea7102b:9cd52d00:af0ef09e
           Name : omv:4x3TB
  Creation Time : Wed Dec 12 13:48:21 2012
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : active
    Device UUID : e6a95b56:6541b0e1:6f3b9ce7:a392ceb9

    Update Time : Sun Jun  7 14:06:33 2015
       Checksum : d2c1c56c - correct
         Events : 2589703

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AA.A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md127 : inactive sdb[4](S) sdd[5](S) sdc[1](S)
      8790796680 blocks super 1.2

unused devices: 

Похоже, вы потеряли целый подмассив своего Raid10 (диски sdd, sde раньше были зеркалом ?!) - если это так, ваши данные будут потеряны.

Большое жирное предупреждение:

Все, что вы делаете со своим массивом (включая то, что я предлагаю), может привести к полной потере данных. Если есть действительно ценные (дорогостоящие для восстановления) данные без резервной копии, позвольте опытному человеку разобраться с ситуацией за вас. Включая создание бинарных копий всех четырех дисков.

Из вашего вывода кажется, что у вас есть

   Device Role : Active device 3

дважды в вашем --examine вывод. Это означало бы попытку выздоровления, но сделано неправильно.

Из /proc/mdstat похоже, что ваш массив собирается, но не запускается. Есть очень странные номера устройств (4,5,1), а ваши диски должны быть 0,1,2,3. Это также говорит о расхождениях в метаданных.

Еще одна достопримечательность - Events счетчики в метаданных дисков. Те согласны на sd[b-d], но, похоже, отстает от sde. Ты уверен что sdd был диск, который выпал? Поскольку это скорее указывает на sde быть вне массива в течение некоторого времени.

Вы можете попробовать собрать массив без выпавшего диска (mdadm -A -R /dev/md127 /dev/sd[bcd] или mdadm -A --force -R /dev/md127 /dev/sd[bce]). Это может предотвратить конфликт. Если это работает, и даже если это работает, не записывайте ничего в массив, сделайте резервную копию своих данных, а затем попробуйте добавить sdd назад как горячий запас.

Если это не сработает, вы можете попробовать обновить свой вопрос, выводя mdadm -D /dev/md127 после сборки массива (на самом деле оба предложенных способа).