Назад | Перейти на главную страницу

Как определить отказавший / удаленный жесткий диск в рейде mdadm?

Мой текущий mdstat:

$ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid6 sde[8] sdh[4] sdg[1] sdd[6] sdb[5] sdc[7]
      9766914560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]

unused devices: <none>

Вот mdadm --detail:

$ sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Fri Apr 26 21:52:21 2013
     Raid Level : raid6
     Array Size : 9766914560 (9314.46 GiB 10001.32 GB)
  Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
   Raid Devices : 7
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Tue Mar 28 15:19:34 2017
          State : clean, degraded 
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server:0  (local to host server)
           UUID : 7dfb32ef:8454e49b:ec03ac98:cdb2e691
         Events : 34230

    Number   Major   Minor   RaidDevice State
       8       8       64        0      active sync   /dev/sde
       1       8       96        1      active sync   /dev/sdg
       4       8      112        2      active sync   /dev/sdh
       5       8       16        3      active sync   /dev/sdb
       6       8       48        4      active sync   /dev/sdd
      10       0        0       10      removed
       7       8       32        6      active sync   /dev/sdc

Мои вопросы:

  1. Как мне определить удаленный жесткий диск? Без уловок и догадок вроде вычитания набора дисков, показанного в выводе mdadm, из всех доступных жестких дисков в моей системе (ls / dev / sd *) и т. Д.
  2. Почему mdadm мог удалить диск? Можно ли повторно добавить его, если я запускаю тесты smartctl, и они успешно завершаются?

ОБНОВИТЬ Правильный ответ - sdf. Я нашел это, сравнив набор дисков, показанный в выводе mdadm, и все диски в системе (sda - это загрузочный диск с ОС), но мне все равно такая процедура показалась слишком сложной.

Вы можете запустить mdadm --detail /dev/md0 чтобы получить UUID массива RAID, в вашем случае это «7dfb32ef: 8454e49b: ec03ac98: cdb2e691».

Тогда беги mdadm --examine /dev/sda и проверь что Array UID это принадлежит. Если он такой же и sda отсутствует в mdadm --detail /dev/md0 вывод, то скорее всего тот диск, который был удален.

Я не могу ответить по причине mdadm чтобы удалить диск, кроме этого вы сможете найти дополнительную информацию в dmesg И в /var/log.

Если эти места выглядят нормально, и SMART говорит, что с диском все в порядке, можно безопасно добавить его снова.

Я бы порекомендовал вам настроить mdadm --monitor поэтому он запускает и контролирует ваши наборы RAID и отправляет вам электронное письмо, если что-то случится.

Последовательность дисков в массиве рейдов важна. Вы можете увидеть это в выводе команды mdadm --detail /dev/md0. В вашем примере это:

sde sdg sdh sdb sdd missed sdc

Если диск умер или отключен от сети, он по-прежнему принадлежит массиву raid. В вашем примере диск был удален из массива raid вручную с помощью команды mdadm. smartctl - хорошая программа для проверки состояния диска. Но эта программа не сможет вам помочь, если вы не знаете, какой диск был в массиве.