Мне пришлось заменить два жестких диска в моем RAID1. После добавления двух новых разделов старые по-прежнему отображаются как удалено а новые добавляются только как запасные. Мне не удалось удалить разделы, помеченные как удалено.
Вот рассматриваемый RAID. Обратите внимание на два устройства (0 и 1) с состоянием удалено.
$ mdadm --detail /dev/md1
mdadm: metadata format 00.90 unknown, ignored.
mdadm: metadata format 00.90 unknown, ignored.
/dev/md1:
Version : 00.90
Creation Time : Thu May 20 12:32:25 2010
Raid Level : raid1
Array Size : 1454645504 (1387.26 GiB 1489.56 GB)
Used Dev Size : 1454645504 (1387.26 GiB 1489.56 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Tue Nov 12 21:30:39 2013
State : clean, degraded
Active Devices : 1
Working Devices : 3
Failed Devices : 0
Spare Devices : 2
UUID : 10d7d9be:a8a50b8e:788182fa:2238f1e4
Events : 0.8717546
Number Major Minor RaidDevice State
0 0 0 0 removed
1 0 0 1 removed
2 8 34 2 active sync /dev/sdc2
3 8 18 - spare /dev/sdb2
4 8 2 - spare /dev/sda2
Как мне избавиться от этих устройств и добавить новые разделы как активные устройства RAID?
Обновление 1
Кажется, я от них избавился. Мой RAID выполняет повторную синхронизацию, но два диска по-прежнему помечены как запасные и имеют номера 3 и 4, что выглядит неправильно. Придется дождаться завершения повторной синхронизации.
Все, что я сделал, - это исправил ошибку метаданных, отредактировав мой mdadm.conf и перезагрузившись. Раньше я пытался перезагрузиться, но на этот раз по какой-то причине это сработало.
Number Major Minor RaidDevice State
3 8 2 0 spare rebuilding /dev/sda2
4 8 18 1 spare rebuilding /dev/sdb2
2 8 34 2 active sync /dev/sdc2
Обновление 2
После ресинхронизации проблема точно такая же, как и раньше. Два новых раздела указаны как запасные, а старые помечены как удалено все еще там.
Является ли для меня единственным вариантом остановки и воссоздания массива?
Обновление 3 *
# cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] [linear] [multipath]
md1 : active raid1 sdb2[3](S) sdc2[0] sda2[4](S)
1454645504 blocks [3/1] [U__]
md0 : active raid1 sdc1[0] sdb1[2] sda1[1]
10488384 blocks [3/3] [UUU]
unused devices: <none>
В вашем конкретном случае:
mdadm --grow /dev/md1 --raid-devices=3
Для всех остальных установите --raid-devices
ко многим работающим устройствам в массиве в настоящее время.
Я думаю, это должно сработать:
mdadm /dev/md1 -r detached