Новое в RAID и Linux. Я увеличил свой массив RAID5 с 3 до 4 устройств. По другим причинам мне пришлось выйти из строя и удалить один из 4 дисков - sda1
. Я бы хотел уменьшить его до 3 устройств, но при попытке сделать это я получаю new_offset
ошибка:
# mdadm --grow --raid-devices=3 /dev/md127
mdadm: Cannot set new_offset for /dev/sdb1
Некоторые примечания:
Массив установлен в /
, поэтому мне бы хотелось избежать его размонтирования.
В массиве есть данные, поэтому я бы хотел их сохранить.
Детали RAID:
/dev/md127:
Version : 1.1
Creation Time : Mon Oct 22 16:20:37 2012
Raid Level : raid5
Array Size : 1953518592 (1863.02 GiB 2000.40 GB)
Used Dev Size : 976759296 (931.51 GiB 1000.20 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Nov 8 17:09:28 2016
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Delta Devices : 1, (3->4)
Name : xxx
UUID : xxx
Events : 275192
Number Major Minor RaidDevice State
3 8 49 0 active sync /dev/sdd1
2 0 0 2 removed
4 8 33 2 active sync /dev/sdc1
6 8 17 3 active sync /dev/sdb1
Могу я потерпеть неудачу и удалить /dev/sdb1
из массива? Я полагаю, что это решит проблему с сообщением об ошибке, но меня беспокоит, что при увеличении массива до 4 устройств отказ 2 из них сделает его непоправимым. Если этого нельзя сделать, что можно?
Обновить
Обошлись без головной боли. rsync
отредактировал содержимое деградированного массива на резервном диске, заменил RAID на свежеиспеченные диски, затем rsync
Эд назад.
Вы можете это сделать, но вам нужно указать файл резервной копии в командной строке. В вашем случае что-то вроде
mdadm --grow --raid-devices=3 /dev/md127 --backup-file /root/md127.backup
должно сработать.
Если у вас есть USB-накопитель или другое хранилище, которого нет в массиве, используйте его для файла резервной копии.