У меня на RAID6 вышло из строя 3 диска в течение недели. К счастью, с одним диском все прошло нормально. Мне удалось запустить ddrescue, и он скопировал все, кроме одной небольшой области (не смог прочитать 14 МБ из 3 ТБ).
Однако при попытке собрать массив с использованием клонированного диска (после удаления оригинала) возникают некоторые проблемы (SDM являясь клонированным диском):
# mdadm --assemble --scan --force /dev/md127
mdadm: failed to add /dev/sdm1 to /dev/md127: Invalid argument
mdadm: failed to RUN_ARRAY /dev/md127: Input/output error
Осмотр диска показывает:
# mdadm -E /dev/sdm1
/dev/sdm1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 9112a098:66dde535:f258911c:3af7e312
Name : cstor2.localdomain:127 (local to host cstor2.localdomain)
Creation Time : Wed Aug 27 01:34:29 2014
Raid Level : raid6
Raid Devices : 12
Avail Dev Size : 5859110912 (2793.84 GiB 2999.86 GB)
Array Size : 29295549440 (27938.41 GiB 29998.64 GB)
Used Dev Size : 5859109888 (2793.84 GiB 2999.86 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=18446744073701229568 sectors
State : active
Device UUID : 4d8e7a74:f9dca0be:0d899e70:cc798c51
Update Time : Sat Jan 2 21:15:23 2016
Checksum : dc798583 - correct
Events : 9341937
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : AAA.A.AAAAAA ('A' == active, '.' == missing, 'R' == replacing)
Это соответствует тому, что сообщал другой диск. Однако он выдает неверный аргумент каждый раз, когда я пытаюсь собрать исходный RAID6. Есть ли у кого-нибудь идеи об ошибке недопустимого аргумента или о том, как я могу это обойти.
Я размышлял, следует ли мне воссоздать массив с помощью accept-clean, но я не уверен, что это будет работать правильно с 10 из 12 дисков.