Я новичок в RAID, и у меня проблема. Мой сервер предупредил меня, что какой-то диск неисправен, поэтому я исследовал:
root@server:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sda1[2](F) sdb1[1]
10485696 blocks [2/1] [_U]
md2 : active raid1 sda2[2](F) sdb2[1]
965746624 blocks [2/1] [_U]
unused devices: <none>
Похоже, что sda1 и sda2 неисправны. Вот и попробовал удалить sda1
root@server:~# mdadm /dev/md1 -r /dev/sda1
mdadm: hot removed /dev/sda1 from /dev/md1
Я пытаюсь понять, что мне теперь делать: если я снова попытаюсь добавить устройство, я получаю такое сообщение:
root@server:~# mdadm /dev/md1 -a /dev/sda1
mdadm: failed to write superblock to /dev/sda1
Я полагаю, мне не хватает какого-то шага восстановления / восстановления. Как я могу снова восстановить систему RAID?
ОБНОВИТЬ:
Вывод dmesg показывает много из них, поэтому есть некоторые свидетельства аппаратного сбоя:
sd 0:0:0:0: [sda] Unhandled error code
sd 0:0:0:0: [sda] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
sd 0:0:0:0: [sda] CDB: Read(10): 28 00 00 00 10 07 00 00 01 00
end_request: I/O error, dev sda, sector 4103
mdadm пометил диск как неисправный, и в вашем журнале есть ошибки на диске.
Это означает, что привод неисправен и его необходимо заменить. Нет смысла читать в RAID.