Спасибо, что прочитали эту ветку, и заранее благодарю вас за любую помощь, которую вы можете оказать.
Вот что произошло ... Я заметил, что мой массив MDADM RAID 5 с заказанными дисками: / dev / sd [EFGHIABCDKJ] 1 сообщил о неисправном диске - / dev / sdb1. Я остановил массив, запустил smartctl -t long / dev / sdb1 и получил пропуск.
Поэтому я добавил / dev / sdb1 обратно в / dev / md0 с помощью mdadm --add. В процессе восстановления / dev / sdh1 перешел в автономный режим (кабель передачи данных, должно быть, был отключен, когда я переходил из FL в MI), и теперь состояние массива ухудшилось. Я снова проверил оба диска с помощью smartctl и получил 2 прохода.
Я читал на каком-то форуме совет по использованию mdadm -C / dev / md0 / dev / sd [efghiabcdkj] 1, но массив, повторно синхронизированный с порядком дисков, испортился (sd [abcdefghijk] 1 в отличие от sd [efghiabcdkj] 1). Я попытался использовать mdadm -Af / dev / md0, но получил сообщение об ошибке отсутствующего суперблока.
Наткнулся на другой пост, в котором говорилось, что я должен выполнить mdadm -C --assume-clean / dev / md0 / dev / sd [efghia MISSING cdkj] 1, а затем добавить / dev / sdb1, а затем mdadm --assemble / dev / md0 - resync = update, но к моему серверу была подключена флешка, которой был назначен / dev / sdi1 (OPPS) ... В любом случае, я быстро отключил систему, остановил систему, удалил флешку и повторил шаги.
================================================================================ fdisk -l reports: Disk /dev/hda: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/hda1 * 1 3187 25599546 7 HPFS/NTFS /dev/hda2 3188 60801 462784455 5 Extended /dev/hda5 3188 9561 51199123+ 7 HPFS/NTFS /dev/hda6 9562 28045 148472698+ 83 Linux /dev/hda7 28046 28835 6345643+ 82 Linux swap / Solaris /dev/hda8 28836 60801 256766863+ 83 Linux Disk /dev/sda: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sda1 * 1 182402 1465138552+ 83 Linux Disk /dev/sdb: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdb1 * 1 182402 1465138552+ fd Linux raid autodetect Disk /dev/sdc: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdc1 * 1 182402 1465138552+ 83 Linux Disk /dev/sdd: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdd1 * 1 182402 1465138552+ 83 Linux Disk /dev/sde: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sde1 * 1 182401 1465136001 83 Linux Disk /dev/sdf: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdf1 * 1 182401 1465136001 83 Linux Disk /dev/sdg: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdg1 * 1 182401 1465136001 83 Linux Disk /dev/sdh: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdh1 * 1 182401 1465136001 83 Linux Disk /dev/sdi: 1500.3 GB, 1500301910016 bytes 16 heads, 63 sectors/track, 2907021 cylinders Units = cylinders of 1008 * 512 = 516096 bytes Device Boot Start End Blocks Id System /dev/sdi1 * 1 2907021 1465138552+ 83 Linux Disk /dev/sdj: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdj1 * 1 182402 1465138552+ 83 Linux Disk /dev/sdk: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdk1 * 1 182402 1465138552+ 83 Linux Disk /dev/md0: 0 MB, 0 bytes 2 heads, 4 sectors/track, 0 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk /dev/md0 doesn't contain a valid partition table ================================================================================
Итак, я предполагаю, что при установке флеш-накопителя испортилось количество головок на всех других накопителях, кроме накопителя, которому не был назначен первый mdadm -C, потому что его назначение было принято флеш-накопителем.
Итак .... нижняя строка ... теперь повторная синхронизация завершена (diskstats показывает чтение, но не записи на диск), и я не могу смонтировать массив. Я получаю сообщение «VFS: не удается найти файловую систему ext3 на dev md0».
Текущий статус: R-Studio сообщает некоторые данные, testdisk все еще анализирует мой раздел, я прервал работу Raid Reconstructor, потому что он сообщает, что для завершения требуется около 20 дней ...
Есть какие-нибудь подсказки о том, как я могу восстановить свои данные? Мы будем очень признательны за любые предложения, которые вы можете предложить, потому что я начинаю новую работу и не могу позволить себе выглядеть неорганизованным, несмотря на плохой ход событий на прошлой неделе. Спасибо ... J
У меня был аналогичный случай, и я просто использовал команду с точно таким же параметром, который я использовал для создания рейда с параметром --assume-clean, и это сработало для меня
порядок дисков жизненно важен, если буквы дисков (sd [a-l]) перепутались, например мое отключение и повторное подключение в другом порядке, вы можете использовать
mdadm -E /dev/sd[a-l]1
для проверки номера RaidDevice. это сообщает вам порядок, в котором следует указывать диски при вызове mdadm -C ...
Ранее у меня были похожие проблемы с той же настройкой. md RAID кажутся очень надежными. Я несколько раз воссоздавал свой RAID с дисками в неправильном порядке и наблюдал ту же ошибку, что и вы каждый раз. Первоначальный порядок дисков был потерян из-за предыдущей неудачной попытки восстановления.
Но вы можете просто попытаться воссоздать RAID в другом порядке, пока, наконец, не получите все правильно. Хотя с таким количеством дисков поиск правильного порядка может занять много времени.
Одна из самых важных вещей, которую я извлек из этой катастрофы, - это то, что имена дисков (sda, sdb, ...) могут меняться. Как и при замене диска, имена всех остальных дисков тоже изменились. Это привело к большой путанице. Одним из наиболее важных шагов является получение серийных номеров дисков с smartctl
и отметьте, какие имена присвоены каким дискам. Это должно помочь избежать путаницы в процессе восстановления.
Мне потребовалось несколько дней, чтобы восстановить мои данные, и я уже почти отказался от получения чего-либо обратно. Но я, наконец, правильно установил порядок драйверов, и RAID смонтировал нормально, и все было в целости. Никогда не отказывайтесь от восстановления MD RAID.