Назад | Перейти на главную страницу

Восстановление данных MDADM RAID 5

Спасибо, что прочитали эту ветку, и заранее благодарю вас за любую помощь, которую вы можете оказать.

Вот что произошло ... Я заметил, что мой массив MDADM RAID 5 с заказанными дисками: / dev / sd [EFGHIABCDKJ] 1 сообщил о неисправном диске - / dev / sdb1. Я остановил массив, запустил smartctl -t long / dev / sdb1 и получил пропуск.

Поэтому я добавил / dev / sdb1 обратно в / dev / md0 с помощью mdadm --add. В процессе восстановления / dev / sdh1 перешел в автономный режим (кабель передачи данных, должно быть, был отключен, когда я переходил из FL в MI), и теперь состояние массива ухудшилось. Я снова проверил оба диска с помощью smartctl и получил 2 прохода.

Я читал на каком-то форуме совет по использованию mdadm -C / dev / md0 / dev / sd [efghiabcdkj] 1, но массив, повторно синхронизированный с порядком дисков, испортился (sd [abcdefghijk] 1 в отличие от sd [efghiabcdkj] 1). Я попытался использовать mdadm -Af / dev / md0, но получил сообщение об ошибке отсутствующего суперблока.

Наткнулся на другой пост, в котором говорилось, что я должен выполнить mdadm -C --assume-clean / dev / md0 / dev / sd [efghia MISSING cdkj] 1, а затем добавить / dev / sdb1, а затем mdadm --assemble / dev / md0 - resync = update, но к моему серверу была подключена флешка, которой был назначен / dev / sdi1 (OPPS) ... В любом случае, я быстро отключил систему, остановил систему, удалил флешку и повторил шаги.

================================================================================
fdisk -l reports:

Disk /dev/hda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/hda1   *           1        3187    25599546    7  HPFS/NTFS
/dev/hda2            3188       60801   462784455    5  Extended
/dev/hda5            3188        9561    51199123+   7  HPFS/NTFS
/dev/hda6            9562       28045   148472698+  83  Linux
/dev/hda7           28046       28835     6345643+  82  Linux swap / Solaris
/dev/hda8           28836       60801   256766863+  83  Linux

Disk /dev/sda: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1      182402  1465138552+  83  Linux

Disk /dev/sdb: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1      182402  1465138552+  fd  Linux raid autodetect

Disk /dev/sdc: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1   *           1      182402  1465138552+  83  Linux

Disk /dev/sdd: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1   *           1      182402  1465138552+  83  Linux

Disk /dev/sde: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sde1   *           1      182401  1465136001   83  Linux

Disk /dev/sdf: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdf1   *           1      182401  1465136001   83  Linux

Disk /dev/sdg: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdg1   *           1      182401  1465136001   83  Linux

Disk /dev/sdh: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdh1   *           1      182401  1465136001   83  Linux

Disk /dev/sdi: 1500.3 GB, 1500301910016 bytes
16 heads, 63 sectors/track, 2907021 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdi1   *           1     2907021  1465138552+  83  Linux

Disk /dev/sdj: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdj1   *           1      182402  1465138552+  83  Linux

Disk /dev/sdk: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdk1   *           1      182402  1465138552+  83  Linux

Disk /dev/md0: 0 MB, 0 bytes
2 heads, 4 sectors/track, 0 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn't contain a valid partition table

================================================================================

Итак, я предполагаю, что при установке флеш-накопителя испортилось количество головок на всех других накопителях, кроме накопителя, которому не был назначен первый mdadm -C, потому что его назначение было принято флеш-накопителем.

Итак .... нижняя строка ... теперь повторная синхронизация завершена (diskstats показывает чтение, но не записи на диск), и я не могу смонтировать массив. Я получаю сообщение «VFS: не удается найти файловую систему ext3 на dev md0».

Текущий статус: R-Studio сообщает некоторые данные, testdisk все еще анализирует мой раздел, я прервал работу Raid Reconstructor, потому что он сообщает, что для завершения требуется около 20 дней ...

Есть какие-нибудь подсказки о том, как я могу восстановить свои данные? Мы будем очень признательны за любые предложения, которые вы можете предложить, потому что я начинаю новую работу и не могу позволить себе выглядеть неорганизованным, несмотря на плохой ход событий на прошлой неделе. Спасибо ... J

У меня был аналогичный случай, и я просто использовал команду с точно таким же параметром, который я использовал для создания рейда с параметром --assume-clean, и это сработало для меня

порядок дисков жизненно важен, если буквы дисков (sd [a-l]) перепутались, например мое отключение и повторное подключение в другом порядке, вы можете использовать

mdadm -E /dev/sd[a-l]1

для проверки номера RaidDevice. это сообщает вам порядок, в котором следует указывать диски при вызове mdadm -C ...

Ранее у меня были похожие проблемы с той же настройкой. md RAID кажутся очень надежными. Я несколько раз воссоздавал свой RAID с дисками в неправильном порядке и наблюдал ту же ошибку, что и вы каждый раз. Первоначальный порядок дисков был потерян из-за предыдущей неудачной попытки восстановления.

Но вы можете просто попытаться воссоздать RAID в другом порядке, пока, наконец, не получите все правильно. Хотя с таким количеством дисков поиск правильного порядка может занять много времени.

Одна из самых важных вещей, которую я извлек из этой катастрофы, - это то, что имена дисков (sda, sdb, ...) могут меняться. Как и при замене диска, имена всех остальных дисков тоже изменились. Это привело к большой путанице. Одним из наиболее важных шагов является получение серийных номеров дисков с smartctl и отметьте, какие имена присвоены каким дискам. Это должно помочь избежать путаницы в процессе восстановления.

Мне потребовалось несколько дней, чтобы восстановить мои данные, и я уже почти отказался от получения чего-либо обратно. Но я, наконец, правильно установил порядок драйверов, и RAID смонтировал нормально, и все было в целости. Никогда не отказывайтесь от восстановления MD RAID.