Назад | Перейти на главную страницу

Нужна помощь с восстановлением RAID-массива

Короче говоря, я отвечаю за медиа-сервер с двумя RAID-массивами (/ dev / md0 и / dev / md2). У меня еще есть тонна, чтобы узнать о программном RAID, LVM и т. Д. У нас был сбой диска в / dev / md0, хорошо, не беда, я заменил плохой диск, собрал массив RAID (на завершение этого ушла большая часть прошлой ночи. ), и сегодня утром я пришел и смог смонтировать / dev / md0 без потери данных.

Я мало что знал, что-то стало поврежденным с / dev / md2. Теперь / dev / md0 был настроен моим коллегой два года назад, я настроил / dev / md2 около шести месяцев назад. Всегда выполняя RAID с использованием аппаратных контроллеров, встроенных в серверы Dell и HP, я впервые столкнулся с программным RAID. Я выполнил инструкции на [url]http://www.gagme.com/greg/linux/raid-lvm.php[/url] что, по моему мнению, было лучшей идеей, поскольку LVM даст мне возможность наращивать массив RAID в будущем (я только сейчас узнал, что mdadm может делать то же самое). До сегодняшнего дня с этим не было проблем. После перезагрузки компьютера после ремонта / dev / md0 он не смог смонтировать / dev / lmv-raid / lvm0 (сказал, что файл или каталог не могут быть найдены). Похоже, что логического тома больше нет. Я не понимаю, чем это могло быть вызвано. Во втором массиве не было никаких дисководов, второй массив не трогал. Ничего не должно было случиться с массивом. Но похоже что-то не так.

Теперь / dev / md2 запущен и находится в чистом состоянии, но я не могу его смонтировать. Боюсь, что данные пропали. На самом деле ужасно то, что в моей голове нет объяснения тому, что произошло. Я предполагаю, что я не могу смонтировать / dev / md2, потому что ожидается, что массив RAID будет контролироваться LVM. Возможно, я недостаточно хорошо понимаю систему, но если у меня есть чистый массив, разве данные не должны оставаться в массиве? Есть идеи, как я могу восстановить данные? Последнее, что я хочу сделать, это вернуться к моему боссу и сказать ему, что в процессе исправления одного массива другой массив волшебным образом сломался, и все ваши данные исчезли. Я просмотрел несколько сайтов, но, поскольку я не знаю, что на самом деле сломалось со всем этим, я не знаю, действительно ли я потерял данные или есть что-то еще, чего мне не хватает.

Буду очень признателен за любой совет, я боролся с этим все утро и нахожусь в полной растерянности.

Вот еще немного информации:

 [root@viamao ~]# mdadm --detail /dev/md2
 /dev/md2:
 Version : 00.90.01
 Creation Time : Tue Jun  9 11:32:06 2009
 Raid Level : raid5
 Array Size : 4395415488 (4191.79 GiB 4500.91 GB)
 Device Size : 1465138496 (1397.26 GiB 1500.30 GB)
 Raid Devices : 4
 Total Devices : 4
 Preferred Minor : 2
 Persistence : Superblock is persistent

Update Time : Tue Jun  9 15:54:39 2009
      State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

     Layout : left-symmetric
 Chunk Size : 64K

Number   Major   Minor   RaidDevice State
   0       8      128        0      active sync   /dev/sdi
   1       8      144        1      active sync   /dev/sdj
   2       8      160        2      active sync   /dev/sdk
   3       8      176        3      active sync   /dev/sdl
       UUID : 88bbe155:b6d852b1:3ad8a77d:5eba3ee2
     Events : 0.36


  [root@viamao archive2]# mount -t ext3 /dev/md2 /share/archive2
  mount: wrong fs type, bad option, bad superblock on /dev/md2,
  or too many mounted file systems


 [root@viamao archive2]# mount
 /dev/hda3 on / type ext3 (rw)
 none on /proc type proc (rw)
 none on /sys type sysfs (rw)
 none on /dev/pts type devpts (rw,gid=5,mode=620)
 usbfs on /proc/bus/usb type usbfs (rw)
 /dev/hda1 on /boot type ext3 (rw)
 none on /dev/shm type tmpfs (rw)
 none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 /dev/md0 on /share/archive1 type ext3 (rw)


  [root@viamao share]# cat /proc/mdstat
  Personalities : [raid5] 
  md2 : active raid5 sdl[3] sdk[2] sdj[1] sdi[0]
  4395415488 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

  md0 : active raid5 sda[0] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1]
  5128021248 blocks level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]

  unused devices: <none>

Я могу показать вам что-нибудь еще, что могло бы помочь? У меня есть активный RAID-массив, который я не могу смонтировать, думая, что это как-то связано с тем, что раньше он был на lvm, но теперь, когда я пытаюсь смонтировать / dev / lvm-raid / lvm0, он сообщает мне особый устройство не найдено. lvdisplay мне ничего не дает. pvdisplay показывает мне только диск, на котором установлена ​​моя ОС. vgdisplay также ничего не дает.

Мысли? Я серьезно растерялся здесь.

Уровни файловой системы в Linux (начиная в обратном порядке, от физического диска к файловой системе):

  1. физическое устройство
    • / dev / sdi
    • / dev / sdj
    • / dev / sdk
    • / dev / sdl
  2. специальный тип раздела md на каждом диске (если используется)

    • это может присутствовать, а может и не присутствовать. Хотя рекомендуется просто создавать отдельные разделы на каждом диске, охватывающие весь размер диска, на котором он находится, можно указать весь диск, напрямую используя имя устройства. Обратите внимание, что это может привести к тому, что некоторые инструменты разделения могут запутаться в том, с чем они имеют дело (потому что таблица разделов просто «уходит»), поэтому я не рекомендую это делать.

    В вашем случае указаны все диски, поэтому нет разделов для просмотра. Вам не придется об этом беспокоиться.

  3. драйвер md (если используется)

    • / dev / md2

    Ваш результат как из детализации, так и /proc сообщить, что массив включен на всех дисках и ни один из дисков не находится в неисправном состоянии. Это означает, что массив исправен!

  4. LVM (при использовании)

    • Введите следующее в оболочку, войдя в систему как root:

    pvscan && vgscan && lvscan

    Если есть какие-то тома, они должны быть здесь. Обратите внимание, что процесс сканирования тома управляется файлом, который может выбирать определенные устройства, которые игнорируются при выполнении сканирования. Убедитесь, что вы явно просматриваете / dev / md2. В каждый том LVM отпечатан GUID; если он потерян или поврежден, это может вызвать некоторые из наблюдаемых вами проблем. Цель здесь - распознать ваши тома LVM. Когда они станут здоровыми, вы будете в хорошей форме.

  5. файловая система

    Я думаю, вы знаете, что здесь происходит.

Отсюда вы сможете восстановить свою файловую систему (ы).

обычно LVM выполняется «поверх» MD. может быть, вы настраиваете LVM с помощью командной строки, а не с помощью инструментов вашего дистрибутива? если да, возможно, сценарии запуска не знают о LVM.

сначала выполните "vgscan" и посмотрите, появится ли он. если так, то проблема заключается в том, чтобы распутать сценарии.

Вам может быть сложно получить ответ «сделай это, чтобы исправить это» по этому поводу в основном потому, что любой хороший системный администратор является сверхпараноидальным в отношении потери данных, включая руководство кем-либо в ситуации, которая может привести к потере данных.

Из того, что вы предоставили, я резюмирую то, что я вижу, и, возможно, с чего вы можете начать.

  • / dev / md2 - это устройство RAID 5 с (4) дисками по 1,5 ТБ
  • Модуль raid использует весь базовый диск - на нем нет разделов
  • Ваше устройство / dev / md2 теперь сообщает о нормальном / счастливом состоянии

Начните с публикации результатов: pvdisplay и vgscan

У вас есть файл "lvm-raid", расположенный в / etc / lvm / backup /?

Первое, что я сделал бы в такой ситуации, если это вообще возможно: сделал бы точную копию обоих дисков, образующих / dev / md2 (с помощью dd или чего-то подобного). Это может занять много времени, но если вы еще больше запутаетесь, пытаясь это исправить, вы можете вернуться к тому, с чего начали.

Вы можете попробовать следующее

pvdisplay / dev / md2

и предоставить результаты. Это явным образом укажет pvdisplay на попытку прочитать устройство md2 для получения информации LVM.