Короче говоря, я отвечаю за медиа-сервер с двумя RAID-массивами (/ dev / md0 и / dev / md2). У меня еще есть тонна, чтобы узнать о программном RAID, LVM и т. Д. У нас был сбой диска в / dev / md0, хорошо, не беда, я заменил плохой диск, собрал массив RAID (на завершение этого ушла большая часть прошлой ночи. ), и сегодня утром я пришел и смог смонтировать / dev / md0 без потери данных.
Я мало что знал, что-то стало поврежденным с / dev / md2. Теперь / dev / md0 был настроен моим коллегой два года назад, я настроил / dev / md2 около шести месяцев назад. Всегда выполняя RAID с использованием аппаратных контроллеров, встроенных в серверы Dell и HP, я впервые столкнулся с программным RAID. Я выполнил инструкции на [url]http://www.gagme.com/greg/linux/raid-lvm.php[/url] что, по моему мнению, было лучшей идеей, поскольку LVM даст мне возможность наращивать массив RAID в будущем (я только сейчас узнал, что mdadm может делать то же самое). До сегодняшнего дня с этим не было проблем. После перезагрузки компьютера после ремонта / dev / md0 он не смог смонтировать / dev / lmv-raid / lvm0 (сказал, что файл или каталог не могут быть найдены). Похоже, что логического тома больше нет. Я не понимаю, чем это могло быть вызвано. Во втором массиве не было никаких дисководов, второй массив не трогал. Ничего не должно было случиться с массивом. Но похоже что-то не так.
Теперь / dev / md2 запущен и находится в чистом состоянии, но я не могу его смонтировать. Боюсь, что данные пропали. На самом деле ужасно то, что в моей голове нет объяснения тому, что произошло. Я предполагаю, что я не могу смонтировать / dev / md2, потому что ожидается, что массив RAID будет контролироваться LVM. Возможно, я недостаточно хорошо понимаю систему, но если у меня есть чистый массив, разве данные не должны оставаться в массиве? Есть идеи, как я могу восстановить данные? Последнее, что я хочу сделать, это вернуться к моему боссу и сказать ему, что в процессе исправления одного массива другой массив волшебным образом сломался, и все ваши данные исчезли. Я просмотрел несколько сайтов, но, поскольку я не знаю, что на самом деле сломалось со всем этим, я не знаю, действительно ли я потерял данные или есть что-то еще, чего мне не хватает.
Буду очень признателен за любой совет, я боролся с этим все утро и нахожусь в полной растерянности.
Вот еще немного информации:
[root@viamao ~]# mdadm --detail /dev/md2
/dev/md2:
Version : 00.90.01
Creation Time : Tue Jun 9 11:32:06 2009
Raid Level : raid5
Array Size : 4395415488 (4191.79 GiB 4500.91 GB)
Device Size : 1465138496 (1397.26 GiB 1500.30 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Tue Jun 9 15:54:39 2009
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
0 8 128 0 active sync /dev/sdi
1 8 144 1 active sync /dev/sdj
2 8 160 2 active sync /dev/sdk
3 8 176 3 active sync /dev/sdl
UUID : 88bbe155:b6d852b1:3ad8a77d:5eba3ee2
Events : 0.36
[root@viamao archive2]# mount -t ext3 /dev/md2 /share/archive2
mount: wrong fs type, bad option, bad superblock on /dev/md2,
or too many mounted file systems
[root@viamao archive2]# mount
/dev/hda3 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
usbfs on /proc/bus/usb type usbfs (rw)
/dev/hda1 on /boot type ext3 (rw)
none on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
/dev/md0 on /share/archive1 type ext3 (rw)
[root@viamao share]# cat /proc/mdstat
Personalities : [raid5]
md2 : active raid5 sdl[3] sdk[2] sdj[1] sdi[0]
4395415488 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
md0 : active raid5 sda[0] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1]
5128021248 blocks level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]
unused devices: <none>
Я могу показать вам что-нибудь еще, что могло бы помочь? У меня есть активный RAID-массив, который я не могу смонтировать, думая, что это как-то связано с тем, что раньше он был на lvm, но теперь, когда я пытаюсь смонтировать / dev / lvm-raid / lvm0, он сообщает мне особый устройство не найдено. lvdisplay мне ничего не дает. pvdisplay показывает мне только диск, на котором установлена моя ОС. vgdisplay также ничего не дает.
Мысли? Я серьезно растерялся здесь.
Уровни файловой системы в Linux (начиная в обратном порядке, от физического диска к файловой системе):
специальный тип раздела md на каждом диске (если используется)
В вашем случае указаны все диски, поэтому нет разделов для просмотра. Вам не придется об этом беспокоиться.
драйвер md (если используется)
Ваш результат как из детализации, так и /proc
сообщить, что массив включен на всех дисках и ни один из дисков не находится в неисправном состоянии. Это означает, что массив исправен!
LVM (при использовании)
pvscan && vgscan && lvscan
Если есть какие-то тома, они должны быть здесь. Обратите внимание, что процесс сканирования тома управляется файлом, который может выбирать определенные устройства, которые игнорируются при выполнении сканирования. Убедитесь, что вы явно просматриваете / dev / md2. В каждый том LVM отпечатан GUID; если он потерян или поврежден, это может вызвать некоторые из наблюдаемых вами проблем. Цель здесь - распознать ваши тома LVM. Когда они станут здоровыми, вы будете в хорошей форме.
файловая система
Я думаю, вы знаете, что здесь происходит.
Отсюда вы сможете восстановить свою файловую систему (ы).
обычно LVM выполняется «поверх» MD. может быть, вы настраиваете LVM с помощью командной строки, а не с помощью инструментов вашего дистрибутива? если да, возможно, сценарии запуска не знают о LVM.
сначала выполните "vgscan" и посмотрите, появится ли он. если так, то проблема заключается в том, чтобы распутать сценарии.
Вам может быть сложно получить ответ «сделай это, чтобы исправить это» по этому поводу в основном потому, что любой хороший системный администратор является сверхпараноидальным в отношении потери данных, включая руководство кем-либо в ситуации, которая может привести к потере данных.
Из того, что вы предоставили, я резюмирую то, что я вижу, и, возможно, с чего вы можете начать.
Начните с публикации результатов: pvdisplay
и vgscan
У вас есть файл "lvm-raid", расположенный в / etc / lvm / backup /?
Первое, что я сделал бы в такой ситуации, если это вообще возможно: сделал бы точную копию обоих дисков, образующих / dev / md2 (с помощью dd или чего-то подобного). Это может занять много времени, но если вы еще больше запутаетесь, пытаясь это исправить, вы можете вернуться к тому, с чего начали.
Вы можете попробовать следующее
pvdisplay / dev / md2
и предоставить результаты. Это явным образом укажет pvdisplay на попытку прочитать устройство md2 для получения информации LVM.