Хорошо, разместите здесь сообщение в надежде, что кто-то может помочь.
Итак, я установил массив RAID6 4x1,5 ТБ. Построен и все такое. Работало нормально. Я скопировал еще два диска с данными, а затем добавил эти два диска в массив. Была пара иканий, но в остальном все работало нормально и длилось вечно.
Сегодня я скопировал данные с последнего накопителя и выполнил те же шаги, чтобы преобразовать их в массив, а затем, конечно, выполнил команду «смотреть и т. Д.», Чтобы постоянно следить за изменением формы, потому что почему бы и нет.
.... и все шло нормально, до 10-11%, и я заметил, что ... больше не обновлялось.
Это произошло прямо сейчас, когда я смотрел что-то из файловой системы массива по сети ... затем оно внезапно заблокировалось.
Я подумал, что, может быть, что-то пошло не так с командой часов, поэтому я убил ее и просто сделал cat /proc/mdstat
из командной строки.
и ничего не получил. Нет вывода или чего-то еще, курсор спускается на строку, но больше ничего не происходит.
Если я попробую mdadm --detail /dev/md0
, то же самое. Ничего не произошло.
если я пытаюсь использовать ls внутри смонтированного каталога для массива, я получаю корневой листинг, но когда я пытаюсь копнуть глубже в папки, ls делает то же самое, что и первые две команды, и блокируется, за исключением того, что я даже не могу ctrl-c из него.
Я думаю, что причиной проблемы является то, что я показываю как 7 процессов smbd со статусом D, которые должны быть оставлены с того момента, когда я смотрел видеофайл, и он заблокирован ... конечно, я не могу их убить, система не будет разрешите.
Я, конечно, сейчас невероятно параноик, что что-то ПОЛНОСТЬЮ стало грушевидным, и я потеряю все. Я не хочу перезагружаться, потому что понятия не имею, сломает ли это что-нибудь.
редактировать: хорошо .. итак:
Я перезагрузился (на самом деле мне пришлось выключить машину. Она не умерла).
Я нашел это: http://www.linuxquestions.org/questions/linux-server-73/raid-5-mdadm-grow-interrupted-what-to-do-next-602671/
который я пробовал, но безуспешно. я получил
mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted
когда я выполняю mdadm -E на любом из дисков, я получаю:
/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID :
3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009
Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array
Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7
Preferred Minor : 0
Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7)
Update Time : Tue Dec 1 20:48:48 2009
State : active
Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943
Chunk Size : 64K
Number Major Minor RaidDevice State
this 5 8 17 5 active sync /dev/sdb1
0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed
Этот "неисправный удаленный" - это / dev / sdc1, это был диск, который я только что добавил и на который пытался увеличить массив.
Затем я попробовал то, что нашел здесь: http://ubuntuforums.org/showpost.php?p=2526794&postcount=2
sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing
это возвращает:
mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.
cat /proc/mdstat
дает:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]
и
sudo lvdisplay raid
дает:
--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0
Ура! все замечательно! НЕ.
sudo mount /dev/raid/raid /blah
дает мне:
mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so
ох, если бы у меня были волосы, я бы их выдергивал. Помогите. Я бы просто предположил, что не нужно повторно загружать 6 ТБ материала: P
Шаг первый: ничего не делайте. Шаг второй: Отправьте электронное письмо в список рассылки linux-raid.
Если реорганизация пошла по-настоящему грушевидной, NeilB (разработчик программного обеспечения RAID) постарается помочь, насколько это возможно.
В какой файловой системе он был отформатирован? Вы пробовали использовать fsck -Vr на устройстве, чтобы узнать, что там написано?
Если бы это было не 6 ТБ, я бы предложил создать резервную копию с помощью dd и gzip, но я сомневаюсь, что у вас есть для этого внешнее хранилище.
Удачи.