сегодня у меня были проблемы с доступом к SMB-ресурсу на моей Linkstation. В моем NAS есть два жестких диска, настроенных как raid0. этот рейд был установлен в / mnt / array1 / intern - папку, которую мне не хватает.
Моя первая проблема, я действительно не знаю, где искать сообщения об ошибках.
Начнем с / var / log / messages, в нем говорится:
/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.
Хорошо. Я погуглил это сообщение и попробовал следующее:
cat /proc/mdstat
md2 : inactive sda6[1](S)
1938311476 blocks super 1.2
md1 : active raid1 sda2[1]
4999156 blocks super 1.2 [2/1] [_U]
md10 : active raid1 sda5[1]
1000436 blocks super 1.2 [2/1] [_U]
md0 : active raid1 sda1[1]
1000384 blocks [2/1] [_U]
unused devices: <none>
Хорошо ... из df -h я знаю, что md0 - это мой загрузочный раздел, а md1 - корневой раздел. Я предполагаю, что md2 - это мой пропавший рейд, но для чего нужен raid10? Однако я попытался обновить конфигурацию mdadm и собрать рейды с помощью:
mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v
Это приводит к паре сообщений об ошибках, например:
cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0
для sda, sda1, sda2, md / 1, md / 2 и далее. Это около 50 строк, я не хочу их все публиковать. Что я не понимаю, так это «неправильный uuid» - разве я недавно не добавил текущие UUID в mdadm.conf?
Вернувшись к моему / var / log / messages, я нашел сценарий. Я попытался запустить их вручную, надеясь получить еще несколько сообщений об ошибках:
/etc/init.d/start_data_array.sh
Он дает мне целую кучу сообщений, самые важные из них - ИМХО:
mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument
Итак, моя проблема, насколько я знаю, что-то не так с моим raid0-массивом с именем md2.
Главный вопрос: что не так? Как активировать / dev / md2? (mdadm --detail / dev / md2 дает "устройство неактивно?) Придется ли мне вручную заново создавать массив? Потеряю ли я свои данные?"
Ошибка, заключающаяся в том, что это устройство неактивно, кажется мне родовой, при поиске я нахожу много сообщений и советов, которые на самом деле не связаны с моей проблемой.
Любая помощь приветствуется, большое спасибо!
// ОБНОВИТЬ
Становится странно - для меня. Вот что говорит fdisk -l для / sda и / sda6:
root@OoompaLoompa:~# fdisk -l /dev/sda
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 243202 1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sda6 doesn't contain a valid partition table
/ sda6 не имеет таблицы разделов, потому что я думаю, это часть моего массива. В / sda есть таблица разделов, но нет суперблока:
mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda
Но это один из жестких дисков 2 ГБ. Я действительно запуталась. Это результат --examine для обоих этих устройств:
/dev/sda1:
mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
Name : UNINSPECT-EMC36:2
Creation Time : Thu Oct 18 01:43:39 2012
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c
Update Time : Thu Oct 18 01:43:39 2012
Checksum : 5d34dcac - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing)
Я все еще немного сбит с толку. / sda должен быть загрузочным разделом? Думаю, решение состоит в том, чтобы как-то воссоздать суперблок, а затем заново собрать / md2.
Тем не менее, любая помощь приветствуется :)
У вас есть два диска, объединенных в полосу raid0. Один диск / dev / sda и раздел raid / dev / sda6 выглядит нормально. Что случилось со вторым диском? Я подозреваю, что второй диск поврежден. Появляется, если вы запустите ... fdisk -l