Назад | Перейти на главную страницу

Synology синий светодиод смерти (светодиод мигает)

Моя Synology (10 дисков) внезапно не перезагружается.

Соединив его с последовательным портом, я смог загрузиться на «Synology 1» и «Synology 2».

Synology 1 - это своего рода «раздел восстановления», позволяющий восстанавливать DSM с помощью помощника Synology.

Synology 2 - это вариант загрузки по умолчанию, который загружается на DSM. В моем случае сервер Synology не загружается.

Имею рейд 5 из 10 дисков.

Как его восстановить

Я нашел решение таким образом.

Я удалил ВСЕ диски и отформатировал один из них (вам лучше использовать новый. У меня была резервная копия, поэтому я не сильно рисковал, делая это), используя

  • расстались
  • mklabel gpt
  • записывать
  • уволиться

Я вставил этот единственный диск в последний слот своего сервера Synology. и перезагрузил. В этот момент помощник Synology смог установить новую версию dsm.

После установки dsm я решил не настраивать рейд. ([https://www.synology.com/en-us/knowledgebase/DSM/tutorial/General/How_to_reset_your_Synology_NAS]) перезагрузите синологию.

После перезагрузки я добавил 9 старых дисков и подключился по ssh к своей синологии.

Узнавайте рейдовую информацию на своих дисках

bash-4.3# mdadm --examine /dev/sd[a-z] 
mdadm: No md superblock detected on /dev/sda.
mdadm: No md superblock detected on /dev/sdb.
mdadm: No md superblock detected on /dev/sdc.
mdadm: No md superblock detected on /dev/sdd.
mdadm: No md superblock detected on /dev/sde.
mdadm: No md superblock detected on /dev/sdf.
mdadm: No md superblock detected on /dev/sdg.
mdadm: No md superblock detected on /dev/sdh.
mdadm: No md superblock detected on /dev/sdi.
mdadm: No md superblock detected on /dev/sdj

Это рейд, настроенный DSM, поэтому ничего не нашел на моих дисках

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md1 : active raid1 sdj2[0]
      2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
      2490176 blocks [10/1] [U_________]

Пробуем собрать рейды с опцией сканирования

bash-4.3# mdadm --assemble --scan

Кажется, работает!

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      2490176 blocks [10/9] [UUUUUUUUU_]

md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
      2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
      2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
      2490176 blocks [10/1] [U_________]

unused devices: <none>

Теперь я хотел бы иметь возможность устраивать свои рейды.

Попробую примонтировать рейд md127 так как он кажется самый большой (тот, который содержит мои данные)

bash-4.3# mkdir /volume_restore
bash-4.3# mount /dev/md127 /volume_restore/
mount: unknown filesystem type 'LVM2_member'

Я пытаюсь найти информацию о группе томов

bash-4.3# vgdisplay 
  --- Volume group ---
  VG Name               vg1000
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               32.71 TiB
  PE Size               4.00 MiB
  Total PE              8574353
  Alloc PE / Size       8574353 / 32.71 TiB
  Free  PE / Size       0 / 0   
  VG UUID               Mxjnuy-PmQl-3TBT-zUa2-kBj8-j3AO-PNibo3

Есть группа томов

bash-4.3# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                u1Ik6T-BQDC-ljKt-TocR-brIQ-5g6R-BR0JTv
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              NOT available
  LV Size                32.71 TiB
  Current LE             8574353
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

И логический том

A не может найти vg1000 в / dev / vg1000. Кажется, я неактивен. Итак, я активирую это, делая:

bash-4.3# vgchange -ay
  1 logical volume(s) in volume group "vg1000" now active

Теперь я могу его смонтировать!

mount /dev/vg1000/lv /volume_restore/

@ этот момент сделай резервную копию!

Сейчас мы «объединим рейды»

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      2490176 blocks [10/9] [UUUUUUUUU_]

md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
      2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
      2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
      2490176 blocks [10/1] [U_________]

md125 кажется старым корневым разделом моего бывшего RAID. Попробую распространить md0 на все диски

первая остановка / dev / md125

mdadm --stop /dev/md125

проверьте, что остановлено

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
      2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
      2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
      2490176 blocks [10/1] [U_________]

теперь добавьте в рейд все бывшие разделы ваших дисков

bash-4.3# /sbin/mdadm --add /dev/md0 /dev/sda1 /dev/sdi1 /dev/sdh1 /dev/sdg1 /dev/sdf1 /dev/sdc1 /dev/sdb1
mdadm: added /dev/sda1
mdadm: added /dev/sdi1
mdadm: added /dev/sdh1
mdadm: added /dev/sdg1
mdadm: added /dev/sdf1
mdadm: added /dev/sdc1
mdadm: added /dev/sdb1

проверьте, сработало ли это

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
      2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
      2097088 blocks [10/1] [U_________]

md0 : active raid1 sdb1[10](S) sdc1[11](S) sdf1[12](S) sdg1[13](S) sdh1[14](S) sdi1[15](S) sda1[16] sdj1[0]
      2490176 blocks [10/1] [U_________]
      [>....................]  recovery =  2.4% (60032/2490176) finish=3.3min speed=12006K/sec

Вы можете сделать то же самое для md1

Для рейда данных вам необходимо создать раздел (в моем случае sdj5) на вашем «новом диске».

Я сделал это довольно легко, используя parted on / dev / sda, чтобы узнать свойства раздела

rbash-4.3# parted /dev/sda
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print                                                            
print
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid

Создан тот же раздел, используя parted / dev / sdj

bash-4.3# parted /dev/sdj
mkpart primary 4840MB 4001GB
set 1 raid on
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sdj: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 3      4840MB  4001GB  3996GB                        raid
quit

На этот раз он создал раздел № 3, но я не против.

Мне нужно только добавить этот раздел в свой рейд, сделав:

bash-4.3# /sbin/mdadm --add /dev/md127 /dev/sdj3

Затем вы можете проверить, восстанавливается ли ваш рейд с помощью

bash-4.3# cat /proc/mdstat