Назад | Перейти на главную страницу

Можно ли перезагрузить сервер из / dev / sdb, пока RAID 1 восстанавливает / dev / sda?

У меня есть выделенный сервер с Raid I с /dev/sda и /dev/sdb в котором /dev/sda начал выходить из строя, поэтому я заказал его замену. После вмешательства сервер перешел в режим восстановления, и мне не предоставили никакой информации от службы поддержки, поэтому я пытался восстановить его.

Я понял, что хотя они заменили неисправный жесткий диск, они не удосужились скопировать разделы с /dev/sdb и добавьте новый жесткий диск в mdadm. Итак, сделав это сам, я вижу /proc/mdstat что сейчас идет восстановление.

root@rescue:/mnt/etc# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] 
md2 : active raid1 sda2[0] sdb2[1]
      523200 blocks [2/2] [UU]

md3 : active raid1 sda3[0] sdb3[1]
      20478912 blocks [2/2] [UU]

md4 : active raid1 sdb4[1] sda4[2]
      3884961728 blocks [2/1] [_U]
      [====>................]  recovery = 22.4% (872776320/3884961728) finish=254.3min speed=197355K/sec
      bitmap: 1/29 pages [4KB], 65536KB chunk

unused devices: <none>

Я искал в своих резервных копиях соответствующий корневой раздел на fstab:

# <file system> <mount point> <type>  <options> <dump>  <pass>
/dev/md3  / ext4  errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0  0 1
/dev/md2  /boot ext4  errors=remount-ro 0 1
/dev/md4  /home ext4  defaults,usrquota 1 2
/dev/sda5 swap  swap  defaults  0 0
/dev/sdb5 swap  swap  defaults  0 0
proc    /proc proc  defaults    0 0
sysfs   /sys  sysfs defaults    0 0
/dev/sda1 /boot/efi vfat  defaults  0 0
tmpfs   /dev/shm  tmpfs defaults  0 0
devpts    /dev/pts  devpts  defaults  0 0
/usr/tmpDSK             /tmp                    ext3    defaults,noauto        0 0

И я убедился, что он не поврежден, установив его из режима восстановления.

Затем я попытался использовать netboot, указав / dev / md3 в качестве корневого раздела. Однако, когда я пытаюсь это сделать, сервер немедленно переходит в аварийный режим, объясняя, что есть некоторые проблемы с / dev / sda (я думаю, потому что он все еще перестраивается).

FAT-fs (sda1): bogus number of reserved sectors
FAT-fs (sda1): Can't find a valid FAT filesystem

Я не могу передать запрос на вход, так как мой пароль root кажется нераспознанным, поэтому я действительно не знаю, что показывают результаты journalctl -xb, но я полагаю, что контрольная сумма для этого жесткого диска не складывается.

Вопрос в том, есть ли способ перезапустить сервер с использованием рейда, но с установкой приоритета / dev / sdb во время восстановления RAID? Я знаю, что при каждой перезагрузке процесс восстановления mdadm возвращается к 0%, поэтому теперь я пытаюсь быть полностью уверенным, что если я попробую что-то еще, это сработает.

/dev/sda1 /boot/efi vfat  defaults  0 0

Ваш UEFI ESP не находится на дисковом массиве. Это нужно для загрузки, но на самом деле это не может быть массив.

Восстановить работающую файловую систему. Восстановите его из резервной копии или переустановите. Что на руководство системного администратора является:

yum reinstall grub2-efi shim

(Теоретически вы можете повторно синхронизировать диск efi с mdadm. Проблема в том, что отдельные элементы могут быть обновлены прошивкой EFI вне массива, так что это очень уродливо и взломано.)