У меня есть выделенный сервер с Raid I с /dev/sda
и /dev/sdb
в котором /dev/sda
начал выходить из строя, поэтому я заказал его замену. После вмешательства сервер перешел в режим восстановления, и мне не предоставили никакой информации от службы поддержки, поэтому я пытался восстановить его.
Я понял, что хотя они заменили неисправный жесткий диск, они не удосужились скопировать разделы с /dev/sdb
и добавьте новый жесткий диск в mdadm
. Итак, сделав это сам, я вижу /proc/mdstat
что сейчас идет восстановление.
root@rescue:/mnt/etc# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
523200 blocks [2/2] [UU]
md3 : active raid1 sda3[0] sdb3[1]
20478912 blocks [2/2] [UU]
md4 : active raid1 sdb4[1] sda4[2]
3884961728 blocks [2/1] [_U]
[====>................] recovery = 22.4% (872776320/3884961728) finish=254.3min speed=197355K/sec
bitmap: 1/29 pages [4KB], 65536KB chunk
unused devices: <none>
Я искал в своих резервных копиях соответствующий корневой раздел на fstab:
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md3 / ext4 errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0 0 1
/dev/md2 /boot ext4 errors=remount-ro 0 1
/dev/md4 /home ext4 defaults,usrquota 1 2
/dev/sda5 swap swap defaults 0 0
/dev/sdb5 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
/dev/sda1 /boot/efi vfat defaults 0 0
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts defaults 0 0
/usr/tmpDSK /tmp ext3 defaults,noauto 0 0
И я убедился, что он не поврежден, установив его из режима восстановления.
Затем я попытался использовать netboot, указав / dev / md3 в качестве корневого раздела. Однако, когда я пытаюсь это сделать, сервер немедленно переходит в аварийный режим, объясняя, что есть некоторые проблемы с / dev / sda (я думаю, потому что он все еще перестраивается).
FAT-fs (sda1): bogus number of reserved sectors
FAT-fs (sda1): Can't find a valid FAT filesystem
Я не могу передать запрос на вход, так как мой пароль root кажется нераспознанным, поэтому я действительно не знаю, что показывают результаты journalctl -xb, но я полагаю, что контрольная сумма для этого жесткого диска не складывается.
Вопрос в том, есть ли способ перезапустить сервер с использованием рейда, но с установкой приоритета / dev / sdb во время восстановления RAID? Я знаю, что при каждой перезагрузке процесс восстановления mdadm возвращается к 0%, поэтому теперь я пытаюсь быть полностью уверенным, что если я попробую что-то еще, это сработает.
/dev/sda1 /boot/efi vfat defaults 0 0
Ваш UEFI ESP не находится на дисковом массиве. Это нужно для загрузки, но на самом деле это не может быть массив.
Восстановить работающую файловую систему. Восстановите его из резервной копии или переустановите. Что на руководство системного администратора является:
yum reinstall grub2-efi shim
(Теоретически вы можете повторно синхронизировать диск efi с mdadm. Проблема в том, что отдельные элементы могут быть обновлены прошивкой EFI вне массива, так что это очень уродливо и взломано.)