РЕДАКТИРОВАТЬ ** У меня есть группа томов, состоящая из 5 устройств RAID1, сгруппированных вместе в lvm и отформатированных с помощью xfs. 5-е устройство RAID потеряло конфигурацию RAID (cat / proc / mdstat ничего не показывает). Два диска все еще присутствуют (sdj и sdk), но у них нет разделов. LVM, похоже, до недавнего времени успешно использовал sdj. (выполнение pvscan показало первые 4 устройства RAID1 + / dev / sdj) Я удалил LVM из fstab, перезагрузился, затем запустил xfs_check на LV. Работало около получаса, потом остановилось с ошибкой.
Я снова попытался перезагрузиться, и на этот раз, когда он появился, логического тома уже не было. Теперь он ищет / dev / md5, которого больше нет (хотя раньше он использовал / dev / sdj). В / dev / sdj были ошибки чтения, но после замены кабеля SATA они исчезли, поэтому на данный момент с диском все в порядке.
Могу ли я изменить / etc / lvm / backup / dedvol, сменить устройство на / dev / sdj и выполнить vgcfgrestore? Я мог бы попробовать сделать pvcreate --uuid KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ / dev / sdj, чтобы заставить его распознать его, но я боюсь, что это сотрет данные на диске
ОБНОВЛЕНИЕ: просто изменение pv для указания на / dev / sdj не сработало
vgcfgrestore --file /etc/lvm/backup/dedvol dedvol Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'. Cannot restore Volume Group dedvol with 1 PVs marked as missing. Restore failed.
pvscan /dev/sdj: read failed after 0 of 4096 at 0: Input/output error Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'. Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'. Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'. Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'. PV /dev/sdd2 VG VolGroup00 lvm2 [74.41 GB / 0 free] PV /dev/md2 VG dedvol lvm2 [931.51 GB / 0 free] PV /dev/md3 VG dedvol lvm2 [931.51 GB / 0 free] PV /dev/md0 VG dedvol lvm2 [931.51 GB / 0 free] PV /dev/md4 VG dedvol lvm2 [931.51 GB / 0 free] PV unknown device VG dedvol lvm2 [1.82 TB / 63.05 GB free] Total: 6 [5.53 TB] / in use: 6 [5.53 TB] / in no VG: 0 [0 ]
vgscan Reading all physical volumes. This may take a while... /dev/sdj: read failed after 0 of 4096 at 0: Input/output error /dev/sdj: read failed after 0 of 4096 at 2000398843904: Input/output error Found volume group "VolGroup00" using metadata type lvm2 Found volume group "dedvol" using metadata type lvm2
vgdisplay dedvol --- Volume group --- VG Name dedvol System ID Format lvm2 Metadata Areas 5 Metadata Sequence No 10 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 5 Act PV 5 VG Size 5.46 TB PE Size 4.00 MB Total PE 1430796 Alloc PE / Size 1414656 / 5.40 TB Free PE / Size 16140 / 63.05 GB VG UUID o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246
dedvol { id = "o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246" seqno = 10 status = ["RESIZEABLE", "READ", "WRITE"] flags = [] extent_size = 8192 # 4 Megabytes max_lv = 0 max_pv = 0 physical_volumes { pv0 { id = "Msiee7-Zovu-VSJ3-Y2hR-uBVd-6PaT-Ho9v95" device = "/dev/md2" # Hint only status = ["ALLOCATABLE"] flags = [] dev_size = 1953519872 # 931.511 Gigabytes pe_start = 384 pe_count = 238466 # 931.508 Gigabytes } pv1 { id = "ZittCN-0x6L-cOsW-v1v4-atVN-fEWF-e3lqUe" device = "/dev/md3" # Hint only status = ["ALLOCATABLE"] flags = [] dev_size = 1953519872 # 931.511 Gigabytes pe_start = 384 pe_count = 238466 # 931.508 Gigabytes } pv2 { id = "NRNo0w-kgGr-dUxA-mWnl-bU5v-Wld0-XeKVLD" device = "/dev/md0" # Hint only status = ["ALLOCATABLE"] flags = [] dev_size = 1953519872 # 931.511 Gigabytes pe_start = 384 pe_count = 238466 # 931.508 Gigabytes } pv3 { id = "2EfLFr-JcRe-MusW-mfAs-WCct-u4iV-W0pmG3" device = "/dev/md4" # Hint only status = ["ALLOCATABLE"] flags = [] dev_size = 1953519872 # 931.511 Gigabytes pe_start = 384 pe_count = 238466 # 931.508 Gigabytes } pv4 { id = "KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ" device = "/dev/md5" # Hint only status = ["ALLOCATABLE"] flags = [] dev_size = 3907028992 # 1.81935 Terabytes pe_start = 384 pe_count = 476932 # 1.81935 Terabytes } }
Ух ты, твоя система в плохом состоянии. При достаточной осторожности и внимании вы, вероятно, могли бы восстановить LV в группе томов из государственных архивов LVM в /etc/lvm/archives
, но будет намного быстрее просто разбить резервные копии (у вас есть резервные копии, верно?) и восстановить систему (на этот раз с более надежной настройкой RAID - если у вас 10 дисков, почему бы просто не один большой RAID-10?).
Чтобы успокоить вас, я сильно сомневаюсь, что если бы вы xfs_check
на LV, что он мог сделать что угодно, чтобы повредить группу томов. Гораздо более вероятно, что это уже было промыто, а вы просто еще не заметили.