Я столкнулся с ситуацией, когда я изменил размер vg и pv под raid1, а также сам md0, но gparted по-прежнему блокирует весь диск, я не могу использовать свободное пространство, которое я сделал для создания нового раздела RAID, не знаю почему. Мои текущие настройки следующие:
root@cdp1-ora:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 119.2G 0 disk
|-sda1 8:1 0 9M 0 part
`-sda2 8:2 0 119.2G 0 part
`-md0 9:0 0 31G 0 raid1
`-vg.system-lv.root 253:0 0 30G 0 lvm /
sdb 8:16 0 119.2G 0 disk
root@cdp1-ora:~# pvdisplay
--- Physical volume ---
PV Name /dev/md0
VG Name vg.system
PV Size 30.27 GiB / not usable 3.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 7749
Free PE 69
Allocated PE 7680
PV UUID 97qFfS-qcNo-Wp8W-QfWj-Ilqx-e7Jw-uMLXX7
root@cdp1-ora:~# vgdisplay
--- Volume group ---
VG Name vg.system
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 33
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 30.27 GiB
PE Size 4.00 MiB
Total PE 7749
Alloc PE / Size 7680 / 30.00 GiB
Free PE / Size 69 / 276.00 MiB
VG UUID TehY47-dnpp-ZjnM-kIWO-UwMG-dXxO-OVeT6N
root@cdp1-ora:~# lvdisplay
--- Logical volume ---
LV Path /dev/vg.system/lv.root
LV Name lv.root
VG Name vg.system
LV UUID xuvEmB-RPjj-hW3d-oFsn-pdHZ-xT58-QgIfQ2
LV Write Access read/write
LV Creation host, time debian, 2018-08-29 12:11:12 +0200
LV Status available
# open 1
LV Size 30.00 GiB
Current LE 7680
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
root@cdp1-ora:~#
Я хотел бы использовать оставшиеся 80 ГБ для создания RAID0 с помощью sdb.
Итак, моя проблема заключалась в том, что я разбирал здание до крыши.
После нескольких дней борьбы, о том, как изменить размер живого сервера (это означает, что его нельзя было переустановить с нуля, но перезагрузить без проблем) с LVM под RAID1, я выяснил, возможно, правильный путь - мой случай был очень конкретным, но из-за этого он требовал использование, возможно, всех методов управления дисками.
Используйте live CD
Сначала удалите lv.youwantremove
Затем вы изменяете размер VG. PV. немного меньше ожидаемого размера рейда с измененным размером
Затем используйте fdisk для изменения размера раздела, если он находится в живой / смонтированной системе, перезагрузите
ЗАТЕМ увеличивайте md * до максимального размера вашего нового раздела - таким образом он будет использовать все доступное пространство за вычетом небольшого количества места для заголовков. Сделав это, указав все пространство для себя, в то время как --grow, он просто собирается использовать все пространство для данных и перерастет md0, поскольку заголовки не подходят для md0 - сбой загрузки, raid выглядит поврежденным, сообщая, что он использует больше места, чем доступно - я исправил используя live CD на этом этапе - там я снова использовал рост, который работал, как описано выше.
Теперь вы можете использовать fdisk для создания нового раздела и позже напоминать рейд, как вы хотите, в моем случае это был RAID1 - lv.root + lv.cache, сплит на RAID1 - lv.root, RAID0 - lv.cache. Система по-прежнему работает. Не было возможности переустановить его и сделать все с нуля, избегая всего этого.
Это не исходная проблема, я могу опубликовать это в ответ на предыдущие вопросы, которые у меня были по моей проблеме, так как я медленно продвигался вперед, часто вылетал, задавал еще чаще.