Назад | Перейти на главную страницу

Unalloacte пространство на RAID1 через LVM

Я столкнулся с ситуацией, когда я изменил размер vg и pv под raid1, а также сам md0, но gparted по-прежнему блокирует весь диск, я не могу использовать свободное пространство, которое я сделал для создания нового раздела RAID, не знаю почему. Мои текущие настройки следующие:

root@cdp1-ora:~# lsblk              
NAME                    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                       8:0    0 119.2G  0 disk  
|-sda1                    8:1    0     9M  0 part  
`-sda2                    8:2    0 119.2G  0 part  
  `-md0                   9:0    0    31G  0 raid1 
    `-vg.system-lv.root 253:0    0    30G  0 lvm   /
sdb                       8:16   0 119.2G  0 disk  
root@cdp1-ora:~# pvdisplay 
  --- Physical volume ---
  PV Name               /dev/md0
  VG Name               vg.system
  PV Size               30.27 GiB / not usable 3.00 MiB
  Allocatable           yes 
  PE Size               4.00 MiB
  Total PE              7749
  Free PE               69
  Allocated PE          7680
  PV UUID               97qFfS-qcNo-Wp8W-QfWj-Ilqx-e7Jw-uMLXX7

root@cdp1-ora:~# vgdisplay 
  --- Volume group ---
  VG Name               vg.system
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  33
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               30.27 GiB
  PE Size               4.00 MiB
  Total PE              7749
  Alloc PE / Size       7680 / 30.00 GiB
  Free  PE / Size       69 / 276.00 MiB
  VG UUID               TehY47-dnpp-ZjnM-kIWO-UwMG-dXxO-OVeT6N

root@cdp1-ora:~# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/vg.system/lv.root
  LV Name                lv.root
  VG Name                vg.system
  LV UUID                xuvEmB-RPjj-hW3d-oFsn-pdHZ-xT58-QgIfQ2
  LV Write Access        read/write
  LV Creation host, time debian, 2018-08-29 12:11:12 +0200
  LV Status              available
  # open                 1
  LV Size                30.00 GiB
  Current LE             7680
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

root@cdp1-ora:~# 

Я хотел бы использовать оставшиеся 80 ГБ для создания RAID0 с помощью sdb.

Итак, моя проблема заключалась в том, что я разбирал здание до крыши.

После нескольких дней борьбы, о том, как изменить размер живого сервера (это означает, что его нельзя было переустановить с нуля, но перезагрузить без проблем) с LVM под RAID1, я выяснил, возможно, правильный путь - мой случай был очень конкретным, но из-за этого он требовал использование, возможно, всех методов управления дисками.

Используйте live CD

Сначала удалите lv.youwantremove

Затем вы изменяете размер VG. PV. немного меньше ожидаемого размера рейда с измененным размером

Затем используйте fdisk для изменения размера раздела, если он находится в живой / смонтированной системе, перезагрузите

ЗАТЕМ увеличивайте md * до максимального размера вашего нового раздела - таким образом он будет использовать все доступное пространство за вычетом небольшого количества места для заголовков. Сделав это, указав все пространство для себя, в то время как --grow, он просто собирается использовать все пространство для данных и перерастет md0, поскольку заголовки не подходят для md0 - сбой загрузки, raid выглядит поврежденным, сообщая, что он использует больше места, чем доступно - я исправил используя live CD на этом этапе - там я снова использовал рост, который работал, как описано выше.

Теперь вы можете использовать fdisk для создания нового раздела и позже напоминать рейд, как вы хотите, в моем случае это был RAID1 - lv.root + lv.cache, сплит на RAID1 - lv.root, RAID0 - lv.cache. Система по-прежнему работает. Не было возможности переустановить его и сделать все с нуля, избегая всего этого.

Это не исходная проблема, я могу опубликовать это в ответ на предыдущие вопросы, которые у меня были по моей проблеме, так как я медленно продвигался вперед, часто вылетал, задавал еще чаще.