У нас есть головка NAS Synology RS3614rpxs, содержащая (9) жестких дисков емкостью 3 ТБ в режиме горячего резерва RAID 6 + 1. Хранилище было исчерпано, и мы добавили шасси расширения, на которое были установлены жесткие драйверы на 5 ТБ, с целью создания второго массива (также RAID 6).
Похоже, что Synology использует стандартный Linux md
формировать RAID-массивы сLVM
сверху для формирования групп томов (состоящих из нижележащих md
устройств), а затем логические тома.
Во время внедрения шасси расширения 3 диска были случайно добавлены к первому массиву (md2
). Проблема в том, что мы теряем полезное пространство на дисках 5 ТБ. Остальные диски, похоже, были добавлены во второй массив (md3
). md3
похоже, был добавлен в существующую группу томов vg1.
Наши цели:
md3
из vg1
и при необходимости измените размер логического тома.md3
и сделать его диски доступными для перепрофилирования. ВОПРОС: Как нам лучше всего достичь этих целей?
Для контекста:
Вывод "df -h"
Filesystem Size Used Available Use% Mounted on
/dev/md0 2.3G 637.9M 1.6G 28% /
/tmp 1.9G 404.0K 1.9G 0% /tmp
/run 1.9G 3.8M 1.9G 0% /run
/dev/shm 1.9G 0 1.9G 0% /dev/shm
/dev/vg1/volume_3 2.4T 1.2T 1.2T 49% /volume3
/dev/vg1/volume_1 5.8T 2.9T 2.9T 49% /volume1
/dev/vg1/volume_2 10.7T 10.2T 443.5G 96% /volume2
Вывод "lvdisplay"
--- Logical volume ---
LV Name /dev/vg1/syno_vg_reserved_area
VG Name vg1
LV UUID agGo1D-0811-miWz-ro0e-Nsvo-YdO9-XRJQY4
LV Write Access read/write
LV Status available
# open 0
LV Size 12.00 MB
Current LE 3
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 253:0
--- Logical volume ---
LV Name /dev/vg1/volume_1
VG Name vg1
LV UUID 3oehZK-Bv5V-T1RL-MWfY-VQnh-tsrr-tXn3v9
LV Write Access read/write
LV Status available
# open 1
LV Size 5.86 TB
Current LE 1536000
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 4096
Block device 253:1
--- Logical volume ---
LV Name /dev/vg1/volume_2
VG Name vg1
LV UUID 3VMQE8-BG0Y-K0jC-Y2Rz-ID09-0dAs-XqTavU
LV Write Access read/write
LV Status available
# open 1
LV Size 10.74 TB
Current LE 2816000
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 4096
Block device 253:2
--- Logical volume ---
LV Name /dev/vg1/volume_3
VG Name vg1
LV UUID mGs4IT-7QM8-PFF2-TD3O-SGzo-QaKp-33DrrW
LV Write Access read/write
LV Status available
# open 1
LV Size 2.47 TB
Current LE 647706
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 4096
Block device 253:3
Вывод "vgdisplay"
--- Volume group ---
VG Name vg1
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 9
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 3
Max PV 0
Cur PV 2
Act PV 2
VG Size 40.88 TB
PE Size 4.00 MB
Total PE 10715889
Alloc PE / Size 4999709 / 19.07 TB
Free PE / Size 5716180 / 21.81 TB
VG UUID 9i82gX-6djB-1KC3-jbZK-nEJ2-9jJh-KvNgJp
Вывод "pvdisplay"
pvdisplay
--- Physical volume ---
PV Name /dev/md2
VG Name vg1
PV Size 27.25 TB / not usable 3.56 MB
Allocatable yes
PE Size (KByte) 4096
Total PE 7142441
Free PE 2142732
Allocated PE 4999709
PV UUID SmZrd0-jC5T-2QwU-Ecnh-PuY0-O9u6-sqDW1E
--- Physical volume ---
PV Name /dev/md3
VG Name vg1
PV Size 13.63 TB / not usable 1.62 MB
Allocatable yes
PE Size (KByte) 4096
Total PE 3573448
Free PE 3573448
Allocated PE 0
PV UUID aQmMu2-gg8j-Be1T-IofO-bOuk-aL0s-ysiR6j
отказ от ответственности: вам следует внимательно прочитать руководство lvm и понять, что делает каждый шаг. однако риск должен быть очень низким, если вы не столкнетесь с ошибками.
Это то, что я обычно делаю в этом случае.
если есть вероятность, что кто-то другой может сделать что-то, чтобы вас испортить, вы хотите заблокировать любой вход в систему во время обслуживания (коснитесь / etc / nologin и т. д. в соответствии с процедурой обслуживания и политикой компании).
pvmove / dev / md3 # убедитесь, что все используемые экстенты удалены
pvs -o + pv_used # убедитесь, что в / dev / md3 не используются экстенты
vgreduce vg1 / dev / md3 # теперь удаляем физический том