Спасибо за любую помощь.
Моя первоначальная установка представляла собой RAID-карту Areca 1220 с (5) дисками по 2 ТБ в RAID 5 с горячим резервом, что сделало только 4 из них частью массива, что в сумме составляет 6 ТБ. Затем я создал том LVM2 и смонтировал его как / storage (мой корень - это отдельный диск). Я сформировал том LVM2 как EXT4.
Несколько дней назад я подключил еще один диск емкостью 2 ТБ (точно такой же модели), карта нашла его, я смог инициализировать его (на самом деле пришлось установить его на 7999 ГБ по какой-то глупой причине) и смог просто расширить свой том RAID. хорошо.
Я нашел этого парня: http://causton.net/areca.shtml имел почти идентичную настройку, поэтому я попытался следовать его инструкциям, но когда я добрался до pvdisplay
он по-прежнему говорит, что доступен только первоначальный объем свободного места. Вот результат работы pvdisplay:
--- Physical volume ---
PV Name /dev/sdb1
VG Name grp0
PV Size 5.46 TiB / not usable 3.81 MiB
Allocatable yes (but full)`
PE Size 4.00 MiB
Total PE 1430510`
Free PE 0`
Allocated PE 1430510`
PV UUID n3Jzyl-nWUw-lKGC-KiJb-7yUu-3jkI-GOOytf`
Итак, вы можете видеть, что бесплатных PE нет, хотя, насколько я понимаю, должно быть.
Я также нашел других людей, у которых были похожие проблемы на разных форумах, в том числе на этом, но ни один из их советов тоже не помог, и я фактически дошел до точки, когда я больше не мог монтировать том, но смог вернуться к прежнему Я дурачился.
Я попытался перезагрузиться, обновить прошивку RAID, вручную установить размер PE и даже посмотреть, будет ли файловая система увеличиваться автоматически, ничего не сработало. Еще одна забавная вещь, parted
(и gparted
) показывает, что доступно 8 ТБ, но говорит, что не может управлять разделами LVM, поэтому очевидной удачи здесь нет.
Для удобства вот lvdisplay
:
--- Logical volume ---
LV Name /dev/grp0/vol0
VG Name grp0
LV UUID cQ2Eqv-qMDV-xa7D-cMLA-EU1i-3pKg-iJQ9gz
LV Write Access read/write
LV Status available
# open 1
LV Size 5.46 TiB
Current LE 1430510
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 251:0
И vgdisplay
:
--- Volume group ---
VG Name grp0
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 18
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 5.46 TiB
PE Size 4.00 MiB
Total PE 1430510
Alloc PE / Size 1430510 / 5.46 TiB
Free PE / Size 0 / 0
VG UUID zqKhpV-j7fi-IeIU-A4aV-0fDo-YWHF-C5M0il
Также, parted
:
Model: Areca ARC-1220-VOL#00 (scsi)
Disk /dev/sdb: 7999GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 6000GB 6000GB lvm
И еще одна странность, когда я бегу pvscan
Я понимаю и не понимаю почему:
PV /dev/sdb1 VG grp0 lvm2 [5.46 TiB / 0 free]
Total: 1 [1.46 TiB] / in use: 1 [1.46 TiB] / in no VG: 0 [0 ]
Если я могу еще что-нибудь предоставить, пожалуйста, дайте мне знать.
Спасибо
Ваш аппаратный том RAID доступен вашей системе как / dev / sdb. Если бы вы создали физический том LVM непосредственно на sdb, то запуск pvresize на нем занял бы добавленное пространство.
Вместо прямого использования sdb вы создали раздел sdb1 и использовали его. Этот раздел по-прежнему составляет 6000 ГБ. Вам придется удалить раздел и воссоздать его, используя все 7999 ГБ. Инструмент, который я рекомендую для управления таблицами разделов GUID, - gpt fdisk (он же gdisk). Ниже приведены шаги, которые вам необходимо предпринять. Прежде чем делать это, убедитесь, что у вас есть хорошая резервная копия всех ваших данных.
После перезагрузки вы сможете запустить pvresize на / dev / sdb1 и определить дополнительное пространство.
Из-за такой головной боли я научился не разбивать устройства на разделы, когда мне это не нужно.