Я только что купил новый диск. Как расширить существующий массив RAID без потери данных?
Если вы сделаете ошибку, вы можете потерять все свои данные. Сначала сделайте резервную копию. Тогда продолжай.
Использовать storcli /c0 show
чтобы узнать, какие у вас диски и тома. В TOPOLOGY
таблица - хорошее начало:
TOPOLOGY :
========
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
----------------------------------------------------------------------------
0 - - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 0 252:0 10 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 1 252:1 9 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 2 252:2 11 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 3 252:3 8 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 4 252:4 12 DRIVE Onln N 2.728 TB dflt N N none - N
----------------------------------------------------------------------------
Это показывает, какие диски уже находятся в массиве RAID. У меня только один RAID-массив (Arr
) с идентификатором 0
.
PD LIST
показывает вам диски:
PD LIST :
=======
--------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
--------------------------------------------------------------------------------
252:0 10 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:1 9 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:2 11 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:3 8 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:4 12 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:6 14 GHS - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
252:7 13 UGood - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
--------------------------------------------------------------------------------
Новый добавленный диск должен отображаться как UGood
(ненастроенное хорошее). В примере это диск 13
в слоте 7
ограждения 252
.
Чтобы добавить диск в массив RAID:
storcli /c0/v0 start migrate type=raid5 option=add drives=252:13
/c0
это контроллер, /v0
это том RAID (см. TOPOLOGY
выше или VD LIST
) изменить, start migrate
это команда для выдачи, type=raid5
означает "сохранить RAID5", мы хотим добавить диск (option=add
) и drives
список дисков для добавления в форму EID:Slt
(видеть PD LIST
).
Процесс может занять несколько дней. Вы можете продолжать использовать файловые системы на томе RAID, пока контроллер выполняет свою работу в фоновом режиме. Вы даже можете перезагрузить сервер, контроллер просто продолжит работу с того места, где он был.
Чтобы проверить прогресс, используйте storcli /c0/v0 show migrate
который напечатает что-то вроде:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate 38 In Progress 49 Minutes
-----------------------------------------------------------
Примечание: оценка далека от истины; в моем случае эти 49 минут составили 3 часа. Мне кажется, что первая оценка 2 дня 8 часов была более точной.
По завершении миграции контроллер выполнит еще одно фоновое задание («фоновая инициализация»). Не уверен, что это такое.
Когда это будет сделано, он напечатает:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate - Not in progress -
-----------------------------------------------------------
Использовать storcli /c0 show
чтобы увидеть новый размер вашего тома RAID:
VD LIST :
=======
--------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
--------------------------------------------------------------
0/0 RAID5 Optl RW Yes RWBD - OFF 10.914 TB data
--------------------------------------------------------------
^^^^^^
Я использую LVM для управления диском. pvscan
показывает, что размер диска не изменился:
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
^^^^^^^^
Пора перезагрузиться (по крайней мере, я не смог найти способ заставить Linux повторно сканировать диск).
По крайней мере, lsblk
теперь показывает правильный размер диска:
sdb 8:16 0 10,9T 0 disk
^^^^^
LVM по-прежнему не видит этого (pvscan
):
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
pvdisplay
дает более подробную информацию:
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 8,19 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2145791
Free PE 134655
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Мы можем протестировать следующую операцию перед ее выполнением: pvresize --test -v /dev/sdb
TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
Using physical volume(s) on command line.
Test mode: Skipping archiving of volume group.
Resizing volume "/dev/sdb" to 23437770752 sectors.
Resizing physical volume /dev/sdb from 0 to 2861055 extents.
Updating physical volume "/dev/sdb"
Test mode: Skipping backup of volume group.
Physical volume "/dev/sdb" changed
1 physical volume(s) resized / 0 physical volume(s) not resized
Test mode: Wiping internal cache
Wiping internal VG cache
2861055
расширяет 4 MiB
переводится на 10.91 TiB
(2861055 * 4096/1024/1024/1024).
Измените размер логического тома: pvresize -v /dev/sdb
Наконец, LVM видит новую емкость:
# pvdisplay
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 10,91 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2861055
Free PE 849919
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Теперь вы можете продолжить расширение файловых систем в группе томов.