Назад | Перейти на главную страницу

Как расширить массив RAID5 с помощью storcli?

Я только что купил новый диск. Как расширить существующий массив RAID без потери данных?

Если вы сделаете ошибку, вы можете потерять все свои данные. Сначала сделайте резервную копию. Тогда продолжай.

Использовать storcli /c0 show чтобы узнать, какие у вас диски и тома. В TOPOLOGY таблица - хорошее начало:

TOPOLOGY :
========

----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT      Size PDC  PI SED DS3  FSpace TR 
----------------------------------------------------------------------------
 0 -   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   0   252:0    10  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   1   252:1    9   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   2   252:2    11  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   3   252:3    8   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   4   252:4    12  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
----------------------------------------------------------------------------

Это показывает, какие диски уже находятся в массиве RAID. У меня только один RAID-массив (Arr) с идентификатором 0.

PD LIST показывает вам диски:

PD LIST :
=======

--------------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model                Sp Type 
--------------------------------------------------------------------------------
252:0    10 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:1     9 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:2    11 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:3     8 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:4    12 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:6    14 GHS    - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
252:7    13 UGood  - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
--------------------------------------------------------------------------------

Новый добавленный диск должен отображаться как UGood (ненастроенное хорошее). В примере это диск 13 в слоте 7 ограждения 252.

Чтобы добавить диск в массив RAID:

storcli /c0/v0 start migrate type=raid5 option=add drives=252:13

/c0 это контроллер, /v0 это том RAID (см. TOPOLOGY выше или VD LIST) изменить, start migrate это команда для выдачи, type=raid5 означает "сохранить RAID5", мы хотим добавить диск (option=add) и drives список дисков для добавления в форму EID:Slt (видеть PD LIST).

Процесс может занять несколько дней. Вы можете продолжать использовать файловые системы на томе RAID, пока контроллер выполняет свою работу в фоновом режиме. Вы даже можете перезагрузить сервер, контроллер просто продолжит работу с того места, где он был.

Чтобы проверить прогресс, используйте storcli /c0/v0 show migrate который напечатает что-то вроде:

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate          38 In Progress     49 Minutes                   
-----------------------------------------------------------

Примечание: оценка далека от истины; в моем случае эти 49 минут составили 3 часа. Мне кажется, что первая оценка 2 дня 8 часов была более точной.

По завершении миграции контроллер выполнит еще одно фоновое задание («фоновая инициализация»). Не уверен, что это такое.

Когда это будет сделано, он напечатает:

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate   -         Not in progress -                   
-----------------------------------------------------------

Использовать storcli /c0 show чтобы увидеть новый размер вашего тома RAID:

VD LIST :
=======

--------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC      Size Name 
--------------------------------------------------------------
0/0   RAID5 Optl  RW     Yes     RWBD  -   OFF 10.914 TB data 
--------------------------------------------------------------
                                               ^^^^^^

Я использую LVM для управления диском. pvscan показывает, что размер диска не изменился:

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]
                              ^^^^^^^^

Пора перезагрузиться (по крайней мере, я не смог найти способ заставить Linux повторно сканировать диск).

По крайней мере, lsblk теперь показывает правильный размер диска:

sdb              8:16   0  10,9T  0 disk
                           ^^^^^

LVM по-прежнему не видит этого (pvscan):

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]

pvdisplay дает более подробную информацию:

  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               8,19 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2145791
  Free PE               134655
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

Мы можем протестировать следующую операцию перед ее выполнением: pvresize --test -v /dev/sdb

  TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
    Using physical volume(s) on command line.
    Test mode: Skipping archiving of volume group.
    Resizing volume "/dev/sdb" to 23437770752 sectors.
    Resizing physical volume /dev/sdb from 0 to 2861055 extents.
    Updating physical volume "/dev/sdb"
    Test mode: Skipping backup of volume group.
  Physical volume "/dev/sdb" changed
  1 physical volume(s) resized / 0 physical volume(s) not resized
    Test mode: Wiping internal cache
    Wiping internal VG cache

2861055 расширяет 4 MiB переводится на 10.91 TiB (2861055 * 4096/1024/1024/1024).

Измените размер логического тома: pvresize -v /dev/sdb

Наконец, LVM видит новую емкость:

# pvdisplay 
  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               10,91 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2861055
  Free PE               849919
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

Теперь вы можете продолжить расширение файловых систем в группе томов.