Назад | Перейти на главную страницу

Высокая нагрузка после создания нового LVM-рейда5

Я просто переделал свой NAS, переключившись с ZFS на LVM raid. Это новый рейд с 3x8TB, каждый физический том - это LUKS.

lvs -a -o+devices

показывает мне:

  LV                        VG     Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert Devices                                                 
  [lvol0_pmspare]           vgraid ewi-------    2.00g                                                     /dev/mapper/cache_data(359138)                          
  lvraid                    vgraid rwi-aor---   14.55t                                    90.92            lvraid_rimage_0(0),lvraid_rimage_1(0),lvraid_rimage_2(0)
  lvraid_cache_data         vgraid Cwi---C---    1.37t                                                     lvraid_cache_data_cdata(0)                              
  [lvraid_cache_data_cdata] vgraid Cwi-------    1.37t                                                     /dev/mapper/cache_data(0)                               
  [lvraid_cache_data_cmeta] vgraid ewi-------    2.00g                                                     /dev/mapper/cache_meta(0)                               
  [lvraid_rimage_0]         vgraid Iwi-aor---   <7.28t                                                     /dev/mapper/sda1_crypt(1)                               
  [lvraid_rimage_1]         vgraid Iwi-aor---   <7.28t                                                     /dev/mapper/sdb1_crypt(1)                               
  [lvraid_rimage_2]         vgraid Iwi-aor---   <7.28t                                                     /dev/mapper/sdc1_crypt(1)                               
  [lvraid_rmeta_0]          vgraid ewi-aor---    4.00m                                                     /dev/mapper/sda1_crypt(0)                               
  [lvraid_rmeta_1]          vgraid ewi-aor---    4.00m                                                     /dev/mapper/sdb1_crypt(0)                               
  [lvraid_rmeta_2]          vgraid ewi-aor---    4.00m                                                     /dev/mapper/sdc1_crypt(0)                               

при восстановлении резервных копий срабатывали всевозможные тревоги, в частности нагрузка, идущая через крышу. даже если я остановлю все, что работает на машине (у нее есть куча докер-контейнеров), она останется на уровне ~ 5-7.

iotop сообщает мне, что процесс с наибольшим количеством операций ввода-вывода dmcrypt_write ... поэтому я предполагаю, что это связано с тем, что рейд синхронизирует все блоки, и что он должен закончиться, когда столбцы "Cpy% ync" достигнут 100%.

Это верно?

.rm