Я просто переделал свой NAS, переключившись с ZFS на LVM raid. Это новый рейд с 3x8TB, каждый физический том - это LUKS.
lvs -a -o+devices
показывает мне:
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices
[lvol0_pmspare] vgraid ewi------- 2.00g /dev/mapper/cache_data(359138)
lvraid vgraid rwi-aor--- 14.55t 90.92 lvraid_rimage_0(0),lvraid_rimage_1(0),lvraid_rimage_2(0)
lvraid_cache_data vgraid Cwi---C--- 1.37t lvraid_cache_data_cdata(0)
[lvraid_cache_data_cdata] vgraid Cwi------- 1.37t /dev/mapper/cache_data(0)
[lvraid_cache_data_cmeta] vgraid ewi------- 2.00g /dev/mapper/cache_meta(0)
[lvraid_rimage_0] vgraid Iwi-aor--- <7.28t /dev/mapper/sda1_crypt(1)
[lvraid_rimage_1] vgraid Iwi-aor--- <7.28t /dev/mapper/sdb1_crypt(1)
[lvraid_rimage_2] vgraid Iwi-aor--- <7.28t /dev/mapper/sdc1_crypt(1)
[lvraid_rmeta_0] vgraid ewi-aor--- 4.00m /dev/mapper/sda1_crypt(0)
[lvraid_rmeta_1] vgraid ewi-aor--- 4.00m /dev/mapper/sdb1_crypt(0)
[lvraid_rmeta_2] vgraid ewi-aor--- 4.00m /dev/mapper/sdc1_crypt(0)
при восстановлении резервных копий срабатывали всевозможные тревоги, в частности нагрузка, идущая через крышу. даже если я остановлю все, что работает на машине (у нее есть куча докер-контейнеров), она останется на уровне ~ 5-7.
iotop сообщает мне, что процесс с наибольшим количеством операций ввода-вывода dmcrypt_write
... поэтому я предполагаю, что это связано с тем, что рейд синхронизирует все блоки, и что он должен закончиться, когда столбцы "Cpy% ync" достигнут 100%.
Это верно?
.rm