Назад | Перейти на главную страницу

Могу ли я удалить случайно созданный диск из уже существующего zpool?

Я использую FreeNas 11.2 U5.

Один диск, настроенный как Raidz-2, был поврежден, и вместо него был установлен новый диск.

Однако по ошибке диспетчер томов создал новый чередующийся диск.

Итак, есть ...

  1. Поврежденный том Raidz2 с одним диском (изначально 4 диска)
  2. создан однодисковый том Stripe.
[jehos@freenas ~]$ sudo zpool status
  pool: MAIN
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: scrub repaired 0 in 0 days 06:48:21 with 0 errors on Sun Jun 16 06:48:24 2019
config:

        NAME                                            STATE     READ WRITE CKSUM
        MAIN                                            DEGRADED     0     0     0
          raidz2-0                                      DEGRADED     0     0     0
            gptid/3cbffd2d-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            gptid/3d98c268-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            16493801384591910209                        OFFLINE      0     0     0  was /dev/gptid/05be9493-e148-11e5-8ff4-c8cbb8c95fc0
            gptid/3f43ab6c-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
          gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0    ONLINE       0     0     0

Пытаюсь удалить Stripes volume, но не удалось.

$ sudo zpool detach MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0
cannot dettach gptid/4fb8093c-ae3d-11ebd1-c8cb8c95fc0: only applicable to mirror and refitting vdevs

Если я заставлю полосу удалить настроенный диск, весь пул может быть поврежден.

Как безопасно удалить только случайно созданный чередующийся том?

Сделайте резервную копию своего пула!

Вы близки к потере данных, и любые дальнейшие неудачи могут еще больше приблизить вас к потере данных или подтолкнуть вас к грани.

Можешь попробовать:

zpool remove -n MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0

но я не думаю, что это сработает. В -n опция говорит zpool просто обрисовать результат того, что будет сделано, но не делайте этого на самом деле.

-n Фактически не выполнять удаление ("no-op"). Вместо этого выведите приблизительный объем памяти
который будет использоваться таблицей сопоставления после завершения удаления. Это ненулевое значение только для
vdevs верхнего уровня.

Если похоже, что это разрешено, попробуйте еще раз без -n.

К сожалению, я подозреваю, что вам нужно будет сделать резервную копию всего пула, затем уничтожить пул, воссоздать его и восстановить из резервной копии. Как правило, невозможно удалить VDEV из пула ZFS, не уничтожив пул и не создав его заново.