Назад | Перейти на главную страницу

Восстановление пула ZFS с ошибками при импорте

У меня есть машина, у которой были проблемы с плохой оперативной памятью. После того, как я диагностировал это и удалил проблемную карту ОЗУ, пул ZFS на машине пытался получить доступ к дискам, используя неправильные имена устройств. Я просто экспортировал пул и повторно импортировал его, чтобы исправить это. Однако теперь я получаю эту ошибку.

Хранилище пула больше не подключается автоматически

sqeaky@sqeaky-media-server:/$ sudo zpool status
no pools available

Обычный импорт говорит, что он коррумпирован

sqeaky@sqeaky-media-server:/$ sudo zpool import
  pool: Storage
    id: 13247750448079582452
 state: UNAVAIL
status: The pool is formatted using an older on-disk version.
action: The pool cannot be imported due to damaged devices or data.
config:

    Storage                 UNAVAIL  insufficient replicas
      raidz1                UNAVAIL  corrupted data
        805066522130738790  ONLINE
        sdd3                ONLINE
        sda3                ONLINE
        sdc                 ONLINE

Конкретный импорт говорит, что конфигурация vdev недействительна

sqeaky@sqeaky-media-server:/$ sudo zpool import Storage
cannot import 'Storage': invalid vdev configuration

Невозможно отключить или отсоединить диск, потому что пул не может быть запущен / импортирован

sqeaky@sqeaky-media-server:/$ sudo zpool offline Storage 805066522130738790
cannot open 'Storage': no such pool
sqeaky@sqeaky-media-server:/$ sudo zpool detach Storage 805066522130738790
cannot open 'Storage': no such pool

Не удается принудительно импортировать

sqeaky@sqeaky-media-server:/$ sudo zpool import -f Storage 
cannot import 'Storage': invalid vdev configuration

В моем пуле ZFS должно быть 4 устройства:

/ dev / sda3
/ dev / sdd3
/ dev / sdc
/ dev / sdb

Я понятия не имею, что такое 805066522130738790, но планирую продолжить расследование. Я также пытаюсь понять, как использовать zdb, чтобы получить больше информации о том, что думает пул.

Для справки Это было настроено таким образом, потому что на момент настройки этой машины / пула требовались определенные функции Linux, а загрузка из ZFS еще не поддерживалась в Linux. Разделы sda1 и sdd1 находятся в raid 1 для операционной системы, а sdd2 и sda2 находятся в raid1 для свопа.

Есть какие-нибудь сведения о том, как восстановить этот пул ZFS?

Изменить - Обновление статуса Я выяснил, что такое 805066522130738790. Это какой-то guid, который ZFS не смог использовать для идентификации / dev / sdb. Когда я физически удаляю / dev / sdb, пул монтируется и подключается к сети. Но я все еще не могу поменять диски. Думаю, я сделаю резервную копию файлов на внешний носитель, а затем удалю весь пул, потому что он слишком поврежден, чтобы продолжать работу. У меня с самого начала должны были быть хорошие резервные копии ...

Если вам нужна реальная помощь по отладке, перейдите к списку zfs-Discuss:

http://mail.opensolaris.org/mailman/listinfo/zfs-discuss http://opensolaris.org/jive/forum.jspa?forumID=80

(Тот же список, только разные интерфейсы.)

Похоже, вы используете ZFS на FUSE? В любом случае я бы не ожидал, что это будет хоть сколько-нибудь стабильно.

Я бы отключил странный диск, затем снова добавил его и посмотрел, поможет ли это. Вы также можете попробовать принудительно повторно импортировать пул. http://docs.huihoo.com/opensolaris/solaris-zfs-administration-guide/html/ch04s04.html