У меня есть машина, у которой были проблемы с плохой оперативной памятью. После того, как я диагностировал это и удалил проблемную карту ОЗУ, пул ZFS на машине пытался получить доступ к дискам, используя неправильные имена устройств. Я просто экспортировал пул и повторно импортировал его, чтобы исправить это. Однако теперь я получаю эту ошибку.
Хранилище пула больше не подключается автоматически
sqeaky@sqeaky-media-server:/$ sudo zpool status
no pools available
Обычный импорт говорит, что он коррумпирован
sqeaky@sqeaky-media-server:/$ sudo zpool import
pool: Storage
id: 13247750448079582452
state: UNAVAIL
status: The pool is formatted using an older on-disk version.
action: The pool cannot be imported due to damaged devices or data.
config:
Storage UNAVAIL insufficient replicas
raidz1 UNAVAIL corrupted data
805066522130738790 ONLINE
sdd3 ONLINE
sda3 ONLINE
sdc ONLINE
Конкретный импорт говорит, что конфигурация vdev недействительна
sqeaky@sqeaky-media-server:/$ sudo zpool import Storage
cannot import 'Storage': invalid vdev configuration
Невозможно отключить или отсоединить диск, потому что пул не может быть запущен / импортирован
sqeaky@sqeaky-media-server:/$ sudo zpool offline Storage 805066522130738790
cannot open 'Storage': no such pool
sqeaky@sqeaky-media-server:/$ sudo zpool detach Storage 805066522130738790
cannot open 'Storage': no such pool
Не удается принудительно импортировать
sqeaky@sqeaky-media-server:/$ sudo zpool import -f Storage
cannot import 'Storage': invalid vdev configuration
В моем пуле ZFS должно быть 4 устройства:
/ dev / sda3
/ dev / sdd3
/ dev / sdc
/ dev / sdb
Я понятия не имею, что такое 805066522130738790, но планирую продолжить расследование. Я также пытаюсь понять, как использовать zdb, чтобы получить больше информации о том, что думает пул.
Для справки Это было настроено таким образом, потому что на момент настройки этой машины / пула требовались определенные функции Linux, а загрузка из ZFS еще не поддерживалась в Linux. Разделы sda1 и sdd1 находятся в raid 1 для операционной системы, а sdd2 и sda2 находятся в raid1 для свопа.
Есть какие-нибудь сведения о том, как восстановить этот пул ZFS?
Изменить - Обновление статуса Я выяснил, что такое 805066522130738790. Это какой-то guid, который ZFS не смог использовать для идентификации / dev / sdb. Когда я физически удаляю / dev / sdb, пул монтируется и подключается к сети. Но я все еще не могу поменять диски. Думаю, я сделаю резервную копию файлов на внешний носитель, а затем удалю весь пул, потому что он слишком поврежден, чтобы продолжать работу. У меня с самого начала должны были быть хорошие резервные копии ...
Если вам нужна реальная помощь по отладке, перейдите к списку zfs-Discuss:
http://mail.opensolaris.org/mailman/listinfo/zfs-discuss http://opensolaris.org/jive/forum.jspa?forumID=80
(Тот же список, только разные интерфейсы.)
Похоже, вы используете ZFS на FUSE? В любом случае я бы не ожидал, что это будет хоть сколько-нибудь стабильно.
Я бы отключил странный диск, затем снова добавил его и посмотрел, поможет ли это. Вы также можете попробовать принудительно повторно импортировать пул. http://docs.huihoo.com/opensolaris/solaris-zfs-administration-guide/html/ch04s04.html