У нас возникли проблемы с развертыванием Kilo в системе с 3 контроллерами и 3 компьютерами через mirantis fuel 7.0.
Проблемы связаны с созданием и подключением томов, особенно тех, которые хранятся в NetApp SAN. В результате мне пришлось удалить некоторые застрявшие тома и экземпляры путем доступа к базам данных cinder и nova и удаления файлов из экземпляров, томов, volume_admin_metadata, volume_attachment и volume_glance_metadata.
Проблема в том, что счетчик томов в «Обзоре» проекта все еще учитывает эти исчезнувшие тома и экземпляры, поэтому я хотел бы знать, из какой части базы данных читается эта информация и как ее исправить / синхронизировать.
Также мне не нравится знать, как удалить физический LVM, соответствующий этим томам, поскольку они все еще появляются, когда я выполняю команду «lsblk» на контроллере, который их хранил.
Спасибо
Я думаю, вы используете многопользовательский cinder, который может создавать тома с помощью драйверов netapp и lvm - иногда тома могут застревать в любом типе статуса: создание, расширение, моментальный снимок, удаление и т. Д., Уже есть инструмент cli и горизонта для сброс состояния застрявших томов, поскольку вы не можете удалить том, который застрял в другом состоянии:
cinder reset-state --state available uuid
Что касается того, где находится LVM - он будет на сервере, на котором вы установили роль cinder: с сервера топлива
fuel role list
а затем ssh на узел cinder и посмотрите на lvm -v
Если вы не собираетесь использовать драйвер LVM (это эталонный драйвер, поэтому вы можете увидеть, как работает хранилище как услуга), тогда обязательно удалите ссылку на драйвер LVM в вашем cinder.conf.
вам не нужно заходить в базу данных для удаления инфраструктуры, но это необходимо несколько раз.