Я получаю сообщение об ошибке: «Trace nova Stderr: 'iscsiadm: портал не найден. \ N'. Команда Trace nova: sudo nova-rootwrap iscsiadm -m node -T iqn.2010-10.org.openstack: volume-0000003 - p: 3260 --ресканирование
Пожалуйста, дайте мне знать, если требуется дополнительная информация. Заранее спасибо.
Обновить:
Есть два сервера
1. Узел контроллера (имя хоста: cc)
2. Вычислительный узел (имя хоста: nc)
ОПЕРАЦИОННЫЕ СИСТЕМЫ: Ubuntu 12.04 (без головы)
Вкус OpenStack: Эссекс
До прошлой недели наша установка работала нормально. Но когда мы хотели установить рабочий стол Ubuntu, чтобы выйти из Headless и получить красивые экраны, нам нужно было ввести команду (на хосте cc)
#sudo apt-get install ubuntu-desktop
И тут начались все наши проблемы. Я мог заметить, что он удаляет Apache, Openstack - панель управления и объем nova также без предварительного уведомления или подтверждения. Он даже не обновил вещи.
Итак, все наши экземпляры виртуальных машин вышли из строя.
А затем, когда я запустил #sudo nova-manage service list, он использовал, чтобы показать мне XXX для nova-volume и nova-compute. Мы переустановили nova-volume, который изменил статус с XXX на :-).
А затем мы попробовали все известные нам вещи, такие как переустановка apahce2, переустановка openstack-dashboard, обновление apt-get, обновление apt-get, удаление подозрительных записей из mysql, удаление lvm.
После этого мы могли бы запустить нашу панель инструментов openstack. Итак, теперь мы беспокоились о сервисе nova-compute, который отображал XXX в списке сервисов.
Попытка 1: Когда мы изменили файл nova.conf с start_gests_on_host_boot = false и resume_gests_state_on_host_boot = false и перезагрузили хост cc, он отобразил :-) для всех служб после перезагрузки. Теперь, когда я проверил приборную панель, он отображал статус «Выключено» для всех виртуальных машин с вращающимся счетчиком.
Попытка 2: Когда мы изменили файл nova.conf на start_gests_on_host_boot = true и resume_gests_state_on_host_boot = true и перезагрузили хост cc, после перезагрузки он отобразил XXX для службы nova-compute. Когда мы проверили файл /var/log/nova/nova-compute.log, он показал ошибку вроде
iscsiadm: No portal found. \n'. Trace nova Command: sudo nova-rootwrap iscsiadm -m node -T iqn.2010-10.org.openstack: volume-0000003 -p: 3260 --rescan
Исправление сработало для вышеуказанной вещи:
1. Изменил два флага в nova conf на true.
2. Выполнено # apt-get remove --purge iscsitarget
3. Перезагрузил хост cc.
4. Выполнен перезапуск # / etc / init.d / open-iscsi.
5. Выполнен #sudo /etc/init.d/networking restart
6. Выполнен #sudo service ntp restart
7.Выполнен #sudo service tgt restart
8.Выполнена #sudo nova-manage db sync
9. перезапущены nova-volume, nova-compute, nova-cert, nova-network, nova-scheduler, nova-consoleauth хоста cc.
Результат исправления: Мы смогли получить (мы не получали этого раньше) список томов, когда мы выполнили следующую команду #iscsiadm -m discovery -t sendtargets -p :3260
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000007
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000005
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000014
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000003
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-0000000f
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000013
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000004
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000008
И все же все виртуальные машины находились в состоянии Shutoff, и счетчик непрерывно вращался в течение 1 дня. Мы заметили, что смогли проверить связь с некоторыми виртуальными машинами, а также подключиться к ним с помощью MSTSC.
И теперь мы не увидели в журнале вычислений ошибку Portal not found. Но мы заметили ошибку, указанную ниже.
libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory
И для вашего сведения, в рамках моих исследований и разработок я удалил (lvremove volume-17) связанный с этим lvm.
Текущее состояние: На хосте cc, ошибка отображается как
libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory
На хосте nc появляется ошибка как
libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000020-lun-1: No such file or directory
Входы:
1. У нас нет золы. Только nova-volume, nova-compute, nova-cert, nova-network, nova-scheduler, nova-consoleauth.
2. Текущий статус услуг
Состояние состояния двоичной хост-зоны Обновлено_At
nova-network cc nova enabled :-) 2016-05-19 13:48:48
nova-compute cc nova enabled XXX 2016-05-19 11:37:23
nova-scheduler cc nova enabled :-) 2016-05-19 13:48:51
nova-volume cc nova enabled :-) 2016-05-19 13:48:48
nova-consoleauth cc nova enabled :-) 2016-05-19 13:48:50
nova-cert cc nova enabled :-) 2016-05-19 13:48:49
nova-compute nc nova enabled XXX 2016-05-19 11:37:13
nova-volume nc nova enabled :-) 2016-05-19 13:48:44
Да, tgt работает.
root@cc:/dev/disk/by-path# sudo service tgt status
tgt start/running, process 2583
Файлы конфигурации находятся ниже.
nova.conf на хосте cc:
--dhcpbridge_flagfile=/etc/nova/nova.conf
--my_ip=
--dhcpbridge=/usr/bin/nova-dhcpbridge
--logdir=/var/log/nova
--debug = true
--state_path=/var/lib/nova
--lock_path=/run/lock/nova
--allow_admin_api=true
--use_deprecated_auth=false
--auth_strategy=keystone
--scheduler_driver=nova.scheduler.simple.SimpleScheduler
--max_cores=106
--s3_host=
--ec2_host=
--rabbit_host=
--cc_host=
--nova_url=http://:8774/v1.1/
--routing_source_ip=
--glance_api_servers=:9292
--image_service=nova.image.glance.GlanceImageService
--iscsi_ip_prefix=192.168.4
--sql_connection=mysql://nova:nova@/nova
--ec2_url=http://:8773/services/Cloud
--keystone_ec2_url=http://:5000/v2.0/ec2tokens
--api_paste_config=/etc/nova/api-paste.ini
--libvirt_type=kvm
--libvirt_use_virtio_for_bridges=true
--start_guests_on_host_boot=true
--resume_guests_state_on_host_boot=true
--novnc_enabled=true
--novncproxy_base_url=http://:6080/vnc_auto.html
--vncserver_proxyclient_address=
--vncserver_listen=
--vncserver_listen=0.0.0.0
--network_manager=nova.network.manager.FlatDHCPManager
--public_interface=eth0
--flat_interface=eth1
--flat_network_bridge=br100
--fixed_range=192.xxx.y.1/27
--floating_range=/27
--network_size=32
--flat_network_dhcp_start=192.xxx.y.33
--flat_injected=False
--force_dhcp_release=True
--iscsi_helper=tgtadm
--connection_type=libvirt
--root_helper=sudo nova-rootwrap
--verbose
nova.conf на хосте nc:
--dhcpbridge_flagfile=/etc/nova/nova.conf
--my_ip=
--dhcpbridge=/usr/bin/nova-dhcpbridge
--logdir=/var/log/nova
--state_path=/var/lib/nova
--lock_path=/run/lock/nova
--allow_admin_api=true
--use_deprecated_auth=false
--auth_strategy=keystone
--scheduler_driver=nova.scheduler.simple.SimpleScheduler
--max_cores=106
--s3_host=
--ec2_host=
--rabbit_host=
--cc_host=
--nova_url=http://:8774/v1.1/
--routing_source_ip=
--glance_api_servers=:9292
--image_service=nova.image.glance.GlanceImageService
--iscsi_ip_prefix=192.xxx.y
--sql_connection=mysql://nova:cyient#3@/nova
--ec2_url=http://:8773/services/Cloud
--keystone_ec2_url=http://:5000/v2.0/ec2tokens
--api_paste_config=/etc/nova/api-paste.ini
--libvirt_type=kvm
--libvirt_use_virtio_for_bridges=true
--start_guests_on_host_boot=true
--resume_guests_state_on_host_boot=true
--novnc_enabled=true
--novncproxy_base_url=http://:6080/vnc_auto.html
--vncserver_proxyclient_address=
--vncserver_listen=0.0.0.0
--network_manager=nova.network.manager.FlatDHCPManager
--public_interface=eth0
--flat_interface=eth1
--flat_network_bridge=br100
--fixed_range=192.xxx.y.1/27
--floating_range=/27
--network_size=32
--flat_network_dhcp_start=192.xxx.y.33
--flat_injected=false
--force_dhcp_release=true
--iscsi_helper=tgtadm
--connection_type=libvirt
--root_helper=sudo nova-rootwrap
--verbose
Обновить: Исправлены две указанные выше ошибки с помощью описанных ниже шагов.
start_guests_on_host_boot=false
и resume_guests_state_on_host_boot
.:-)
.mysql: update instances set vm_state='active', task_state = NULL, power_state = 1 where uuid = INSTANCE_UUID
#nova reboot --hard INSTANCE_UUID
:-)
и все виртуальные машины запущены и работают.