Назад | Перейти на главную страницу

iscsiadm: портал не найден

Я получаю сообщение об ошибке: «Trace nova Stderr: 'iscsiadm: портал не найден. \ N'. Команда Trace nova: sudo nova-rootwrap iscsiadm -m node -T iqn.2010-10.org.openstack: volume-0000003 - p: 3260 --ресканирование

Пожалуйста, дайте мне знать, если требуется дополнительная информация. Заранее спасибо.

Обновить:

Есть два сервера
1. Узел контроллера (имя хоста: cc)
2. Вычислительный узел (имя хоста: nc)

ОПЕРАЦИОННЫЕ СИСТЕМЫ: Ubuntu 12.04 (без головы)
Вкус OpenStack: Эссекс

До прошлой недели наша установка работала нормально. Но когда мы хотели установить рабочий стол Ubuntu, чтобы выйти из Headless и получить красивые экраны, нам нужно было ввести команду (на хосте cc)

#sudo apt-get install ubuntu-desktop

И тут начались все наши проблемы. Я мог заметить, что он удаляет Apache, Openstack - панель управления и объем nova также без предварительного уведомления или подтверждения. Он даже не обновил вещи.

Итак, все наши экземпляры виртуальных машин вышли из строя.

А затем, когда я запустил #sudo nova-manage service list, он использовал, чтобы показать мне XXX для nova-volume и nova-compute. Мы переустановили nova-volume, который изменил статус с XXX на :-).

А затем мы попробовали все известные нам вещи, такие как переустановка apahce2, переустановка openstack-dashboard, обновление apt-get, обновление apt-get, удаление подозрительных записей из mysql, удаление lvm.

После этого мы могли бы запустить нашу панель инструментов openstack. Итак, теперь мы беспокоились о сервисе nova-compute, который отображал XXX в списке сервисов.

Попытка 1: Когда мы изменили файл nova.conf с start_gests_on_host_boot = false и resume_gests_state_on_host_boot = false и перезагрузили хост cc, он отобразил :-) для всех служб после перезагрузки. Теперь, когда я проверил приборную панель, он отображал статус «Выключено» для всех виртуальных машин с вращающимся счетчиком.

Попытка 2: Когда мы изменили файл nova.conf на start_gests_on_host_boot = true и resume_gests_state_on_host_boot = true и перезагрузили хост cc, после перезагрузки он отобразил XXX для службы nova-compute. Когда мы проверили файл /var/log/nova/nova-compute.log, он показал ошибку вроде

iscsiadm: No portal found. \n'. Trace nova Command: sudo nova-rootwrap iscsiadm -m node -T iqn.2010-10.org.openstack: volume-0000003 -p: 3260 --rescan

Исправление сработало для вышеуказанной вещи:
1. Изменил два флага в nova conf на true.
2. Выполнено # apt-get remove --purge iscsitarget
3. Перезагрузил хост cc.
4. Выполнен перезапуск # / etc / init.d / open-iscsi.
5. Выполнен #sudo /etc/init.d/networking restart
6. Выполнен #sudo service ntp restart
7.Выполнен #sudo service tgt restart
8.Выполнена #sudo nova-manage db sync
9. перезапущены nova-volume, nova-compute, nova-cert, nova-network, nova-scheduler, nova-consoleauth хоста cc.

Результат исправления: Мы смогли получить (мы не получали этого раньше) список томов, когда мы выполнили следующую команду
#iscsiadm -m discovery -t sendtargets -p :3260
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000007
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000005
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000014
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000003
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-0000000f
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000013
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000004
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000008

И все же все виртуальные машины находились в состоянии Shutoff, и счетчик непрерывно вращался в течение 1 дня. Мы заметили, что смогли проверить связь с некоторыми виртуальными машинами, а также подключиться к ним с помощью MSTSC.

И теперь мы не увидели в журнале вычислений ошибку Portal not found. Но мы заметили ошибку, указанную ниже.

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory

И для вашего сведения, в рамках моих исследований и разработок я удалил (lvremove volume-17) связанный с этим lvm.

Текущее состояние: На хосте cc, ошибка отображается как

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory

На хосте nc появляется ошибка как

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000020-lun-1: No such file or directory

Входы:
1. У нас нет золы. Только nova-volume, nova-compute, nova-cert, nova-network, nova-scheduler, nova-consoleauth.
2. Текущий статус услуг

Состояние состояния двоичной хост-зоны Обновлено_At nova-network cc nova enabled :-) 2016-05-19 13:48:48
nova-compute cc nova enabled XXX 2016-05-19 11:37:23
nova-scheduler cc nova enabled :-) 2016-05-19 13:48:51
nova-volume cc nova enabled :-) 2016-05-19 13:48:48
nova-consoleauth cc nova enabled :-) 2016-05-19 13:48:50
nova-cert cc nova enabled :-) 2016-05-19 13:48:49
nova-compute nc nova enabled XXX 2016-05-19 11:37:13
nova-volume nc nova enabled :-) 2016-05-19 13:48:44

  1. Да, tgt работает. root@cc:/dev/disk/by-path# sudo service tgt status tgt start/running, process 2583

  2. Файлы конфигурации находятся ниже.
    nova.conf на хосте cc: --dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --debug = true --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.168.4 --sql_connection=mysql://nova:nova@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=False --force_dhcp_release=True --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose

nova.conf на хосте nc:
--dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.xxx.y --sql_connection=mysql://nova:cyient#3@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=false --force_dhcp_release=true --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose

Обновить: Исправлены две указанные выше ошибки с помощью описанных ниже шагов.

  1. В cc host я сделал флаги start_guests_on_host_boot=false и resume_guests_state_on_host_boot.
  2. Перезагрузил хосты cc и nc.
  3. После перезагрузки отображались все службы nova :-).
  4. Удалены записи из mysql db, чей удаленный статус равен 1.
  5. Изменен статус каждой виртуальной машины на mysql: update instances set vm_state='active', task_state = NULL, power_state = 1 where uuid = INSTANCE_UUID
  6. Перезагрузил каждую виртуальную машину с помощью команды #nova reboot --hard INSTANCE_UUID
  7. Это решило мою проблему и запустило всю мою виртуальную машину.
  8. Восстановил два вышеупомянутых логических флага до значения true и перезагрузил хост cc.
  9. После перезагрузки все сервисы nova были :-) и все виртуальные машины запущены и работают.