Я пытаюсь использовать бродячую среду с несколькими виртуальными машинами в качестве испытательного стенда для развертывания OpenStack, и у меня возникла проблема с сетью при попытке связи с одной виртуальной машины на виртуальную машину внутри виртуальной машины.
У меня есть два узла Vagrant, узел облачного контроллера и вычислительный узел. Я использую сеть только для хоста. Мой Vagrantfile выглядит так:
Vagrant::Config.run do |config|
config.vm.box = "precise64"
config.vm.define :controller do |controller_config|
controller_config.vm.network :hostonly, "192.168.206.130" # eth1
controller_config.vm.network :hostonly, "192.168.100.130" # eth2
controller_config.vm.host_name = "controller"
end
config.vm.define :compute1 do |compute1_config|
compute1_config.vm.network :hostonly, "192.168.206.131" # eth1
compute1_config.vm.network :hostonly, "192.168.100.131" # eth2
compute1_config.vm.host_name = "compute1"
compute1_config.vm.customize ["modifyvm", :id, "--memory", 1024]
end
end
Когда я пытаюсь запустить виртуальную машину (на основе QEMU), она успешно загружается на compute1, а ее виртуальный nic (vnet0) подключается через мост, br100:
root@compute1:~# brctl show 100
bridge name bridge id STP enabled interfaces
br100 8000.08002798c6ef no eth2
vnet0
Когда виртуальная машина QEMU делает запрос к DHCP-серверу (dnsmasq), работающему на контроллере, я вижу, что запрос достигает контроллера из-за вывода в системном журнале контроллера:
Aug 6 02:34:56 precise64 dnsmasq-dhcp[12042]: DHCPDISCOVER(br100) fa:16:3e:07:98:11
Aug 6 02:34:56 precise64 dnsmasq-dhcp[12042]: DHCPOFFER(br100) 192.168.100.2 fa:16:3e:07:98:11
Однако DHCPOFFER никогда не возвращается на виртуальную машину, работающую на compute1. Если я смотрю запросы с помощью tcpdump на интерфейсе vboxnet3 на моем хост-компьютере, на котором работает Vagrant (Mac OS X), я могу видеть как запросы, так и ответы.
$ sudo tcpdump -i vboxnet3 -n port 67 or port 68
tcpdump: WARNING: vboxnet3: That device doesn't support promiscuous mode
(BIOCPROMISC: Operation not supported on socket)
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on vboxnet3, link-type EN10MB (Ethernet), capture size 65535 bytes
22:51:20.694040 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:20.694057 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:20.696047 IP 192.168.100.1.67 > 192.168.100.2.68: BOOTP/DHCP, Reply, length 311
22:51:23.700845 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:23.700876 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:23.701591 IP 192.168.100.1.67 > 192.168.100.2.68: BOOTP/DHCP, Reply, length 311
22:51:26.705978 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:26.705995 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
22:51:26.706527 IP 192.168.100.1.67 > 192.168.100.2.68: BOOTP/DHCP, Reply, length 311
Но если я tcpdump на eth2 при вычислении, я вижу только запросы, а не ответы:
root@compute1:~# tcpdump -i eth2 -n port 67 or port 68
tcpdump: WARNING: eth2: no IPv4 address assigned
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on eth2, link-type EN10MB (Ethernet), capture size 65535 bytes
02:51:20.240672 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
02:51:23.249758 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
02:51:26.258281 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:07:98:11, length 280
На этом я застрял. Я не уверен, почему ответы DHCP не доходят до вычислительного узла. Возможно, это как-то связано с настройкой виртуального коммутатора / маршрутизатора VirtualBox?
Обратите внимание, что интерфейсы eth2 на обоих узлах были установлены в неразборчивый режим.
Проблема в том, что интерфейс должен быть установлен в беспорядочный режим через Vagrant, сделать это внутри гостевых операционных систем недостаточно.
Например, если вы добавляете две сетевые адаптеры, а последняя определенная вами сетевая карта - это та, которая будет подключена к виртуальным машинам, ваш Vagrantfile должен содержать что-то вроде:
compute1_config.vm.customize ["modifyvm", :id, "--nicpromisc3", "allow-all"]