У меня есть Proxmox на моем сервере node с ip: 5.189.190. *, И я создал контейнер openvz на ip: 213.136.87. * И установил на нем centos 6
Проблема: не удается подключиться к контейнеру ssh напрямую Не удается открыть страницу приветствия centos сервера apache Когда я вхожу в контейнер с узла, я не могу пинговать какие-либо сайты или получить любой URL-адрес, но я могу подключить 127.0.0.1 и основной IP-адрес узла
Моя конфигурация: контейнер /etc/resolv.conf
nameserver 8.8.8.8
nameserver 8.8.4.4
контейнер / и т.д. / sysconfig / сетевые сценарии / ifcfg-venet0
DEVICE=venet0
BOOTPROTO=static
ONBOOT=yes
IPADDR=213.136.87.*
NETMASK=255.255.255.0
BROADCAST=213.136.87.*
IPV6INIT="yes"
контейнер / и т. д. / sysconfig / сетевые сценарии / ifcfg-venet0
DEVICE=venet0:0
ONBOOT=yes
IPADDR=213.136.87.*
NETMASK=255.255.255.0
узел / etc / network / interfaces
# network interface settings
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 5.189.190.*
netmask 255.255.255.0
gateway 5.189.190.*
bridge_ports eth0
bridge_stp off
bridge_fd 0
узел /etc/resolv.conf правильно имеет серверы имен DC
результат пинга контейнера:
# ping google.com -c 3
ping: unknown host google.com
контейнер traceroute результат:
# traceroute google.com
google.com: Temporary failure in name resolution
Cannot handle "host" cmdline arg `google.com' on position 1 (argc 1)
результат пинга узла:
# ping google.com -c 3
PING google.com (74.125.29.139) 56(84) bytes of data.
64 bytes from qg-in-f139.1e100.net (74.125.29.139): icmp_req=1 ttl=41 time=110 ms
64 bytes from qg-in-f139.1e100.net (74.125.29.139): icmp_req=2 ttl=41 time=110 ms
64 bytes from qg-in-f139.1e100.net (74.125.29.139): icmp_req=3 ttl=41 time=110 ms
--- google.com ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2000ms
rtt min/avg/max/mdev = 110.450/110.462/110.474/0.383 ms
результат трассировки узла:
# traceroute google.com
traceroute to google.com (74.125.29.139), 30 hops max, 60 byte packets
1 ip-1-90-136-213.static.contabo.net (213.136.90.1) 0.506 ms 0.517 ms 0.513 ms
2 ffm-b11-link.telia.net (62.115.36.237) 0.493 ms 0.491 ms 0.484 ms
3 hbg-b1-link.telia.net (62.115.139.164) 15.379 ms 15.393 ms 15.384 ms
4 hbg-bb4-link.telia.net (213.155.135.88) 16.048 ms hbg-bb4-link.telia.net (213.155.135.86) 15.419 ms hbg-bb4-link.telia.net (213.155.135.84) 15.456 ms
5 nyk-bb1-link.telia.net (80.91.247.127) 96.568 ms nyk-bb2-link.telia.net (80.91.247.123) 107.638 ms nyk-bb1-link.telia.net (80.91.247.129) 96.582 ms
6 nyk-b6-link.telia.net (213.155.130.251) 105.478 ms 105.470 ms nyk-b6-link.telia.net (80.91.254.32) 101.005 ms
7 google-ic-303645-nyk-b6.c.telia.net (213.248.78.250) 101.235 ms 105.746 ms 105.719 ms
8 209.85.248.242 (209.85.248.242) 101.694 ms 106.213 ms 106.250 ms
9 209.85.249.212 (209.85.249.212) 101.225 ms 209.85.246.4 (209.85.246.4) 101.597 ms 209.85.252.242 (209.85.252.242) 101.179 ms
10 209.85.249.11 (209.85.249.11) 102.247 ms 112.917 ms 72.14.239.93 (72.14.239.93) 97.931 ms
11 64.233.174.9 (64.233.174.9) 104.733 ms 66.249.95.229 (66.249.95.229) 109.232 ms 66.249.95.231 (66.249.95.231) 106.086 ms
12 72.14.234.53 (72.14.234.53) 106.179 ms 72.14.238.73 (72.14.238.73) 110.471 ms 72.14.234.53 (72.14.234.53) 106.170 ms
13 * * *
14 qg-in-f139.1e100.net (74.125.29.139) 110.479 ms 110.656 ms 106.154 ms
Любые идеи будут приветствоваться
Спасибо
Попробуйте что-нибудь подобное. На узле добавьте статическую маршрутизацию для IP-адреса контейнера. Отредактируйте / etc / network / interfaces и добавьте для интерфейса vmbr0:
post-up route add -host $containerIP gw $nodeIP
pre-down route del -host $containerIP gw $nodeIP
В контейнере добавьте следующую строку в / etc / sysconfig / network-scripts / ifcfg-venet0
GATEWAY=$nodeIP
SCOPE="peer $nodeIP"
Также создайте файл / etc / sysconfig / network-scripts / route-venet0 с содержимым:
0.0.0.0/0 via $nodeIP
Перезагрузите сеть на узле и на контейнере, проверьте, работает ли она.
Я использую вышеуказанную конфигурацию для нескольких моих узлов KVM и виртуальных машин, где IP-адрес виртуальной машины находится в другой подсети, чем IP-адрес узла.