Надеюсь, что кто-то может мне помочь, поскольку я выдергивал единственные оставшиеся у меня волосы (а это немного), пытаясь понять это.
Я не могу назначить несколько IP-адресов любому контейнеру CentOS 7, правильно работает только первый адаптер / IP. Это происходит только в контейнерах RHEL (в частности, CentOS 7). У меня нет этой проблемы ни с какими контейнерами Debian, и это меня так озадачивает.
Сервер находится в сети OVH, все IP-адреса настроены с виртуальным MAC-адресом в интерфейсе диспетчера OVH.
Все контейнеры на основе debian отлично работают с несколькими IP-адресами и сетевыми адаптерами, но по какой-то причине любые контейнеры CentOS 7 будут работать только с первым IP-адресом, добавленным в контейнер. Я пробовал использовать разные IP-адреса аварийного переключения из других подсетей, но все безуспешно.
Я могу пинговать основной IP-адрес контейнера CentOS с хост-узла, но не могу пинговать какие-либо дополнительные, добавленные с хоста.
Вот /etc/network/interfaces
файл с хост-узла:
# The loopback network interface
auto lo
iface lo inet loopback
iface eth2 inet manual
# for Routing
auto vmbr1
iface vmbr1 inet manual
post-up /etc/pve/kvm-networking.sh
bridge_ports dummy0
bridge_stp off
bridge_fd 0
# vmbr0: Bridging. Make sure to use only MAC adresses that were assigned to you.
auto vmbr0
iface vmbr0 inet static
address 149.x.x.155
netmask 255.255.255.0
network 149.x.x.0
broadcast 149.x.x.255
gateway 149.x.x.254
bridge_ports eth2
bridge_stp off
bridge_fd 0
iface vmbr0 inet6 static
address 2607:5300:0061:039b::
netmask 64
post-up /sbin/ip -f inet6 route add 2607:5300:0061:03ff:ff:ff:ff:ff dev vmbr0
post-up /sbin/ip -f inet6 route add default via 2607:5300:0061:03ff:ff:ff:ff:ff
pre-down /sbin/ip -f inet6 route del default via 2607:5300:0061:03ff:ff:ff:ff:ff
pre-down /sbin/ip -f inet6 route del 2607:5300:0061:03ff:ff:ff:ff:ff dev vmbr0
Вот результаты ip link
в гостевом (CentOS 7) контейнере:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
84: eth0@if85: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT qlen 1000
link/ether 02:00:00:xx:xx:e9 brd ff:ff:ff:ff:ff:ff link-netnsid 0
86: eth1@if87: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT qlen 1000
link/ether 02:00:00:xx:xx:30 brd ff:ff:ff:ff:ff:ff link-netnsid 0
Вот /etc/sysconfig/network-scripts/ifcfg-eth0
файл:
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
IPADDR=167.xxx.xxx.214
NETMASK=255.255.255.255
GATEWAY=149.xxx.xxx.254
Вот /etc/sysconfig/network-scripts/ifcfg-eth1
файл:
DEVICE=eth1
ONBOOT=yes
BOOTPROTO=none
IPADDR=167.xxx.xxx.215
NETMASK=255.255.255.255
GATEWAY=149.xxx.xxx.254
Что-то мне здесь не хватает, ребята? Я полностью озадачен этим, поскольку это только кажется проблемой в RHEL (в частности, CentOS) ... любые предложения, комментарии или идеи, которые помогут устранить это, были бы очень признательны!
Спасибо!
Запуск Proxmox:
proxmox-ve: 4.4-84 (running kernel: 4.4.44-1-pve)
pve-manager: 4.4-12 (running version: 4.4-12/e71b7a74)
pve-kernel-4.4.35-2-pve: 4.4.35-79
pve-kernel-4.4.44-1-pve: 4.4.44-84
pve-kernel-4.4.19-1-pve: 4.4.19-66
lvm2: 2.02.116-pve3
corosync-pve: 2.4.2-2~pve4+1
libqb0: 1.0-1
pve-cluster: 4.0-48
qemu-server: 4.0-109
pve-firmware: 1.1-10
libpve-common-perl: 4.0-92
libpve-access-control: 4.0-23
libpve-storage-perl: 4.0-76
pve-libspice-server1: 0.12.8-2
vncterm: 1.3-1
pve-docs: 4.4-3
pve-qemu-kvm: 2.7.1-4
pve-container: 1.0-96
pve-firewall: 2.0-33
pve-ha-manager: 1.0-40
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u3
lxc-pve: 2.0.7-4
lxcfs: 2.0.6-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
zfsutils: 0.6.5.9-pve15~bpo80