Я создал виртуальный интерфейс (VIF) [Read Linux Bonding / LACP interfaces], используя два физических интерфейса Ethernet по 1 Гбит / с каждый.
Когда я применяю к нему управление трафиком, я вижу, что выходная полоса пропускания резко уменьшается (как минимум в 10 раз меньше). Когда нет контроля трафика, выходная полоса пропускания в 10 раз выше.
Тот же самый контроль трафика на физическом интерфейсе Ethernet не приводит к уменьшению выходной полосы пропускания.
Политика управления трафиком приведена ниже,
$iface
либо eth0
или vif
; и $limit = 1500000
tc qdisc add dev ${iface} root handle 1: hfsc default 3
tc class add dev ${iface} parent 1:0 classid 1:1 \
hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:3 \
hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:4 \
hfsc ls rate "${limit}kbit" ul rate "${limit}kbit"
tc filter add dev ${iface} protocol ip parent 1:0 prio 1 \
u32 match ip dport ${port} 0xffff flowid 1:4
Вызывает ли эту проблему управление трафиком на VIF [интерфейсе LACP]? Я смущен, потому что вышеупомянутый контроль трафика не вызывает никаких проблем на физическом интерфейсе. Я тоже не очень разбираюсь в использовании контроля трафика.
В основе базового уровня Linux лежит Debian.