# Proxmox Network QoS: Bandbreiten-Management & Traffic Shaping

TL;DR / Management Summary In einer virtualisierten Umgebung teilen sich viele VMs ein einzelnes physisches Netzwerk-Interface (z.B. 10G). Ohne Quality of Service (QoS) kann ein massiver Download in einer Test-VM die Latenz für das gesamte Büro in die Höhe treiben. Wir nutzen Proxmox-Bordmittel und SDN-Features, um Bandbreiten für einzelne VMs zu limitieren und kritischen Traffic (wie Management oder VoIP) zu priorisieren. Ein Senior Admin verhindert so den gefürchteten “Noisy Neighbor” Effekt.


# 1. Bandbreiten-Limitierung pro VM

Die einfachste Form des QoS.

Proxmox erlaubt es, den maximalen Durchsatz einer virtuellen Netzwerkkarte direkt in den Hardware-Einstellungen zu begrenzen.


# 2. QoS in SDN VNets

Orchestrierung über den Cluster.

Mit der Einführung von Software Defined Networking (SDN) (Artikel 682) können QoS-Regeln zentraler verwaltet werden.


# 3. Deep Dive: Traffic Priorisierung am Host

Wer darf zuerst?

Wenn Sie verschiedene Bridges für verschiedene Zwecke nutzen (z.B. vmbr0 für User, vmbr1 für Storage):


# 4. Day-2 Operations: Backup-Traffic drosseln

Die Nachtruhe sichern.

Backups sind der größte Bandbreitenfresser im RZ.


# 5. Troubleshooting & “War Stories”

Wenn der Shaper den Speed frisst.

# Top 3 Fehlerbilder

  1. Symptom: VM erreicht nur 100 Mbit/s, obwohl 10G Interface.

    • Ursache: Ein altes Rate-Limit in der .conf Datei vergessen.
    • Lösung: qm config <vmid> | grep net prüfen.
  2. Symptom: Massive Latenz bei VoIP-VMs.

    • Ursache: Bufferbloat auf der physischen NIC des Hosts.
    • Fix: Nutzen Sie FQ-CoDel (Fair Queuing) auf dem Host-Interface via tc.
  3. Symptom: Rate-Limit greift nicht.

    • Ursache: VM nutzt keinen VirtIO-Net Treiber.

# “War Story”: Der “Streaming”-Kollaps

Ein Admin betrieb eine Media-Server VM (Plex) ohne QoS auf dem gleichen 1G Interface wie die OPNsense Management-Konsole. Das Ereignis: Während eines Film-Transcodings war die GUI der Firewall nicht mehr erreichbar. Da der Media-Server die Leitung komplett für den Buffer-Load belegte, stiegen die Pings auf > 2000ms. Lösung: Wir limitierten das Interface des Media-Servers auf 800 Mbit/s. Lehre: Lassen Sie dem Management immer einen “Headroom” von 10-20% der physischen Bandbreite. Ein gesättigter Port ist ein blinder Admin.


# 6. Monitoring & Reporting

Bandbreiten-Statistiken.

# Live-Analyse (Shell)

Nutzen Sie das Tool iftop, um zu sehen, welcher Traffic gerade über welche Bridge fließt:

apt install iftop
iftop -i vmbr0

# 7. Fazit & Empfehlung

QoS ist in modernen High-Speed Netzen oft vernachlässigt, aber bei Engpässen die einzige Rettung.


# Anhang: Cheatsheet (tc Befehle)

Aufgabe Befehl
Limits ansehen tc -s qdisc show dev tap100i0
Limits löschen tc qdisc del dev tap100i0 root
Delay testen ping -s 1400 <Ziel>

# Referenzen