# Kompressions-Strategien: Speed vs. Space im Backup-Umfeld

TL;DR / Management Summary Kompression ist der einfachste Weg, um Storage-Kosten zu senken und die Netzwerk-Performance zu steigern (da weniger Daten physisch übertragen werden). Ein Senior Admin wählt den Algorithmus passend zum Workload: LZ4 für maximale Geschwindigkeit (fast kein CPU-Overhead), ZSTD für die beste Balance aus Platz und Speed, und GZIP nur noch für Legacy-Systeme. In modernen Umgebungen wie dem Proxmox Backup Server oder ZFS ist die Kompression standardmäßig aktiv und sorgt für eine effiziente Nutzung der Hardware.


# 1. Einführung & Algorithmen

Die Qual der Wahl.

Kompression nutzt mathematische Modelle, um Redundanzen in Daten zu entfernen.


# 2. Wo wird komprimiert?

Der Ort entscheidet über den Speed.

  1. Source-side Compression (Quelle): Der Client (z.B. die VM) komprimiert die Daten vor dem Versand.
    • Vorteil: Spart Netzwerkbandbreite.
    • Nachteil: Belastet die CPU des Produktionsservers.
  2. Target-side Compression (Ziel): Die Daten kommen roh an und der Backup-Server (oder das Storage) komprimiert sie.
    • Vorteil: Keine Last auf der Produktion.
    • Systeme: ZFS-native Kompression (lz4).

# 3. Deep Dive: ZFS Kompression

Die intelligente Automatik.

In einem ZFS-Pool (Artikel 682) ist Kompression ein “No-Brainer”.


# 4. Day-2 Operations: Kompression & Deduplikation

Das perfekte Duo.

Kompression und Deduplikation (Artikel 625) ergänzen sich:

  1. Deduplikation findet identische Blöcke (spart massiv Platz bei ähnlichen Dateien).
  2. Kompression verkleinert jeden dieser Blöcke individuell (spart zusätzlich Platz bei textlastigen Daten).

# 5. Troubleshooting & “War Stories”

Wenn die CPU glüht.

# Top 3 Fehlerbilder

  1. Symptom: Backup-Performance bricht massiv ein (MB/s sinken).

    • Ursache: Zu hoher Kompressions-Level (z.B. gzip-9 oder zstd-19).
    • Lösung: Auf lz4 oder zstd-3 (Standard) zurückschalten.
  2. Symptom: Plattenplatz wird nicht weniger, obwohl Kompression aktiv ist.

    • Ursache: Die Daten sind bereits komprimiert (JPEG, MP4, ZIP) oder verschlüsselt. Solche Daten lassen sich mathematisch nicht weiter verkleinern.
  3. Symptom: Hohe Latenz bei Applikationen während des Backups.

    • Ursache: Source-side Compression stiehlt der App die CPU-Zyklen.

# “War Story”: Der “Zstd” Wunder-Move

Ein Admin sicherte 5 TB Log-Dateien mit GZIP. Das Backup dauerte 8 Stunden. Die Lösung: Wir stellten auf ZSTD (Level 3) um. Das Ergebnis: Die Backup-Zeit sank auf 2 Stunden bei fast identischer Dateigröße. Die CPU-Last auf dem Backup-Server ging von 90% auf 20% zurück. Lehre: Nutzen Sie moderne Algorithmen. GZIP ist für den Massendatendurchsatz im RZ heute veraltet.


# 6. Monitoring & Reporting

Die Effizienz messen.

# Compression Ratio (ZFS)

zfs get compressratio mypool/backup
# Ergebnis: 2.45x (Bedeutet: 100 GB belegen nur 40 GB)

# 7. Fazit & Empfehlung

Kompression ist Pflicht für jedes Backup-System.


# Anhang: Vergleichstabelle (Benchmark-Werte)

Algorithmus Speed (MB/s) Ratio (%) CPU Last
LZ4 800+ ~50% Minimal
ZSTD (3) 400 ~60% Mittel
GZIP (6) 100 ~60% Hoch
Bzip2 20 ~70% Extrem

# Referenzen