linux-suse-opensuse storage networking nfs iscsi san yast sles

NFS & iSCSI on SUSE: Storage Client (Artikel 155)

Anbindung von SUSE-Systemen an zentralen Netzwerkspeicher. Erfahren Sie alles über den YaST iSCSI-Initiator, NFS-Client-Konfiguration und die Integration von Multipathing.

# External Storage on SUSE: NFS und iSCSI Masterclass

TL;DR / Management Summary Ein Enterprise-Server lebt selten von seinen lokalen Disks allein. Die Anbindung an SAN (iSCSI) oder NAS (NFS) ist das Rückgrat moderner Rechenzentren. SUSE bietet hierfür spezialisierte YaST-Module, die nicht nur die Verbindung herstellen, sondern auch komplexe Themen wie Multipathing (Redundante Pfade) und Start-Abhängigkeiten (Warten aufs Netz) automatisch regeln.


# 1. Einführung & Architektur

Block- vs. Dateiebene.

  • NFS: Zugriff auf Datei-Ebene. Ideal für Shared Web-Roots oder ISO-Images.
  • iSCSI: Zugriff auf Block-Ebene. Der SUSE-Server sieht eine “echte” Disk (/dev/sdb), auf der er LVM oder Btrfs betreiben kann.

# Die Speicher-Kette (Mermaid)

graph LR
    A[SUSE Client] -->|NFS Client Port 2049| B[NAS: NFS Server]
    A -->|iSCSI Initiator Port 3260| C[SAN: iSCSI Target]
    subgraph "SUSE High Availability"
        D[Multipathd Daemon] --- A
    end
    C --- D

# 2. iSCSI Initiator mit YaST

Die sichere Verbindung zum SAN.

# Einrichtung

  1. sudo zypper install yast2-iscsi-client.
  2. sudo yast2 iscsi-client.
  3. Service: Stellen Sie den Start auf When Booting.
  4. Connected Targets: Klicken Sie auf Add. Geben Sie die IP des SAN-Controllers ein.
  5. Discovery: Wählen Sie das gewünschte Target (IQN) aus.
  6. Authentication: Falls gefordert, geben Sie die CHAP-Credentials ein.

# 3. NFS Client-Anbindung

Dateifreigaben einbinden.

# Einrichtung via YaST

  1. sudo yast2 nfs.
  2. Add: Geben Sie den Hostnamen/IP des NFS-Servers und das entfernte Verzeichnis an.
  3. Mountpoint: Geben Sie an, wo die Daten lokal erscheinen sollen (z.B. /mnt/backup).
  4. Vorteil: YaST setzt automatisch die Mount-Option _netdev, damit der Bootvorgang nicht hängen bleibt, wenn das Netz noch nicht bereit ist.

# 4. Day-2 Operations: Multipathing (MPIO)

Redundanz für den Storage-Pfad.

Wenn Ihr Server zwei Netzwerkkarten zum iSCSI-Switch hat, sieht er die gleiche Disk doppelt. Dies führt zu Datenkorruption!

# Multipath aktivieren

sudo yast2 multipath
# oder via CLI
sudo mpathconf --enable --with_multipathd y

Der Dienst multipathd bündelt die Pfade zu einem logischen Device (z.B. /dev/mapper/mpatha). Formatieren Sie nur dieses Device, niemals die rohen /dev/sdX Disks!


# 5. Troubleshooting & “War Stories”

Wenn der Speicher verschwindet.

# Story 1: “Der hängende Boot (NFS)”

Symptom: Der SLES-Server bootet in die Emergency-Shell, weil ein NFS-Server in der Außenstelle offline ist. Ursache: Die Option defaults in der fstab wartet ewig. Lösung: Nutzen Sie x-systemd.automount in den NFS-Optionen. SLES bootet dann auch ohne NFS-Verbindung. Der Mount erfolgt erst bei echtem Zugriff.

# Story 2: “Das LUN-Resize Problem”

Symptom: Das SAN-System hat die Disk von 100GB auf 200GB vergrößert, aber SLES sieht immer noch die alte Größe. Ursache: Der iSCSI-Layer hat die Kapazitätsänderung nicht mitbekommen. Lösung: Führen Sie einen Rescan durch:

sudo iscsiadm -m node -T <target_iqn> -p <ip> --rescan
# Danach das Device (Multipath) aktualisieren:
sudo multipathd resize map mpatha

# 6. Fazit & Empfehlung

  • Sicherheit: Nutzen Sie immer CHAP-Authentifizierung für iSCSI im Firmennetz.
  • Performance: Aktivieren Sie Jumboframes (MTU 9000) auf allen Interfaces, die für Storage-Traffic genutzt werden.
  • Wartung: Prüfen Sie regelmäßig mit iscsiadm -m session, ob alle Pfade aktiv sind.

# Anhang: Cheatsheet

Aufgabe SUSE / CLI Befehl
Targets suchen iscsiadm -m discovery -t st -p <ip>
Einloggen iscsiadm -m node -l
Ausloggen iscsiadm -m node -u
Multipath Status multipath -ll
NFS Mounts sehen findmnt -t nfs4
YaST Module yast2 iscsi-client, yast2 nfs
RPC Status rpcinfo -p <server>