Storage ist weit mehr als nur Festplattenkapazität. In jeder IT-Infrastruktur – vom Start-up-Serverraum bis zum Enterprise-Rechenzentrum – entscheidet die Speicherarchitektur maßgeblich über die Performance (IOPS, Latenz) und die Verfügbarkeit deiner Anwendungen. Flaschenhälse im Storage-Bereich bremsen selbst die schnellsten CPUs aus.
Gleichzeitig stehen IT-Verantwortliche vor dem Dilemma der wachsenden Datenflut: Wie skaliert man effizient, ohne das Budget zu sprengen oder die Verwaltungskomplexität unnötig zu erhöhen? Die Antwort liegt oft in der Wahl der richtigen Architektur für den richtigen Workload.
In diesem Artikel zerlegen wir die drei gängigsten Speicherkonzepte in ihre technischen Einzelteile: DAS (Direct Attached Storage), NAS (Network Attached Storage) und SAN (Storage Area Network). Wir analysieren Funktionsweisen, Protokolle und Use-Cases, damit du entscheiden kannst, welche Technologie – oder welche Kombination – am besten in deine Umgebung passt.

Warum die Storage-Wahl über die Performance entscheidet
Bevor wir in die Protokolle und Topologien eintauchen, kurz zum „Warum“: Storage ist in virtualisierten Umgebungen oft der entscheidende Flaschenhals. Während CPU und RAM stetig schneller werden, bremst ein falsch dimensioniertes oder architekturell unpassendes Storage-System die gesamte Infrastruktur aus.
Es geht nicht mehr nur darum, „Daten irgendwo abzulegen“. Unterschiedliche Datentypen stellen völlig unterschiedliche Anforderungen an das Backend:
- Datenbanken und VMs benötigen niedrige Latenzen und hohe IOPS (Block-Storage).
- Fileserver und Archive brauchen hohen Durchsatz und kostengünstige Skalierbarkeit (File-Storage).
Eine Fehlentscheidung in der Architekturphase rächt sich später doppelt: Durch schlechte Applikations-Performance, verletzte SLAs oder – noch schlimmer – durch komplexe, fehleranfällige Migrationsprojekte, wenn das gewählte System bei steigender Datenlast nicht mehr skaliert. Wer heute Storage plant, muss Performance, Verfügbarkeit (HA) und zukünftiges Wachstum (Scale-Up vs. Scale-Out) gegeneinander abwägen.

Die drei großen Architekturen: DAS, NAS und SAN
Wenn wir über Storage-Design sprechen, landen wir zwangsläufig bei der Frage der Anbindung. Die Topologie bestimmt nicht nur das Kabel, das du steckst, sondern vor allem das Protokoll, das gesprochen wird. Für Administratoren ist die wichtigste Unterscheidung meist: Block-Level vs. File-Level.
- Greift dein Server auf eine „rohe“ Festplatte zu und formatiert diese selbst (Block)?
- Oder greift er auf einen fertigen Ordner zu, den ein anderes System verwaltet (File)?

Hier ist der direkte Vergleich der drei Konzepte, die du in freier Wildbahn triffst:
| Merkmal | DAS(Direct Attached Storage) | NAS(Network Attached Storage) | SAN(Storage Area Network) |
| Konzept | 1:1 Verbindung. Der Speicher hängt direkt am Server (intern oder per Kabel). | Speicher wird im LAN (Ethernet) bereitgestellt. Ein spezialisierter „Filer“ teilt Daten. | Dediziertes Hochleistungs-Netzwerk (Fibre Channel oder iSCSI) für Speicherverkehr. |
| Zugriffsebene | Block-Level: Der Server sieht eine lokale Disk/Volume und verwaltet das Dateisystem selbst (z. B. NTFS, ext4). | File-Level: Der NAS-Filer verwaltet das Dateisystem. Der Client sieht nur Ordner/Freigaben. | Block-Level: Der Server sieht eine „lokale“ Disk (LUN), obwohl diese physisch entfernt im Rack steht. |
| Protokolle | SATA, SAS, NVMe, USB | SMB/CIFS (Windows), NFS (Linux/Unix) | Fibre Channel (FC), iSCSI, FCoE, NVMe-oF |
| Performance | Sehr hoch: Keine Netzwerk-Latenz, direkter Bus-Zugriff. | Mittel bis Gut: Abhängig von LAN-Bandbreite und Overhead der Protokolle (TCP/IP). | Exzellent: Optimiert auf hohen Durchsatz und niedrige Latenz bei massiven IOPS. |
| Vorteile | • Einfachste Einrichtung (Plug & Play) • Günstig • Keine Netzwerk-Abhängigkeit | • Einfaches Sharing (Teamarbeit) • Zentrales Management • Plattformunabhängig (Win/Lin/Mac) | • Höchste Verfügbarkeit (Multipathing) • Live-Migration von VMs möglich • Skalierbarkeit im Enterprise-Maßstab |
| Nachteile | • „Silo-Bildung“: Daten gehören nur einem Host • Schwer zu skalieren • Keine Hochverfügbarkeit bei Server-Ausfall | • Performance leidet bei Netzwerklast • Nicht ideal für Datenbanken (wegen Latenz/Protokoll) | • Hohe Kosten (Hardware/Lizenzen) • Komplexes Management (LUNs, Zoning) • Erfordert Spezialwissen |
| Typischer Use-Case | Boot-Laufwerke, Einzelserver, lokale Caches, isolierte Testsysteme. | Fileserver, User-Homes, Backups, Archive, Media-Streaming. | Virtualisierung (VMware/Hyper-V Cluster), ERP-Datenbanken, Mission-Critical Apps. |
Hinweis: Die Grenzen verschwimmen zunehmend. Moderne NAS-Systeme (wie von Synology oder QNAP) bieten oft auch iSCSI-Targets an (Block-Level über LAN) und fungieren so als „Mini-SAN“ für kleine Cluster. Umgekehrt bieten Enterprise-SANs oft NAS-Head-Units an (Unified Storage). Für die Architektur-Entscheidung bleibt die Kernfrage jedoch: Brauche ich geteilte Dateien (NAS) oder geteilten Block-Speicher für Performance/Cluster (SAN)?
Welcher Storage passt zu deinem Workload?
Entscheidungshilfe: Welcher Storage passt zu deinem Workload?
Die Frage „DAS, NAS oder SAN?“ lässt sich nicht pauschal beantworten. Es gibt kein „besser“ oder „schlechter“, nur ein „passend“ für den jeweiligen Use-Case.
- Ein Start-up, das Word-Dokumente teilt, wird mit einem komplexen Fibre-Channel-SAN scheitern (an Kosten und Know-how).
- Ein Enterprise-Cluster, der 500 VMs hostet, wird mit einem einfachen NAS über Gigabit-LAN nicht glücklich (wegen Latenz und fehlendem Multipathing).
Um die richtige Architektur zu wählen, solltest du eine ehrliche Bedarfsanalyse durchführen. Hier sind die „Gretchenfragen“ für deine Planung:

Die Checkliste zur Auswahl
- Datentyp & Zugriff: Handelt es sich um unstrukturierte Dateien (PDFs, Bilder -> NAS) oder um strukturierte I/O-Daten, die ein Dateisystem auf Blockebene erwarten (SQL-Datenbanken, VM-Disks -> SAN/DAS)?
- Performance-Metriken: Was ist kritischer? Hoher sequenzieller Durchsatz (z. B. Video-Streaming -> NAS/DAS) oder minimale Latenz bei Random-I/O (z. B. OLTP-Datenbanken -> SAN/Flash-DAS)?
- Skalierbarkeit & Wachstum: Reicht es, eine Festplatte nachzustecken (Scale-Up), oder muss das System linear mit der Last wachsen, indem Nodes hinzugefügt werden (Scale-Out)?
- Verfügbarkeit (HA): Darf der Storage offline gehen, wenn der Server gewartet wird (DAS)? Oder muss der Speicher den Ausfall eines Controllers oder Switches ohne Unterbrechung überleben (SAN mit Multipathing)?
- Budget vs. Admin-Aufwand: Hast du das Budget und das Personal, um ein Fibre-Channel-Netzwerk zu warten? Falls nicht, sind iSCSI (SAN über Ethernet) oder High-End-NAS oft der bessere Mittelweg.
Der Blick in die Zukunft: Hybrid Cloud und SDS
Die klassische Trennung der Hardware-Silos weicht zunehmend auf. Moderne IT-Strategien setzen auf Flexibilität und Agilität. Zwei Trends dominieren dabei aktuell den Markt:
1. Hybride Architekturen & Cloud Tiering
Niemand möchte teuren NVMe-Speicher für zehn Jahre alte Archiv-Daten verschwenden. Moderne Storage-Systeme nutzen daher Tiering: Heiße Daten liegen lokal auf schnellem Flash-Speicher (On-Premises), während kalte Daten oder Backups automatisiert in die Cloud (z. B. S3, Azure Blob) ausgelagert werden. Das verbindet die Performance vor Ort mit der unendlichen Skalierbarkeit der Cloud.
2. Software-defined Storage (SDS)
Hier findet ein Paradigmenwechsel statt. Anstatt teure, proprietäre Hardware-Appliances zu kaufen, verlagert sich die Intelligenz komplett in die Software. SDS-Lösungen (wie VMware vSAN, Ceph oder Microsoft Storage Spaces Direct) abstrahieren die physischen Festplatten von Standard-Servern (Commodity Hardware) und bündeln sie zu einem logischen Speicherpool.
- Der Vorteil: Du bist nicht mehr an die Hardware-Zyklen eines Herstellers gebunden und kannst Hardware unterschiedlicher Generationen mischen.

Fazit: Keine „One-Size-Fits-All“-Lösung
DAS, NAS und SAN sind keine konkurrierenden Konzepte, die sich gegenseitig ablösen – sie sind unterschiedliche Werkzeuge in deinem Admin-Werkzeugkasten. Wer die physikalischen und logischen Unterschiede (Block vs. File, Latenz vs. Durchsatz) verstanden hat, trifft keine Bauchentscheidungen mehr, sondern architektonische Weichenstellungen.
Die Realität in modernen Rechenzentren ist oft hybrid:
- Das SAN befeuert die Datenbank-Cluster.
- Das NAS kümmert sich um User-Daten und Backups.
- Das DAS erlebt durch Software-defined Storage (vSAN) eine Renaissance in Hyperkonvergenten Infrastrukturen (HCI).
Entscheidend ist, dass du dich nicht von Marketing-Versprechen leiten lässt („Unser All-Flash-Array löst alle Probleme“), sondern von deinen Workloads. Denn in Zeiten exponentiellen Datenwachstums (Data Gravity) wird Speicher zur kritischsten Komponente: Wenn die CPU wartet, ist der Server langsam. Wenn der Storage steht, steht das Unternehmen.
Das Wichtigste im Schnelldurchlauf
Für den schnellen Überblick hier die Faustregeln für deinen nächsten Projekt-Entwurf:
- Brauchst du rohe Performance und HA für VMs/Datenbanken?
👉 SAN (Fibre Channel/iSCSI) ist dein Freund. - Wollen Benutzer Dateien teilen oder brauchst du ein Backup-Ziel?
👉 NAS ist die flexible Wahl. - Hast du einen einzelnen Server oder baust einen SDS-Cluster (z. B. vSAN)?
👉 DAS ist kosteneffizient und schnell.
Investiere Zeit in die Planung. Eine Speicher-Migration im laufenden Betrieb ist eine „Operation am offenen Herzen“ – besser, du wählst gleich die richtige Architektur.
weitere Links
| TITEL & Beschreibung | URL |
| BSI IT-Grundschutz: Baustein SYS.1.2.2 Windows Server Empfehlungen des BSI zur sicheren Konfiguration von Servern, einschließlich der Aspekte zur Datenspeicherung und Dateidienste. | https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Standards-und-Zertifizierung/IT-Grundschutz/IT-Grundschutz-Kompendium/IT-Grundschutz-Bausteine/Bausteine_Download_Edition_node.html |
| Red Hat: Was ist Software-Defined Storage (SDS)? Eine technische Erläuterung zum Konzept der Entkopplung von Software und Hardware, passend zum Ausblick-Kapitel des Artikels. | https://www.redhat.com/de/topics/data-storage/software-defined-storage |
This post is also available in:
Deutsch

