c't 6/2021
S. 112
Wissen
RAID im NAS

RAID-Riesen

Multi-Terabyte-Festplatten zuverlässig im (NAS-)RAID betreiben

Schon günstige Netzwerk­speicher (NAS) und kleine ­Server lassen sich mit Fest­platten für Dutzende Terabyte RAID-­Speicherplatz bestücken. Dabei­ drohen Probleme, die sich durch geschickte Konfi­guration, ­Wartung sowie kluge Wahl der Platten vermeiden lassen.

Von Christof Windeck

Festplatten wachsen immer weiter – nicht äußerlich, da bleibt es beim 3,5-Zoll-Format, aber hinsichtlich der Speicherkapazität. Laufwerke mit 18 TByte gibt es im ­Einzelhandel für unter 400 Euro, welche mit 20 TByte sind bald zu erwarten [1]. Folglich kann man schon in einer 350-Euro-NAS-Box einen RAID-Verbund mit riesiger ­Bruttokapazität einrichten. Doch das sollte man mit Bedacht tun, weil man sich leicht Schwierigkeiten einbrockt, die im schlimmsten Fall Daten vernichten.

Kopierdauer je nach Datenmenge
Datenmenge Kopierdauer in Stunden bei mittlerer Datentransferrate von
80 MByte/s 100 MByte/s 150 MByte/s 200 MByte/s
4 TByte 14 h 11 h 7 h 6 h
8 TByte 28 h 22 h 15 h 11 h
12 TByte 42 h 33 h 22 h 17 h
20 TByte 69 h 56 h 37 h 28 h
30 TByte 104 h 83 h 56 h 42 h
50 TByte 174 h 139 h 93 h 69 h
Werte zum Vergleich: NAS-Festplatte 100 bis 280 MByte/s, SATA-SSD bis 560 MByte/s, USB 3.0 (3.2 Gen 1) bis 450 MByte/s, Ethernet 1 GBit/s bis 110 MByte/s

Im Wesentlichen gibt es drei Problemquellen: Erstens bremst die im Vergleich zur Kapazität kümmerliche Datentransferrate der einzelnen Platten von höchstens 280 MByte pro Sekunde viele NAS-­Funktionen aus. Die Reparatur eines RAID-­Verbunds mit 50 TByte kann beispielsweise mehr als zwei Tage dauern, in denen das System keine Redundanz aufweist, deutlich träger reagiert und ständig unter Volllast mit den Lüftern rauscht. Zweitens wächst mit der Kapazität das Risiko, dass unkorrigierbare Lesefehler zu Datenverlusten führen (dazu unten mehr). Und drittens kann bei Festplatten mit dem Aufzeichnungsverfahren Shingled Magnetic Recording (SMR) die erwähnte RAID-­Reparatur scheitern.

Letztlich gibt es nur ein sicheres Mittel, um für solche Probleme gewappnet zu sein: Regelmäßige Backups auf mehreren anderen Datenträgern, von denen möglichst noch einer an einem anderen Ort lagert. Doch dabei kommt wiederum das erste Problem ins Spiel: Das vollständige Backup eines 50-TByte-Volumes auf USB-Platten dauert drei Tage. Effizientere Strategien wie inkrementelle Backups oder die Sicherung von Snapshots auf ein zweites NAS bringen zwar Abhilfe, verlangen aber Planung und Wartung. In jedem Fall kosten Backups Geld, sowohl für zusätzliche Hardware als auch für den zum Betrieb nötigen Strom. Anders gesagt: Wer Daten zuverlässig speichern möchte, muss über die Kosten und den Wartungsaufwand für das eigentliche Speichersystem hinausdenken.

Profis machens anders

Ein Blick auf Speichersysteme für Profis hilft zu verstehen, wo die Schmerzpunkte bei kleinen Servern und NAS für Privatleute liegen. Denn letztere sind nicht ­einfach verkleinerte oder abgespeckte Varianten der Speichersysteme für Rechenzentren, die oft mehrere Petabyte an Da­ten bereithalten. Derartige Storage­-Systeme arbeiten in mehreren entscheidenden Punkten grundlegend anders und viele dieser Funktionen lassen sich bisher nicht mit bezahlbarer, stromsparender, kompakter und leiser Hardware für den Hausgebrauch realisieren.

Profi-Speichersysteme erreichen wesentlich höhere Datentransferraten, was nicht nur normale Zugriffe darauf beschleunigt, sondern auch Wartungs- und Reparaturfunktionen. Dazu setzt man beispielsweise besonders schreibfeste NVMe-SSDs ein sowie Netzwerkadapter mit 10-GBit/s-Ethernet (10GE) oder gar 25GE und darüber. Dafür wiederum braucht man Prozessoren mit vielen schnellen PCIe-Lanes. Das alles ist teuer, schluckt schon im Leerlauf locker einige Hundert Watt Leistung und benötigt laute Lüfter.

Der eigentliche Witz moderner Speichersysteme liegt aber in deren Konzept und Software. Sogenannte Scale-Out-Systeme bestehen aus mehreren Servern mit eingebauten Speichermedien und schnellen Netzwerkkarten. Durch die Zusammenschaltung mehrerer solcher Module lassen sich drei Ressourcen gleichzeitig vergrößern: Speicherkapazität, Datentransferrate und Redundanz. Bei letzterer hat man sich längst vom klassischen RAID verabschiedet und nutzt beispielsweise Erasure Coding, um Daten flexibel auf mehrere Speichermedien in unterschiedlichen Systemen zu verteilen – und zwar blockweise und nicht wie bei RAID in Abhängigkeit von der Einzelkapazität der beteiligten Datenträger. Das schützt die Daten besser gegen Ausfälle einzelner Komponenten.

Kommentare lesen (9 Beiträge)