Datenmassen im Griff

Speicherplatz kann man eigentlich nie genug haben, und spätestens, wenn Videodaten ins Spiel kommen, steigt der Bedarf rasant. Zum Glück entwickelt sich die Festplattentechnik ebenso rasant weiter, sodass selbst für den privat genutzten PC das Terabyte keine Utopie mehr ist. Neben Hardware-Fragen wie der nach Anschlussmöglichkeiten für weitere Festplatten gehören zur Bändigung solcher Datenmassen auch Überlegungen zu Ausfallsicherheit und Backup.

vorlesen Druckansicht 47 Kommentare lesen
Lesezeit: 11 Min.
Von
  • Dr. Harald Bögeholz
Inhaltsverzeichnis

Wer heute einen aktuellen PC kauft, bekommt ein Viertel Terabyte Plattenplatz gleich zum Einstieg. Für Büroanwendungen reichen diese 250 GByte „ewig“, doch kommen Audio- oder Videodaten dazu, sieht das anders aus. Musikliebhaber tragen schnell einige zig Gigabyte MP3s zusammen, und ein Abenteuerurlaub mit der 6-Megapixel-Digicam spült weitere Gigabytes auf die Platte. Nutzt man den PC als Videorecorder oder als bequemes DVD-Archiv, so schmilzt auch der größte Berg freien Plattenplatzes schnell dahin.

Eine weitere 200-GByte-Platte nachzulegen, ist technisch kein Problem und finanziell im Rahmen: Sie kostet um die 100 Euro, und damit zeichnet der Videorecorder dann erst einmal wieder weitere 100 Stunden auf. Solange Hard- und Software keinen Ärger machen, ist die Welt also in Ordnung. Doch was, wenn nun doch einmal eine Festplatte ausfällt? Oder wenn ein Virus über die Platte fegt und das liebevoll gepflegte Filmarchiv ins Jenseits befördert? Für solche Fälle hätte man gern eine Versicherung.

Den bequemsten Schutz vor Datenverlust durch Festplattenausfall bietet eine Technik namens RAID - Redundant Array of Independent Disks. Wie alle Versicherungen ist auch diese nicht kostenlos: Sie erfordert den Einsatz zusätzlicher Festplatten, um die Daten im einfachsten Fall doppelt vorzuhalten (RAID 1) oder durch Paritätsinformationen zu schützen (RAID 5, siehe Kästen). Abgesehen von den Kosten für eine zusätzliche Festplatte ist RAID bereits billig zu haben: RAID 1 beherrschen bereits viele Mainboards, und einfache (Serial-)ATA-Hostadapter mit RAID-Funktion gibt es schon unter 100 Euro (siehe S. 86). Alternativ finden Linuxer bereits alles Nötige in ihrem Betriebssystem (siehe S. 96), und in Windows XP Professional lassen sich die eigentlich nur für die Server-Version gedachten RAID-Funktionen durch einen Trick freischalten (siehe S. 90).

Damit ist die RAID-Technik nicht nur großen Rechenzentren vorbehalten, sondern auch für Privatleute oder den kleinen Office-Server realisierbar und erwägenswert. Natürlich spielt ein Selbstbau-RAID aus zwei, drei Platten in einer anderen Liga als ein professionelles Array mit eigenständigem Controller, redundanten Netzteilen und SCSI oder Fibre Channel. Grundsätzlich haben Eingenbau- und Profi-RAID-Systeme jedoch ähnliche Eigenschaften.

Das Schöne an einem RAID-System ist, dass es seine Arbeit ständig und unauffällig im Hintergrund verrichtet. Einmal installiert, braucht man sich erst dann wieder darum zu kümmern, wenn tatsächlich ein Defekt auftritt. Die Kehrseite der Medaille: Es hilft nur bei Ausfall einer Festplatte (und nur einer) und bietet gegen alle anderen Arten von Datenverlust überhaupt keinen Schutz. Ob bösartiger Virus oder dusseliger Anwender: Beide können die Daten auf einem RAID genauso fix und unwiederbringlich löschen wie auf einer einfachen Festplatte.

Ein RAID erhöht also lediglich die Ausfallsicherheit und damit die Verfügbarkeit eines Systems, kann aber eine Datensicherung, neudeutsch Backup, nicht ersetzen. Die sollte aus Sicherheitsgründen auf einem Speichermedium erfolgen, das der PC nicht ständig im direkten Zugriff hat. In Frage kommen hierfür verschiedene wechselbare Datenträger wie Bänder, magneto-optische und optische Speichermedien, oder man benutzt wechselbare Festplatten oder einen Server im Netz, was letztlich auch auf Festplatten hinausläuft.

So banal das klingt: Das Entscheidende an einem Backup ist, dass man es tatsächlich macht. Damit es nicht bei guten Vorsätzen bleibt, muss es daher bequem, einfach und schnell gehen, und kosten darf es auch nicht die Welt. Denkt man über eine Sicherungsstrategie für Datenmengen im 100-GByte-Bereich nach, wie sie zum Beispiel beim privaten Video- oder Musik-Archiv anfallen, so landet man unweigerlich bei Festplatten als Backup-Medium. Magneto-optische und optische Speichermedien scheiden aus, weil sie schlicht zu klein sind: Um 100 GByte auf (einschichtige) DVD-R(W) zu brennen, braucht man über 20 Medien. Bandlaufwerke mit 100 GByte und mehr gibt es durchaus, doch schreckt hier eine Anfangsinvestition im vierstelligen Euro-Bereich für das Laufwerk (LTO: 100 GByte ab ca. 1500 Euro).

Eine externe 200-GByte-Festplatte mit FireWire- oder USB-Schnittstelle ist dagegen ab 150 Euro erhältlich - bei Selbsteinbau einer Platte in ein Leergehäuse sogar noch für ein paar Euro weniger. Auch eine herausnehm- oder wenigstens abschaltbare Festplatte im Wechselrahmen kommt als Backup-Medium in Betracht. Sie ist zwar schneller als eine FireWire- oder USB-Platte, doch weniger komfortabel. Von wenigen Ausnahmen abgesehen (siehe dazu auch den folgenden Artikel), kann man solche Wechselfestplatten nicht im laufenden Betrieb anstecken oder entfernen; mindestens ein Neustart ist erforderlich. Wechselrahmen sind nicht standardisiert; eine Platte im Wechseleinschub passt nur genau in den zugehörigen Rahmen. Eine USB- oder FireWire-Platte kann man auch mal eben zu einem Bekannten mitnehmen, um größere Datenmengen zu transportieren. Wer ohnehin ein Netzwerk betreibt, fährt am billigsten, indem er einen anderen Rechner als Speicherort für sein Backup nutzt und stattet ihn dazu gegebenenfalls mit einer zusätzlichen Festplatte aus.

Ganz gleich, ob externe oder interne Wechselplatte oder ein Netzwerklaufwerk: Wichtig beim Backup auf Festplatten ist ein disziplinierter und bewusster Umgang mit den Daten. Selbst produzierte Daten, die sehr wichtig und unersetzlich sind, sollte man öfter sichern und dabei nicht einfach immer das alte Backup überschreiben, sondern mehrere Versionen vorhalten. Das lässt sich leicht mit Hausmitteln bewerkstelligen, indem man immer einen neuen Ordner anlegt, beispielsweise nach Datum benannt. In [1] finden Sie eine kleine Batch-Datei für Windows, die das komfortabel erledigt und außerdem durch einen Vergleich mit den Originalen sicherstellt, dass die Kopie intakt ist. Damit geht das tägliche Backup der wichtigen Arbeitsdaten schneller als Zähneputzen.

Wirklich Wichtiges sollte man allerdings nicht immer auf denselben Datenträger sichern, denn wenn sich der PC ausgerechnet während dieses Vorgangs verabschiedet, wird dadurch ungünstigstenfalls auch der Backup-Datenträger beschädigt. Die meisten Anwender haben zum Glück nur wenige wirklich unersetzliche Daten, womit sich die obige Aussage, DVDs seien zu klein, relativiert: Das Wichtigste ab und zu mal auf eine CD oder DVD zu brennen und diese dann in den Schrank zu stellen und nicht wieder zu überschreiben, ist sicherlich eine gute Idee.

Die „großen Brocken“ wie die MP3-Sammlung oder die Lieblingsfilme sind in der Regel nicht ganz so schwer ersetzbar und ändern sich auch weniger oft. Hier wird man schon aus Platzgründen nicht mehrere Generationen vorhalten, sondern manches gar nicht sichern und seine wertvollsten Schätze einfach gelegentlich mal auf die Zweitplatte hinüberschieben. Damit sie dort tatsächlich in Sicherheit vor Viren und Bedienfehlern sind, muss man die Backup-Platte anschließend unzugänglich machen, indem man sie vom Rechner abzieht beziehungsweise die Netzwerkverbindung trennt.

Ob man bei einer externen Festplatte zu USB 2.0 oder FireWire greift, ist Geschmackssache und wird von der Schnittstellenausstattung des eigenen Rechners abhängen. Die Wandlerchips in aktuellen Festplattengehäusen erzielen bei beiden Schnittstellen ähnliche Übertragungsraten: Mit etwa 30 Megabyte pro Sekunde kann man rechnen. Das ist etwa halb so viel, wie eine direkt intern per (Serial) ATA angeschlossene Festplatte leistet, aber für Sicherungszwecke nicht schlecht. Eine USB-2.0-Festplatte läuft notfalls auch mal an einem älteren Rechner mit USB 1.1, dann allerdings wesentlich langsamer (nur 1 MByte/s). Wer sich nicht für eine Schnittstelle entscheiden mag, kauft im Zweifelsfall für einen geringen Aufpreis ein Festplattengehäuse oder ein Komplettgerät mit beiden. Externe Serial-ATA-Lösungen sind noch wenig verbreitet und nur in besonderen Fällen sinnvoll; mehr dazu im folgenden Artikel.

Bei der Einrichtung einer externen Platte sollte man kurz innehalten und sich überlegen, welche Betriebssysteme darauf zugreifen können sollen. Auch wenn man selbst nur Windows XP einsetzt, könnte es doch einmal sein, dass man die Platte zwecks Datenaustausch zu einem Bekannten mitnehmen möchte, der vielleicht Linux oder noch Windows 98 benutzt oder gar einen Mac hat. Dummerweise können Windows 98 und der Mac das Windows-Dateisystem NTFS nicht lesen, und Linux kann es noch nicht zuverlässig beschreiben. Umgekehrt kann Windows mit Bordmitteln weder die Mac- noch die Linux-Dateisysteme lesen.

Als gemeinsamer Nenner kommt daher nur FAT32 in Betracht. Windows 2000 und XP formatieren Partitionen allerdings nur bis zu einer Größe von 32 GByte mit diesem Dateisystem; darüber bieten sie nur NTFS an. Wenn sie aber eine größere FAT32-Partition auf einer Platte vorfinden, können sie durchaus damit umgehen. Das c't-Tool H2format, das über den Soft-Link zum kostenlosen Download bereitsteht, formatiert unter Windows 2000 und XP „beliebig“ große Partitionen mit FAT32.

Dazu legt man in der Datenträgerverwaltung zunächst eine Partition an, weist ihr einen Laufwerksbuchstaben zu und wählt „Partition nicht formatieren“. Auf der Kommandozeile formatiert anschließend der Befehl

H2format x: 

das angegebene Laufwerk mit FAT32. Power-User können dabei auch eine von der Vorgabe abweichende Clustergröße angeben; zu Risiken und Nebenwirkungen lesen Sie bitte die beiliegende Dokumentation. Wie groß eine FAT32-Partition maximal sein darf, darüber schweigt sich Microsoft leider aus beziehungsweise zieht sich auf die „offiziellen“ 32 GByte zurück.

Wir haben den Härtetest gemacht und Lacies Bigger Disk Extreme, eine FireWire-Platte mit 1,6 TByte, am Stück mit FAT32 formatiert. Unter Windows XP ließ sie sich anschließend ohne Probleme nutzen. Auch Linux (Knoppicillin, Kernel 2.4.27) hatte keine Schwierigkeiten, abgesehen von der auch bei kleineren Platten geltenden Einschränkung, dass es nicht mit Dateien größer als 2 GByte umgehen kann (FAT32 ermöglicht bis zu 4 GByte Dateigröße). Selbst Windows 98SE arbeitete mit der Riesenplatte zusammen, allerdings funktionierten hier weder Scandisk noch die Defragmentierung - angeblich aus Speichermangel. Mac OS X wollte in früheren Versionen keine FAT-Partitionen mit mehr als 128 GByte mounten. Die aktuelle Version 10.3.7 hatte damit keine Probleme und arbeitete ohne Murren mit dem 1,6-TByte-Laufwerk zusammen.

Auch ohne „extreme“ Platten wie das FireWire-Laufwerk von Lacie (das intern übrigens aus vier Festplatten à 400 GByte besteht) kann in einem PC eine ganze Menge Speicherkapazität zusammenkommen, wenn man im Laufe der Zeit weitere Festplatten einbaut, um den steigenden Bedarf an Plattenplatz zu befriedigen. Die Hardware-Voraussetzungen hierfür beleuchtet der Artikel auf den folgenden Seiten. Softwareseitig haben die aktuellen Windows-Versionen und Linux für den Umgang mit vielen Festplatten allerlei auf dem Kasten: Neben den bereits erwähnten RAID-Techniken bieten sie eine Virtualisierungsschicht zur Verwaltung logischer Datenträger, die sich flexibel auf physisch vorhandene Festplatten verteilen lassen. Mehr dazu in den Artikeln ab Seite 90 (Windows) und 96 (Linux).

[1] Jo Bager, Axel Vahldiek, Backup per Knopfdruck, Eigene Dateien unter Windows sichern, c't 8/03, S. 160

http://ct.de/0503082

"Datenmassen im Griff"
Weitere Artikel zum Thema Festplatte finden Sie in der c't 3/2005:
Serial ATA, Wechselrahmen, RAID und Co. S. 86
Dynamische Datenträger unter Windows S. 90
RAID und Logical Volume Management unter Linux S. 96

(bo)