Gigabytes im Überfluss

Die technische Entwicklung und der Preisverfall auf dem Festplattenmarkt machen es möglich: Heute kann jeder PC-Besitzer über Festplattenkapazität verfügen, die noch vor zehn Jahren allenfalls in Großrechneranlagen zu finden war. Die Gigabyte-Schwemme eröffnet ganz neue Perspektiven im Umgang mit Daten aller Art.

vorlesen Druckansicht 26 Kommentare lesen
Lesezeit: 11 Min.
Von
  • Laurenz Weiner
Inhaltsverzeichnis

Im Schatten immer leistungsfähigerer und spektakulär vermarkteter Prozessoren hat auch der technische Fortschritt bei Festplatten eine geradezu atemberaubende Entwicklung vollzogen. Laufwerke mit 20, 30, 40 und aktuell über 70 Gigabyte Kapazität sind heute im Angebot jedes Händlers zu finden - und das zu Preisen, die vor gar nicht langer Zeit ebenso undenkbar schienen wie die Größe der Platten selbst. Auch Einstiegsrechner werden zunehmend mit Festplatten über zehn Gigabyte angeboten. Wer sich noch an die 1983 gigantisch anmutende 10-Megabyte-Platte eines IBM-XT-Rechners erinnern kann, steht dieser tausendfach größeren Festspeichermasse einigermaßen staunend gegenüber.

1995 durfte man für ein Megabyte einer IDE-Platte noch 45 bis 50 Pfennig zahlen, bei einer SCSI-Platte sogar zwischen 50 und 80 Pfennig, je nach Narrow- oder Wide-SCSI-Variante. Damals waren IDE-Festplatten um ein Gigabyte Stand der Durchschnittstechnik, die bei 3600 oder 4500 Umdrehungen pro Minute und gewöhnlich 64 bis 256 Kilobyte Cache mittlere Transferraten von drei bis fünf Megabyte pro Sekunde erreichten. Lediglich SCSI-Platten mit Kapazitäten über vier Gigabyte liefen bereits mit 5400 oder gar 7200 Umdrehungen pro Minute und Datenpuffern von bis zu einem Megabyte, was ihnen teilweise zu durchschnittlichen Transferraten von mehr als sechs Megabyte pro Sekunde verhalf.

Wer heute die Anzeigen großer Versandhändler durchblättert, stößt auf Preise von nur noch ein bis zwei Pfennig pro Megabyte für EIDE-Festplatten, die ungefähr im umgekehrten Verhältnis dieser Preisentwicklung auf die bereits genannten Kapazitäten gewachsen sind. Der Megabyte-Preis ist seit 1995 jährlich um fast 50 Prozent gesunken, gerade weil sich die Kapazität innerhalb der typischen Standardpreisgruppen von Jahr zu Jahr nahezu verdoppelte. Gleichzeitig haben sich gegenüber 1995 die Leistungswerte deutlich verbessert und denen von SCSI-Platten angenähert. Heute übliche Ultra-ATA/66-Festplatten laufen mit 5400 oder 7200 Umdrehungen pro Minute. Sie liefern bei Cachegrößen von typischerweise mehr als einem Megabyte mittlere Transferraten von 20 bis über 30 Megabyte pro Sekunde. Die mittlere Zugriffszeit hat sich seit 1995 vor allem durch die verbesserte Steuerung und verringerte Masse der Kopfführung sowie höhere Umdrehungszahlen nahezu halbiert. Sie sank von typischerweise 14 bis 20 auf heute gängige sieben bis zehn Millisekunden.

Exponentiell fallende Preise pro Megabyte kennzeichnen die Entwicklung auf dem Festplattenmarkt. SCSI-Platten kosten heute fast doppelt soviel wie vergleichbare EIDE-Laufwerke.

SCSI-Platten liegen auch heute noch preislich über den EIDE-Massenspeichern, obwohl sie sich im Wesentlichen nur im Interface und von ihren Billig-Pendants unterscheiden. Die Leistungsunterschiede sind die bis zu zweimal höheren Preise für SCSI-Platten gleicher Größe auf den ersten Blick kaum noch wert. Allerdings werden Festplatten mit kompromissloser Spitzenperformance, insbesondere mit geringeren Zugriffszeiten, typischerweise zuerst auf dem SCSI-Markt eingeführt, bevor auch vergleichbare EIDE-Platten erhältlich sind. Mit SCSI-Produkten, immer noch gedacht für Highend-Systeme, Datenbank- und Web-Server, wollen und können die Hersteller pro Stück anscheinend mehr Geld verdienen als mit den EIDE-Platten für den Massenmarkt.

Das Preis/Leistungs-Verhältnis der heute marktüblichen Festplatten ist zum Teil sehr unterschiedlich. Ein Vergleich der Leistungsdaten gleich großer Platten verschiedener Hersteller lohnt in jedem Fall und bewahrt vor Enttäuschungen. Das in dieser Ausgabe enthaltene ‘Platten-Karussell’ liefert in bewährter Manier die notwendigen Informationen zu fast allen auf dem Markt erhältlichen Festplatten (c't 16/2000 ab Seite 82).

Das exponentielle Wachstum der Plattenkapazitäten wäre ohne eine implosionsartige Erhöhung der Speicherdichten nicht möglich gewesen. Seit den frühen neunziger Jahren ist eine jährliche Steigerung der Bitmenge pro Flächeneinheit um durchschnittlich 60 Prozent zu beobachten. 1995 fanden noch rund 60 Millionen Bit pro Quadratzentimeter Plattenfläche Platz. Heutzutage müssen sich bei marktüblichen Harddisks für Desktopsysteme bereits über zwei Milliarden Bit diese Fläche teilen. Bei Festplatten kleinerer Bauform drängeln sich auch schon mal drei Milliarden und mehr Informationseinheiten pro Quadratzentimeter.

Die heutigen Speicherdichten werden immer noch mit Hilfe der 1997 eingeführten Giant-Magneto-Resistive-Köpfe (GMR) erreicht. Bei aktuellen GMR-Köpfen sind die sensitiven Strukturen bereits unter 500 Nanometer klein und erlauben die Auflösung von rund 12 000 Spuren pro Zentimeter, die bei einer Breite von typischerweise 0,38 Nanometer 150 000 Bit pro Zentimeter aufnehmen können.

Und immer noch ist die per induktivem Aufzeichnungsverfahren und magnetoresistiven Leseverfahren nutzbare maximale Datendichte längst nicht ausgeschöpft. Zehn Milliarden Bit auf einem Quadratzentimeter scheinen mit Hilfe magnetischer Nanopartikel in nicht weiter Ferne zu liegen [1|#lit1]. Trotz immer wieder postulierter absoluter Grenzwerte der magnetischen Datenspeicherung darf zumindest in nächster Zeit auch weiterhin mit exponentiell wachsenden Kapazitäten und sinkenden Megabytepreisen gerechnet werden.

Die Vorteile dieser riesigen Ressourcen liegen auf der Hand. Die gelegentlich zwei und mehr CD-ROMs füllenden modernen Betriebssysteme und Softwarepakete kommen zwar im Vergleich zu ihren Urahnen als wahre Speicherfresser daher. Doch selbst nach der vollständigen Installation von Windows 98 oder gar 2000 (700 MByte!), einem gängigen Officepaket, Grafik- und Bildbearbeitungssoftware und anderen nützlichen Dingen für die alltägliche Büroarbeit bleibt auf Festplatten heutiger Dimension mehr als genug Platz für Daten und Programme aller Art.

Die förmlich zur Verschwendung einladenden Festspeichermassen stellen den PC-Benutzer allerdings auch vor Probleme, die einst eher Systemadministratoren von Großrechneranlagen beschäftigten. Die komfortable und zugleich sichere Datenverwaltung auf großen Platten verlangt nach Überlegungen, die mit der geschickten Aufteilung der Platte in Partitionen und logische Laufwerke beginnen und mit dem Einsatz von Tools zur kontinuierlichen Datenpflege und -sicherung enden.

Was liegt bei dieser Speicherfülle näher, als nebenbei auch mal in andere Betriebssysteme und alternative Software hineinzuschnuppern, um den Macken des gewohnten Standardsystems zu entfliehen. Software installieren und ausprobieren, was das Internet hergibt, wird mit aktuellen Rechnern eher durch die Download-Kosten als durch die Kapazität der Festplatte beschränkt.

Wer häufig Software nur ausprobiert und danach auch wieder los werden will, kennt die Probleme, die durch nicht restlos entfernte Programmteile entstehen können. Da weiß man es zu schätzen, wenn das Betriebssystem gleich zweimal auf der Platte installiert vorliegt und somit wenigstens ein System sorgsam vor unsauber programmierter Software abgeschirmt und auf die notwendigsten Dinge beschränkt bleiben kann. Auf diese Weise erhält man die eigentliche Arbeitsumgebung klein und schlank und kann auf dem zweiten System nach Herzenslust experimentieren.

Selbst der Umgang mit den riesigen Dateien aus der 3D-, Audio- und Videobearbeitung wird bei heutigen Plattenverhältnissen zum gern und vielfach praktizierten Vergnügen, sofern auch die RAM-Größe stimmt. Festplatten oberhalb von zehn Gigabyte erlauben auch dem Heimanwender semiprofessionelle Videobearbeitung am PC. Was früher nur mit speziellen Plattensystemen in hoher Qualität gelang, kann heute jeder mit entsprechender Software und minimalen Hardwareerweiterungen auch auf seiner Standarddisk leisten. Ähnliches gilt für den Einsatz des PC als Tonstudio und MP3-Archiv.

Angesichts der typischen Größen von Audio- und Videodateien wirken die einstmaligen Dateigiganten aus der klassischen 2D-Bildbearbeitung heute eher bescheiden. Das private Fotoarchiv auf dem PC ist deshalb mit den fast jeder Bildbearbeitungssoftware beiliegenden Archivierungsprogrammen auf gängigen Plattengrößen selbst in höchster Qualität kein technisches Problem mehr. Die sinkenden Preise von Scannern und digitalen Kameras bei gleichzeitig steigender Bildqualität legen es nahe, gerade dieses Aufgabenfeld am heimischen PC zu beackern.

Häufig ist es von Vorteil, den gesamten Inhalt bestimmter CD-ROMs auf der Festplatte abzulegen, um auf deren Daten schnell und unkompliziert ohne CD-ROM-Suche und -Wechsel zugreifen zu können. Viele Spiele praktizieren das aus Performancegründen von sich aus, weshalb Spiele-Enthusiasten auch mit den größten Festplatten schnell an die Grenzen ihres PC-Systems geraten und als erste nach noch größeren Desktop-Platten verlangen.

Je nach Bedarf lassen sich die Inhalte unterschiedlichster Daten-CD-ROMs, die für die tägliche Arbeit am PC immer wieder benötigt werden, problemlos auf modernen Platten unterbringen. Grafiker freuen sich über Clipart-Galerien, Sekretärinnen über Telefonverzeichnisse, Juristen über Gesetzestexte, Handlungsreisende über Karten von Routenplanern, die ständig und schnellstmöglich ladbar bereitstehen.

Wer absehen kann, häufiger seine Windows-Installation verändern zu müssen, zum Beispiel nach Hardware-Experimenten, sollte lieber gleich das gesamte Installationsverzeichnis des Betriebssystems auf die Platte holen, um den lästigen Umweg über die CD-ROM zu vermeiden - Platz ist ja genug vorhanden.

Der eleganteste und universellste Weg zur Steigerung des Komforts im Umgang mit CD-ROMs dürfte die Einrichtung virtueller CD-ROM-Laufwerke mittels eines entsprechenden Tools wie beispielsweise Virtual CD sein. Die auf die Festplatte übertragenen Verzeichnisstrukturen und Daten können danach jeweils unter einem neuen Laufwerksbuchstaben angesprochen werden, ohne zuvor selbst Hand an die Partitionierung der Platte legen zu müssen - DOS-Veteranen dürften sich an die RAM-Disk früherer Diskettenzeiten erinnert fühlen.

Virtuelle CD-ROM-Laufwerke können gerade im Umgang mit Notebooks auf Reisen zur spürbaren Entlastung führen, da sie in vielen Fällen die Mitnahme der CD-ROMs mitsamt Laufwerk erübrigen. Wer nur selten mit übergroßen Audio- und Videodateien zu tun hat, kann auf diese Weise vor allem die riesigen Reserven seiner Desktop-Festplatte solange sinnvoll nutzen, bis sie dann doch irgendwann anderen Zwecken dienen müssen.

Große Festplatten per Partitionierung in kleinere Einheiten zu zerlegen verspricht aus Gründen der Festplattenperformance und Datensicherung Vorteile. Kleinere Laufwerke lassen sich naturgemäß schneller defragmentieren, sichern und wieder herstellen - und bieten einen größeren Schutz vor vollständigem Datenverlust.

Auch wer mit dem Einsatz mehrerer Betriebssysteme - inklusive doppelt installierter, eventuell auch nur auf Zeit - liebäugelt, der sollte sich zunächst Gedanken über die sinnvolle Aufteilung seiner Plattenkapazität für derartige Experimente machen. Denn die Systeme stellen dem arglosen Nutzer unterschiedliche Fallen, wenn sie in einem Rechner aufeinander treffen. Mehr dazu in c't 16/2000 ab Seite 92.

Über kurz oder lang sammeln sich auf großen Platten auch entsprechend große Datenmengen in Form Tausender Dateien und Verzeichnisse an. Hier den Überblick zu behalten fällt mit den üblichen Beigaben der Betriebssysteme nicht leicht. In dieser Leistungs- und Komfortnische versuchen zahlreiche Anbieter entsprechender Tools Fuß zu fassen. Auch in der Share- und Freeware-Ecke wimmelt es von Systemtools aller Art, die mehr oder weniger spezielle Aufgaben im Umgang mit Festplatten lösen wollen.

Entsprechende Empfehlungen finden sich in c't 16/2000 ab Seite 100 ebenso wie wichtige Anmerkungen zur Datensicherung auf großen Festplatten. Denn die ungeliebte und vielfach verdrängte Datensicherung erhält angesichts der auf großen Festplatten lagernden Datenmengen eine noch größere Bedeutung.

Wer einmal nach einem Totalverlust aller Daten allein vier Gigabyte Programmdateien inklusive Betriebssystem vollständig neu auf eine Festplatte installieren muss, wird es schnell bereuen, nicht früher über eine Backup-Strategie nachgedacht zu haben, die über die bloße unregelmäßige Vervielfältigung einzelner Datendateien hinausgeht. Die günstigen Fest- und Wechselplattenpreise ermöglichen heute nach dem individuellen Sicherheitsanspruch differenzierbare Backup-Verfahren, deren Komfort weit über dem des klassischen Bandlaufwerks liegt. Folgen Sie unseren Anregungen, damit ihre Daten nicht im Speicherüberfluss baden gehen. (law)

[1] Dr. Wolfgang Stieler, Ein Körnchen Information, Magnetische Nanopartikel für mehr Festplattenkapazität, c't 8/2000, S. 40 (ole)