zurück zum Artikel

Notaufnahme

| Dr. Oliver Diedrich, Christian Rabanus

Kein Computerbenutzer denkt gerne ĂŒber das Thema Datensicherung nach - es wird schon nichts passieren, lautet die Devise. Aber spĂ€testens, wenn das Kind in den Brunnen gefallen ist und wichtige Daten verloren scheinen, rĂ€cht sich die Sorglosigkeit bitter. Doch mit ein bisschen Wissen und einigen einfachen Vorsichtsmaßnahmen verliert auch der Daten-GAU viel von seinem Schrecken.

Die Horrorvorstellung eines jeden PC-Anwenders: Man drĂŒckt den Einschaltknopf, der Monitor springt an, die BIOS-Meldungen erscheinen auf dem Schirm - und dann nichts mehr: Statt des vertrauten Klackerns der Festplatte bestenfalls noch eine Fehlermeldung, und der Rechner steht. So etwas passiert natĂŒrlich zwei Tage vor dem Abgabetermin der Diplomarbeit oder am Morgen der wichtigen PrĂ€sentation. Und das letzte Backup ... welches Backup?

Datenverlust heißt das Damoklesschwert der Moderne, das ĂŒber den hochgezĂŒchteten Rechnersystemen des Informationszeitalters hĂ€ngt. Immer mehr Rechnerleistung und immer mehr SpeicherkapazitĂ€t haben zu einer explosionsartigen Vermehrung der Datenmenge gefĂŒhrt. Informationen in digitaler Form sind ja auch so angenehm zu handhaben: Wer einmal mit seiner privaten Bibliothek umgezogen ist oder auch nur ein Buch nach Übersee geschickt hat, weiß die Gewichtsvorteile elektronischer Publikationen zu schĂ€tzen, und wer schon einmal in einem 1000-Seiten-WĂ€lzer ein Zitat gesucht hat, mag die Volltextsuche am PC nicht mehr missen.

Aber elektronisch gespeichertes Material ist sehr flĂŒchtig - man muss nur eine Diskette auf einem Lautsprecher ablegen, um zu erfahren, wie schnell digitale Daten weg sein können.

Schon das Material der heute eingesetzten DatentrÀger bedingt eine eingeschrÀnkte Lebensdauer: Bei optischen Medien korrodiert irgendwann die reflektierende Metallschicht. Hochwertige DVDs und CD-ROMs halten schÀtzungsweise zwischen 100 und 200 Jahren, MOs gibt man immer noch mehr als 30 Jahre.

Magnetische Speichermedien halten nicht so lange durch. Bei ihnen löst sich mit der Zeit die magnetische Beschichtung. BĂ€nder, Disketten und Festplatten ĂŒberstehen daher bestenfalls 15 bis 20 Jahre - wer schon einmal versucht hat, jahrelang gelagerte Disketten aus grauer DOS-Vorzeit auszulesen, dĂŒrfte wissen, was mit ‘bestenfalls’ gemeint ist.

WĂ€hrend die Lebensdauer der optischen Medien fĂŒr den Alltagsgebrauch keine Probleme bereiten dĂŒrfte, kann die vergleichsweise kurze Lebensdauer magnetischer Medien eine ernsthafte Gefahr fĂŒr DatenbestĂ€nde auch im Alltagsbetrieb bedeuten. Denn die genannten Zeitspannen sind nur SchĂ€tzwerte - viele Medientypen sind zu jung, als dass man schon Statistiken ĂŒber ihre Haltbarkeit fĂŒhren könnte - und gelten auch nur bei optimaler Verarbeitung, keiner ĂŒbermĂ€ĂŸig starken Beanspruchung und guter Behandlung der Medien. Doch nicht immer ist die Verarbeitung optimal, die Beanspruchung mĂ€ĂŸig und die Behandlung gut: Festplatten beispielsweise, die in Notebooks ihren Dienst tun, mĂŒssen mit starken Belastungen durch Ruckeleien und StĂ¶ĂŸe zurechtkommen - so etwas verkĂŒrzt die Lebensdauer der Platten betrĂ€chtlich.

Datenschwund droht aber nicht nur durch defekte Hardware: Einige wenige fehlerhafte Bytes an zentralen Stellen im Dateisystem genĂŒgen, um ein mit Informationen vollgepacktes Medium in einen Haufen High-Tech-Schrott zu verwandeln. Wenn die IntegritĂ€t der Datenstrukturen nicht mehr gewĂ€hrleistet ist oder zentrale Informationen wie Partitionstabelle und File Allocation Table (FAT) beschĂ€digt sind, ist ĂŒber das Betriebssystem kein Zugriff mehr auf die gespeicherten Daten möglich.

Nach einer Studie von Ontrack, einem international agierenden Datenrettungsunternehmen, lassen sich die GrĂŒnde fĂŒr einen Datenverlust in drei große Gruppen einteilen. Hardware- und Systemfehler bilden mit 44 Prozent die grĂ¶ĂŸte dieser Gruppen. Dagegen kann man sich nur sehr bedingt schĂŒtzen: Zwar ist es leichtsinnig, wichtige Daten auf zehn Jahre alten Festplatten zu speichern, aber auch mit brandneuen Platten sollte man sich nicht in Sicherheit wiegen. Der einzig echte Schutz besteht in einer Kopie der Daten auf einem anderen DatentrĂ€ger.

Die zweitgrĂ¶ĂŸte Gruppe sind durch den Anwender verursachte Fehler: 32 Prozent des Datenverlustes entsteht durch unsachgemĂ€ĂŸes Hantieren mit Daten und Speichermedien. Wer hat nicht schon versehentlich wichtige Dateien gelöscht oder Disketten in Kaffee gebadet? Derartige Fehler wĂ€ren eigentlich leicht zu vermeiden - und sind umso Ă€rgerlicher fĂŒr die Betroffenen. So sollte man zum Beispiel vor dem Ausschalten eines Rechners immer das Betriebssystem ordnungsgemĂ€ĂŸ herunterfahren und eine ĂŒbermĂ€ĂŸige Erhitzung von Speichermedien durch Sonneneinstrahlung verhindern.

Die letzte Gruppe, in die die GrĂŒnde fĂŒr insgesamt 24 Prozent des Datenverlustes fallen, enthĂ€lt unter anderem Computerviren (sieben Prozent), Programm- und Softwarefehler (vier Prozent) sowie Naturkatastrophen (drei Prozent). Zumindest die SchĂ€digung durch Viren ist mit entsprechenden Sicherheitsvorkehrungen leicht zu vermeiden - wie es gemacht wird, ist beispielsweise in [1 [1]] erklĂ€rt.

GrĂŒnde fĂŒr den Datenverlust: Die Hardware- und Systemfehler ĂŒberwiegen zwar, aber in gut einem Drittel der FĂ€lle hĂ€tte mehr Aufmerksamkeit den Daten-GAU vermieden.
Quelle: Ontrack

Der beste Schutz gegen Datenverlust ist ein ausgefeiltes Backup-Konzept. FĂŒr Privatanwender mag es noch ausreichen, wichtige Dateien wie die Diplomarbeit, die Steuerabrechnung und so weiter nach grĂ¶ĂŸeren Änderungen auf einem separaten Medium zu sichern - hierfĂŒr reicht zur Not eine Diskette in Verbindung mit einem Komprimierprogramm. Aber schon Freiberuflern ist dringend anzuraten, systematisch Sicherungskopien zu erstellen. Und fĂŒr kleinere und mittlere Betriebe sollte eine professionelle Backup-Lösung Pflicht sein - zumal die Kosten fĂŒr ein Backup-System gering sind im Vergleich zu dem Schaden, den ein Datenverlust anrichten kann.

Die meisten professionellen Anwender erwarten bei einem Datenverlust bedeutsame finanzielle Einbußen; im Extremfall droht sogar die GeschĂ€ftsaufgabe.
Quelle: Iomega

Eine Befragung unter EntscheidungstrĂ€gern kleinerer Unternehmen in England, Frankreich und Deutschland hat ergeben, dass immerhin sechs Prozent damit rechnen, ihr GeschĂ€ft im Falle eines Datenverlustes aufgeben zu mĂŒssen. 30 Prozent erwarten im Ernstfall erhebliche negative finanzielle Konsequenzen. Lediglich 14 Prozent der Befragten sehen der Datenkatastrophe völlig gelassen entgehen: Sie befĂŒrchten keine Gefahr durch defekte DatentrĂ€ger.

Allerdings beherzigen lĂ€ngst nicht alle Befragten ihre eigene EinschĂ€tzung: Gerade 60 Prozent sichern ihre Daten mindestens einmal wöchentlich. Und dabei sind die ‘Sicherungssysteme’ hĂ€ufig noch ungenĂŒgend: Viele Backup-SĂ€tze werden nicht ĂŒberprĂŒft - ganz zu schweigen davon, dass auch die GerĂ€te, die die Backups anlegen, selten gecheckt werden. So können etwa bei Bandlaufwerken nahezu unbrauchbare Datensicherungen entstehen, wenn die Mechanik des Laufwerks dejustiert ist. FĂ€llt das Laufwerk dann ganz aus, sind die Backups mit Hilfe eines brandneuen, aber nicht dejustieren Laufwerks nicht mehr zu lesen.

Vorsicht ist immer besser als Nachsicht - dies gilt auch und gerade in puncto Datensicherheit. Mancher mag sich fragen, warum man fĂŒr viel Geld leistungsfĂ€hige Streamer und gute Backup-Software kaufen sollte. Der Grund ist aber eigentlich ganz einfach: weil es viel Geld sparen kann. Wenn die Festplatte tatsĂ€chlich den Geist aufgibt, ist man fein raus, wenn man nur eine neue Platte einbauen und das (womöglich tagesaktuelle) Backup einspielen muss.

Der physische Ausfall eines DatentrĂ€gers kommt meist völlig ĂŒberraschend: Wie aus heiterem Himmel will die Festplatte auf einmal nicht mehr. Das macht sich dann entweder schon wĂ€hrend des Boot-Prozesses oder spĂ€testens in dem Moment bemerkbar, wenn das Betriebssystem versucht, auf den DatentrĂ€ger zuzugreifen. Doch wenn der Rechner nach dem Einschalten die Festplatte nicht erkennt, muss sie noch lange nicht defekt sein. Bei EIDE-Platten gilt der erste Blick den Setup-Einstellungen. Auf modernen Systemen sollten fast alle Festplatten mit der Einstellung ‘auto’ laufen.

Auch die Kabelverbindungen im Rechner können sich im Betrieb lockern. Sitzen IDE- oder SCSI-Kabel noch fest auf Platte und Mainboard oder Hostadapter? Hat sich vielleicht der Stromstecker an der Platte gelöst? Vielleicht sind auch einfach nur die Kontakte durch Korrosion verschmutzt. In solchen FÀllen kann es schon ausreichen, einfach alle Stecker einmal abzuziehen und wieder aufzustecken.

Gibt die Platte beim Einschalten aber ungewöhnliche GerĂ€usche von sich, sollte man den Rechner unverzĂŒglich wieder ausschalten: Vermutlich liegt dann ein mechanischer Defekt vor. In diesem Fall kann man eine Datenrettung nur noch vom Speziallabor erhoffen - deren Arbeit beschreibt der Artikel in c't 6/2000 auf Seite 130. Eigene Rettungsversuche sollten unbedingt unterbleiben: Bei jeder erneuten Inbetriebnahme der Festplatte besteht das Risiko, den Schaden noch zu verschlimmern.

Ähnlich sieht es aus, wenn die Platte trotz aufgesteckter Stromversorgung gar nicht anlĂ€uft: Bei geöffnetem Rechner sollte man beim Einschalten des PC hören können, wie die Festplatte anlĂ€uft, und nach einigen Minuten Betrieb muss sich das GehĂ€use zumindest etwas erwĂ€rmt haben. Wenn nicht, kann man es noch mal mit einem anderen Stromstecker (etwa vom Floppy-Laufwerk) versuchen. Klappt das auch nicht, sind ebenfalls die Datenrettungsprofis gefragt.

Erkennt das BIOS die Festplatte nicht, obwohl die Setup-Einstellungen und Kabelverbindungen in Ordnung sind und kein mechanischer Defekt vorliegt, spricht alles fĂŒr einen Elektronikfehler. Zur weiteren Diagnose sollte man die Platte in ein funktionierendes Referenzsystem einbauen. Erkennt sie das BIOS des Referenzsystems, kann man beruhigt sein: Die Daten sind nicht gefĂ€hrdet. Offensichtlich ist der Hostadapter des ursprĂŒnglichen Rechners defekt. Erkennt aber auch das Referenzsystem die Festplatte nicht, liegt der Fehler in ihrer Elektronik. Dann bleibt wieder nur der Gang zum Speziallabor, um die Daten zurĂŒckzubekommen.

Wenn das BIOS die Platte erkennt, aber das Betriebssystem nicht auf sie zugreifen kann, sind höchstwahrscheinlich die Datenstrukturen auf der Platte beschĂ€digt. Die Symptome können je nach Art des Fehlers und Betriebssystems variieren: Möglicherweise bleibt der Rechner schon nach den BIOS-Meldungen stehen; oder es erscheint eine Meldung der Art, dass die Platte nicht startfĂ€hig sei. Windows zeigt vielleicht noch seinen Startschirm an und bleibt hĂ€ngen, OS/2 erfreut den Anwender mit aussagekrĂ€ftigen Fehlermeldungen der Art ‘!SYSxxxx’. Linux verabschiedet sich hĂ€ufig mit einer ‘Kernel Panic’ zu Beginn des Bootprozesses.

Ist nicht die Bootpartition betroffen, sondern eine andere Partition des Startlaufwerks oder eine andere Platte, treten die Probleme erst beim Zugriff auf diese Partition auf: Windows und OS/2 melden dann hÀufig, dass das Laufwerk nicht bereit sei; bei Linux schlÀgt spÀtestens das Mounten, hÀufig aber schon der automatische Festplattencheck beim Start fehl.

Nur bei Fehlern dieser Art lohnt es sich, darĂŒber nachzudenken, ob man selbst Hand anlegen sollte. Verschiedene Datenrettungsprogramme versprechen hier Hilfe, siehe dazu c't 6/2000 Seite 110. Wer vor ein bisschen kniffliger Handarbeit nicht zurĂŒckschreckt, kann versuchen, die Strukturprobleme auf der Platte mit einem Diskeditor oder anderen Tools selbst zu lösen; mehr darĂŒber ist in den Artikeln auf Seite 116 und Seite 138 nachzulesen. Allerdings sollte man in diesem Fall wissen, was man tut - ein paar geĂ€nderte Bytes an der falschen Stelle vermehren den Schaden schnell.

Manchmal geht es aber nicht anders: Die Erfolgschancen der fertigen Datenrettungssoftware sind recht beschrĂ€nkt. Schon eine etwas kompliziertere Partionierung kann solche Programme vor unlösbare Probleme stellen. Außerdem sind sie sowieso nur fĂŒr die gĂ€ngigsten Filesysteme erhĂ€ltlich, also fĂŒr FAT16, FAT32, NTFS und Novell. Nach Tools fĂŒr das OS/2-Dateisystem HPFS und Apples HFS sucht man vergeblich. Auch fĂŒr die Dateisysteme der verschiedenen Unix-Derivate inklusive Linux sieht es eher schlecht aus.

Wagt man keinen eigenen Versuch zur Schadensbehebung oder schlĂ€gt er fehl, bleibt auch bei Problemen mit den Datenstrukturen noch der Gang zum professionellen Datenretter. Man-che bieten sogar eine Datenrettung ĂŒber das Internet oder eine Modemverbindung an. Vorteil: Man muss das GerĂ€t nicht ausbauen und einschicken. Allerdings sind die Dienste der Profis nicht eben billig.

Welcher Aufwand hier angemessen ist, ergibt sich aus dem Wert der betroffenen Daten. Diskeditoren findet man kostenlos im Internet, kommerzielle Datenrettungssoftware kostet zwischen 50 und einigen 100 Mark. Die Beauftragung eines Speziallabors geht hingegen gleich in die Tausende. Sind auf einer defekten Festplatte also nur die Briefe an Tante Anna, lohnt sich wohl bestenfalls der Kauf eines Softwaretools - sofern die Festplatte nicht sowieso einen mechanischen Defekt aufweist. Anders sieht es schon bei Diplomarbeiten, digitalen PrĂ€sentationen oder wichtigen GeschĂ€ftsdaten aus: Hier können Kosten von mehreren tausend Mark fĂŒr die professionelle Rekonstruktion gering erscheinen, verglichen mit dem Aufwand, die Daten neu einzugeben.

An dieser Stelle noch eine Warnung: Wenn es um wirklich kostbare DatenbestĂ€nde geht, sollte man sich gut ĂŒberlegen, ob man nicht gleich einen Profi beauftragt. Jeder Versuch, die Daten selbst zu retten, birgt nĂ€mlich das Risiko, die Situation zu verschlimmern. Bei ordentlich geschriebener Datenrettungssoftware ist diese Gefahr sicherlich eher gering. Das Risikopotential eigener Versuche mit Diskeditor oder sonstigen Low-level-Tools liegt zwar höher, nimmt aber ab, je besser man die Datenstrukturen versteht, die man manipuliert.

Wer auf Nummer sicher gehen will, kopiert die beschÀdigte Partition zunÀchst auf eine andere Platte und beschrÀnkt seine Rettungsversuche auf diese Kopie. Wenn man dann einen Fehler begeht oder das Datenrettungsprogramm völlig daneben haut, ist die Situation auf der Original-Platte zumindest nicht verschlimmert.

Zum Kopieren von Partitionen mit beschĂ€digten Datenstrukturen kann man beispielsweise das Linux-Programm ‘dd’ verwenden, das eine Platte Sektor fĂŒr Sektor einliest, ohne sich um Dinge wie Partitionstabelle, FAT oder auch nur das installierte Betriebssystem zu kĂŒmmern. Eine Rettungs-Bootdiskette mit Linux, die kostenlos im Internet erhĂ€ltlich ist und auch bei völlig zerstörter Festplatte noch funktioniert, ist in [2 [2]] beschrieben. Alternativ kann man auch eine DOS-Startdiskette und das Tool H2copy benutzen, siehe dazu Seite 116.

Die Wiederherstellung gelöschter Daten - im Falle eines Plattencrashs der reinste Segen - kann fĂŒr einige wenige aber auch ein Fluch sein. Ein Erpresser beispielsweise, der darauf vertraute, dass nach dem Ausleeren des Windows-Papierkorbs die Drohbriefe von seinem Rechner verschwunden sind, wird sich sicher nicht darĂŒber freuen, dass der Kriminalpolizei die Rekonstruktion seiner Dokumente gelingen kann. Und auch im Fall der verschwundenen Leuna-Akten setzen manche große Hoffnungen in die moderne Datenrettungstechnik.

Ein bisschen Kenntnis ĂŒber Speichertechnik und Datenstrukturen reicht schon aus, um das ‘Wunder’ der Datenrettung zu entmystifizieren - es bleibt allerdings immer noch ein KunststĂŒck, das sich nur mit aufwĂ€ndiger Technik und viel Erfahrung zustande bringen lĂ€sst. Andererseits weiß der aufgeklĂ€rte Mensch aber auch, wo die Grenzen der Datenrettungskunst sind: Nach dem Verlust der analogen physischen Informationen, mit denen die digitalen Daten in kodierter Form auf den Medien gespeichert sind, geht einfach nichts mehr. (chr [3])

[ [4]1] JĂŒrgen Schmidt, Block-Buster, Personal Firewalls und Anit-Viren-Software richtig einsetzen, c't 4/2000, S. 224

[ [5]2] Dr. Oliver Diedrich, Der Pinguin hilft, Linux als Werkzeug zur Systemdiagnose, c't 26/98, S. 130 c't (ole [6])


URL dieses Artikels:
https://www.heise.de/-287594

Links in diesem Artikel:
[1] #lit1
[2] #lit2
[3] mailto:chr@ct.heise.de
[4] 
[5] 
[6] mailto:ole@heise.de