Sicher sichern - Wie man Digitalfotos archivieren sollte (3Sat)

Das klassische Fotoalbum hat ausgedient, digitale Aufnahmen werden heutzutage auf selbstgebrannten DVDs oder einfach auf der Festplatte archiviert. Dort scheinen sie vermeintlich sicher, was so aber nicht stimmt. Die DVD hat eine begrenzte Lebensdauer, auch Festplatten versagen nach ein paar Jahren den Dienst. Dann sind die wertvollen Erinnerungen für immer verloren. Das c’t magazin zeigt, wie man digitale Fotos sicher speichert, damit sie auch in vielen Jahren noch zur Verfügung stehen.

In Pocket speichern

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der nachfolgende Beitrag stammt aus dem c't-special "Digitale Fotografie". Das Sonderheft liefert ausführliche Tests aktueller Digitalkameras, verschiedene Workshops und einen Fotokurs. Daneben beschäftigt sich das Heft mit mit der Frage nach der richtigen Archivierungsstrategie für Digitalfotos und liefert Praxisbeiträge rund um Adobe-Lightroom. Zum Heft gehört auch eine DVD, auf der reichlich Software für Einsteiger und fortgeschrittene Fotobegeisterte zu finden ist. Das Heft erhalten Sie im Bahnhofsbuchhandel oder direkt im Heise Kiosk.

[b]Digitalfotos archivieren[/b]

Da das klassische Familienalbum und die Dia-Sammlung ohne weiteres Jahrzehnte überstehen, muss man sich wegen deren Haltbarkeit keine großen Sorgen machen. Mit dem Siegeszug der Digitalfotografie ist die Archivierung der Fotos dagegen zum anspruchsvollen Unterfangen geworden: Hardware veraltet, Software ist nicht kompatibel, Dateiformate ändern sich. Dabei genügen wenige Maßnahmen, um die Wahrscheinlichkeit dafür zu erhöhen, dass sich auch die nächste Generation die digitalen Fotos noch anschauen kann.

Die Archivierung von Digitalfotos ist zwar immer auch eine Datensicherung, ihre Funktion geht aber weit darüber hinaus. Hier geht es nicht darum, sich kurzfristig gegen Systemausfälle abzusichern, stattdessen soll die Lesbarkeit der Dateien für Jahrzehnte sichergestellt werden. Und genau an dieser langfristigen Perspektive hapert es derzeit.

Zum einen gibt es keine Speichermedien, die in 50 Jahren mit Sicherheit noch lesbar sein werden. Zum anderen fehlen Standards für die Strukturierung von Bildbeständen mittels Metadaten. Neue Dateiformate kommen, alte verschwinden. Dieser Cocktail aus Format- und Hardware-Inkompatibilitäten macht die Archivierung so schwierig. Erst mit passenden Strategien überdauern die Dateien Jahrzehnte.

Während ein einmal gebrannter DVD-Rohling nicht mehr versehentlich überschrieben werden kann, sieht das bei Festplatten anders aus: Einmal angestöpselt, reicht eine Unachtsamkeit, um die Terabyte-große Archivplatte komplett zu löschen. Deshalb sind wirklich wichtige Daten tendenziell sicherer auf DVDs untergebracht. Aber schnell stellt das Datenaufkommen der Fotos den sinnvollen Einsatz dieses Mediums in Frage.

Darum greift man lieber zur externen Festplatte als Archivierungsmedium. Diese sollte möglichst nur dann an den Rechner angeschlossen werden, wenn es etwas zu archivieren gibt und ansonsten behütet im Schrank liegen. Und vor dem Anschluss lohnt ein kurzer Gedanke an die Software-Umgebung: Gibt es vielleicht irgendwelche Automatismen, die sich ungefragt an einer frisch angeschlossenen Festplatte zu schaffen machen? Vielleicht der neu installierte Media Player, der sich gerne nützlich machen und unaufgefordert die Musiksammlung synchronisieren möchte, wenn er ein großes Speichermedium erkennt? Das ist zwar nett gemeint, doch für eine kontrollierte Archivierung kontraproduktiv.

Von RAID [--] eigentlich eine Technik, um die Datensicherheit durch redundante Speicherung auf mehreren Festplatten zu erhöhen [--] ist bei der Langzeitarchivierung eher abzuraten. Denn es hapert oft beim Abgleich mit dem neuen Rechner: Der Wechsel zu einem anderen RAID-Controller kann alle Daten unbrauchbar machen; Ähnliches gilt für den Wechsel des Betriebssystems.

[b]Kontrolle ist besser[/b]

Anwender, die ihre Daten sowohl archivieren als auch sichern, haben bereits zwei Kopien [--] gut so, denn Redundanz ist ein wichtiger Faktor bei der Datensicherung. Unser komfortables Windows-Skript hilft, um vollautomatisch Schnappschüsse der veränderten Daten auf einer externen Platte zu speichern. Als Alternative zu diesem auf rsync aufbauenden Skript stehen viele kommerzielle Programme bereit. Fallen pro Jahr nur wenige Dutzend Gigabyte mit einer überschaubaren Anzahl von Ordnern an, reicht auch die Kopie per Hand.

Für die Archivierung möchte man sicherstellen, dass nicht schon beim Brennen beziehungsweise beim Kopieren etwas verfälscht oder weggelassen wird. Brennprogramme bieten hierzu eine Option, das Medium zu überprüfen; diese sollte man nutzen. Beim Kopieren auf eine Festplatte kann man zum Vergleich zusätzliche Software einsetzen. Beispiele dafür sind das kostenlose Dateivergleichsprogramm Windiff oder ein Prüfsummen-Programm wie die Open-Source-Software Jacksum.

Da digitale Datenträger nicht ewig halten, muss man sie regelmäßig überprüfen. Für DVD-Rohlinge gibt es spezielle Testsoftware, um die Güte der gebrannten Rohdaten zu überprüfen, sie also ohne Fehlerkorrektur einlesen zu können. So lassen sich ansteigende Fehlerraten erkennen und die Daten auf neue Medien kopieren, bevor sie unlesbar werden. Festplatten können mit Hilfe der SMART-Funktion den Anwender rechtzeitig vor einem drohenden Ausfall warnen. Diese Funktion ist jedoch nur bedingt zuverlässig. Außerdem steht die SMART-Funktion an per USB angeschlossenen externen Festplatten nicht zur Verfügung.

Wichtig ist auch, bei einem Wechsel der Hard- oder Software an sein Archiv zu denken. Bevor man seinen alten PC verschrottet, sollte man prüfen, ob der neue noch auf alle Daten zugreifen kann. Hat er passende Laufwerke und Schnittstellen? Funktioniert die externe Platte auch tatsächlich am Port des neuen Rechners? Kann neue Software noch die alten Dateiformate lesen oder läuft wenigstens die alte Software noch auf dem neuen Betriebssystem? Wenn nicht, ist Umkopieren oder Konvertieren angesagt, bevor das Altgerät auf den Schrott wandert.

Eine Möglichkeit, Daten trotz veraltender Formate zu konservieren, besteht darin, die zugehörige Software zusammen mit den Daten zu speichern. Der Gefahr, dass neue Betriebssysteme die alte Software nicht akzeptieren, kann man mit der Virtualisierung alter Betriebssysteme begegnen. VMware oder das kostenlose VirtualBox führen Betriebssysteme in virtuellen Maschinen aus, in denen sich die alte Anwendung wieder zum Leben erwecken lässt. Dieses Verfahren funktioniert natürlich nur, wenn es die Virtualisierung auch zukünftig noch geben wird. Eine solche Emulation von Software hat den Vorteil, dass man sich um Formate der Dateien und Langlebigkeit von Anwendungen nicht kümmern muss. Sie erfordert allerdings, dass man die einmal genutzten Betriebssysteme penibel sammeln muss.

[b]Ordnerstrukturen[/b]

Schon beim Anlegen eines digitalen Bildarchivs auf dem Hauptrechner sollte man an die spätere Archivierung denken. Wichtig ist die auch für Außenstehende nachvollziehbare Speicherstruktur auf Ordner- und Dateiebene. Das ist eigentlich immer der Fall, wenn man das Ordnungsprinzip "Vom Allgemeinen zum Speziellen" beherzigt und die Ordner chronologisch ordnet. Die Einteilung nach Themengebieten mag zwar sinnvoll sein, aber das kann man besser über eine Verschlagwortung mit Metadaten lösen, da es sonst schnell unübersichtlich wird.

Bei der Benennung der Ordner sollte man generell alles was in Zukunft [--] also auch auf anderen Rechnersystemen [--] Probleme bereiten könnte, vermeiden: Nur Punkte, Unterstriche, Buchstaben und Zahlen sind sinnvoll. Insbesondere Sonderzeichen, Leerzeichen oder landesspezifische Besonderheiten wie Umlaute (Ä, Ö, Ü) sind tunlichst nicht zu verwenden. Das gilt im Übrigen nicht nur für Ordnernamen, sondern auch für Dateinamen und Bildbeschreibungen. Groß- und Kleinbuchstaben behandeln Windows und Unix unterschiedlich. Windows unterscheidet bei NTFS nicht zwischen datei.txt und DATEI.txt, Unix hält das für zwei unterschiedliche Dateien. Mit einer durchgehenden Kleinschreibung umgeht man das Problem.

Dateinamen sollten immer eine Endung haben, auch für den Fall, dass ein Mac sie liest. Einem Mac schadet eine Datei-Endung wie .tif nicht, ein Windows-Rechner braucht sie in jedem Fall, um die Datei überhaupt zu erkennen. Datei- und Ordnernamen wählt man generell so kurz wie möglich. Es gibt nämlich Bilddatenbanken, die nur 26 Zeichen bei Dateinamen unterstützen, alles darüber hinaus wird gekappt. Auch unnötig tiefe, verschachtelte Ordnerstrukturen bereiten je nach Dateisystem Probleme. Welche Pfadtiefe im Einzelfall zulässig ist, ergibt sich aus dem verwendeten Dateisystem in Verbindung mit dem Betriebssystem. So erlaubt zwar die Spezifikation von NTFS eine Pfadtiefe von 32.767 Stellen, im Windows-API ist die maximale Pfadlänge jedoch auf 260 Stellen begrenzt. Davon braucht man aber allein für den Laufwerksbuchstaben (z.B. C:\) drei Stellen, denn jeder Punkt und Backslash verbraucht natürlich eine Stelle in der Angabe der Pfadtiefe.

Wir empfehlen, zumindest in den Ordnernamen das Datum der Aufnahmen anzugeben sowie eine Kurzbeschreibung, die das Zuordnen erleichtert. So erübrigt sich das Umbenennen jeder einzelnen Datei, zudem sind die Ordner dann automatisch chronologisch geordnet. Die Ordnerstruktur für ein am dritten Dezember 1999 am See durchgeführtes Fotoshooting lautet dann beispielsweise bildarchiv\1999\1999-12-03_fotoshootingstarnberger-see. Wenn sich das Ereignis über mehrere Tage erstreckt oder man den genauen Tag vergessen hat, kann man die Tageszahl durch XX ersetzen.

Wer ganz pingelig ist, kann die von der Kamera vergebenen Dateinamen à la DSC_0454.nef mit diesen Ordnerinformationen ergänzen, und die Datei umbenennen, zum Beispiel in 1999-12-03_fotoshooting-starnberger-see_0454.nef. Das hat den Vorteil, dass man den Ursprung einer Datei selbst nach dem Verschieben eindeutig erkennen kann. Zwar ist das Datum bei Digitalbildern ebenso in den EXIF-Meta-Informationen gespeichert, aber man sieht es nur, wenn man entsprechende Viewer-Software einsetzt.

Das Umbenennen jeder einzelnen Datei in einem Ordner erledigen zahlreiche Tools oder Bildbetrachter in einem Rutsch. Neben den digitalen Negativen, die bei DSLR in der Regel im Rohdatenformat vorliegen, wird man zusätzlich JPEG/DNG-Kopien oder bearbeitete Abzüge [--] beispielsweise für die Vergrößerung im Labor [--] speichern wollen. Am einfachsten ist es, diese im selben Ordner in einen Unterordner zu verschieben, dann findet man sie bei Bedarf am einfachsten wieder. Schon in der analogen Zeit waren Papierabzüge und Negative in ein und derselben Papiertasche untergebracht, wenn sie aus dem Labor kamen.

Um die Konsistenz des Bildarchivs sicherzustellen, sollte jede Datei nur einmal im Bildarchiv abgespeichert sein. Tools wie Duplicate Cleaner, AllDup und Anti-Twin prüfen selbst große Archive in wenigen Minuten auf Redundanzen und beseitigen diese. Ein weiterer wichtiger Punkt ist der einfache Zugang zum Bildarchiv. So kann man zwar mit Dateiverschlüsselung seine Bildarchive [--] speziell auf mobilen Datenträgern [--] gegen neugierige Blicke schützen, aber die Wahrscheinlichkeit ist hoch, dass man irgendwann sich selbst vom Zugang zu den Bildern aussperrt.

Die gängigen Dateisysteme unterscheiden sich, was ihre Langzeittauglichkeit angeht. HFS+ (Mac), NTFS (Windows) und ext3 (Linux) haben unbestritten ihre Vorteile, aber nur das zugegebenermaßen etwas altbackene FAT32 läuft auf allen drei Systemen. Außerdem beherrschen die meisten Geräte, von der Digitalkamera bis zur Playstation, das Dateisystem FAT32. Es ist daher trotz seiner Nachteile das ideale Dateiformat für den Austausch zwischen verschiedenen Systemen. Es kennt Datenträger von einer Größe bis zu 8 Terabyte und bleibt somit zumindest noch einige Jahre aktuell. Microsoft hat zwar ab Windows 2000 eine künstliche Größenbeschränkung von 32 Gigabyte für FAT32 Partitionen eingebaut, aber diese kann man mit dem c’t-Tool H2Format umgehen. Der Mac erlaubt ohnehin größere FAT32 Partitionen.

[b]Die Metadaten-Kür[/b]

Das Verschlagworten von Bildarchiven mit Metadaten hat für professionelle Anwendungen [--] beispielsweise in Bilddatenbanken für Pressezwecke [--] eine lange Tradition. Fotoamateure sind erst mit dem Siegeszug der Digitalfotografie in größerem Ausmaß in Kontakt mit EXIF-, IPTC- und XMP-Daten gekommen.

[b]EXIF [--] technische Aufnahme-Infos[/b]

EXIF-Dateien (Exchangeable Image File Format) schreibt die Kamera automatisch bei der Aufnahme in die Bilder. Wenn man nicht gerade seine Kamera falsch konfiguriert hat (Der Klassiker ist, auf Urlaubsreisen die Uhr nicht an die neue Zeitzone anzupassen), braucht man hier manuell nicht einzugreifen.

Typische EXIF-Daten enthalten Datum und Uhrzeit, Brennweite, Belichtungszeit, Blende, ISO-Wert und natürlich auch Kameraname und verwendetes Objektiv. Wenn die Kamera ein GPS-Modul hat, zählen GPS-Koordinaten ebenfalls dazu [--] praktisch fürs Online-Geotagging.

EXIF-Informationen schreibt die Kamera direkt in den Header des bei der Aufnahme verwendeten Bildformats, in der Regel also entweder Raw oder JPEG. Sie können nachträglich mit Tools wie Exifer, Exif-Viewer oder dem Exif-Writer editiert werden. Speziell wenn man proprietäre Rohdaten mit Tools von Drittanbietern editiert, sollte man sich darüber im Klaren sein, dass dies zukünftige Kompatibilitätsprobleme auslösen kann. Auf der sicheren Seite ist man immer, wenn man auf Rohdaten nur lesend zugreift. So verfährt beispielsweise Adobe bei seinem Bildverwaltungsprogramm Bridge.

EXIF-Daten helfen beim Verwalten großer Bildbestände. So wie ID3-Tags dank iTunes & Co das händische Erstellen einer Ordnerstruktur für MP3-Dateien unnötig machen, unterstützen EXIF-Informationen beim strukturierten Abspeichern von Bilddaten. Tools wie der AmoK Exif Sorter können anhand der EXIF-Metadaten Ordner erstellen und Dateien umbenennen, was gerade nach ausgiebigen Fotoreisen sehr praktisch ist.

[b]IPTC [--] Infos zum Bildinhalt und zum Fotografen[/b]

Den Inhalt eines Bildes kann man mit IPTC-Daten (International Press Telecommunications Council) beschreiben. Dieser Standard bietet eine Reihe von Feldern, etwa für den Namen des Fotografen, das Copyright und die Bildbeschreibung. Das kann man auch in EXIF eingeben, aber nicht in eigens dafür gekennzeichneten Feldern.

Typischerweise gelangen IPTC-Daten erst bei der Archivierung oder Bearbeitung in den Header der Bilddatei. Das setzt voraus, dass die als IPTC-Editor benutzte Anwendung in die jeweilige Bilddatei schreiben kann. Speziell bei Rohdateien ist das allerdings eher die Ausnahme. Wer IPTC-Daten beispielsweise in Nikons NEF-Dateien editieren will, sollte dafür hauseigene Programme wie Capture NX2 einsetzen. Weil die NEF-Spezifikationen nicht offen liegen, ist es für Drittanbieter riskant, in die Rohdatei zu schreiben, zukünftige Kompatibilitätsprobleme sind nicht ausgeschlossen. So bietet Lightroom keine Möglichkeit, die IPTC-Datenfelder direkt in der NEF-Datei zu editieren, das funktioniert nur über den Umweg einer XMP-Datei.

Weil IPTC schon seit 1990 am Markt ist, zeigen und editieren viele Bildbetrachter und die meisten Bildbearbeitungsprogramme und Bilddatenbanken diese Daten. Eine durchgehend einheitliche Standardisierung des IPTC-Standards fehlt allerdings bis heute. Bekannte Probleme sind beispielsweise unterschiedlich lange Datenfelder. Um Kompatibilitätsproblemen aus dem Weg zu gehen, empfiehlt es sich, für die IPTC-Metadatenpflege möglichst nur eine Anwendung zu benutzen.

[b]XMP [--] der IPTC Nachfolger[/b]

Verglichen mit dem altehrwürdigen IPTC ist XMP (Extensible Metadata Platform) ein junger Hüpfer, denn diesen gibt es erst seit 2001. Maßgeblicher Treiber war und ist Adobe. Mit XMP soll ein einheitlicher Standard geschaffen werden, auf den Bildeditoren, Bildarchive, Bildbetrachter und Content Management Systeme gleichermaßen zugreifen können, um einen einheitlichen Workflow zu gewährleisten. Damit gehen die Möglichkeiten von XMP weit über das hinaus, was ein privates Bildarchiv erfordert.

Zwar sind die Spezifikationen von XMP offengelegt, die Lufthoheit über XMP liegt aber bei Adobe. Es ist durchaus denkbar, dass die derzeitige liberale Politik von Adobe sich nach der Etablierung des neuen Standards am Markt ändert. Wie die Erfahrungen in der Vergangenheit beim PSD- und PDF-Format gezeigt haben, wächst bei Adobe zugleich mit der Verbreitung eines Standards das Interesse, neue Versionen nicht mehr komplett offenzulegen. Wie es mit der Langzeitstabilität von XMP aussieht, steht daher in den Sternen.

XMP deckt praktisch alle denkbaren Anwendungsfälle ab. Für jede Datei, egal wie exotisch sie ist, kann XMP Metadaten speichern. Die beste Möglichkeit ist es, die XMP-Metadaten direkt in die Bilddatei einzubetten (Embedded XMP), ähnlich wie man das von IPTC kennt. Das funktioniert aber nur bei Datenformaten, die das unterstützen, zum Beispiel bei TIFF oder JPEG. Bei Rohdaten kann man davon nicht unbedingt ausgehen.

Wenn eine Einbettung nicht möglich ist, kommen sogenannte Sidecar-Dateien zum Einsatz. Für jede Bilddatei wird eine zusätzliche XMP-Datei erstellt, in der die Anwendung die Metadaten abspeichert. Die Sidecar-Technik hat allerdings auch Nachteile, denn nicht jede Anwendung kann diese Metadaten auslesen.

Wer beispielsweise mit Adobe Bridge Metadaten in NEF-Dateien einfügt, erzeugt XMP-Sidecar Dateien. Diese wiederum lassen sich mit Capture NX2 nicht auslesen. Was speziell dann sehr nervig ist, wenn man aus den Rohdaten später mit dem Nikon Rohdateneditor JPEGs mit kompletten Metadaten erzeugen möchte. Das ist aber nur möglich, wenn die XMP-Daten in die NEF-Datei eingebettet sind. Diese Beschränkung des Nikon-Rohdateneditors kommt natürlich nicht von ungefähr. Denn das Einbetten von XMP in NEF soll [--] so wohl der Wunsch des Herstellers [--] mit dem kostenpflichtigen Nikon Programm erfolgen. Tools wie EXIFTool GUI können XMP-Metadaten zwar auch in NEF einbetten, aber damit bewegt man sich außerhalb der von Nikon streng beschützten Spezifikation. DNG kennt diese Art von Problemen nicht, denn hier ist XMP per Default eingebettet.

Beim Sidecar-Verfahren steigt außerdem die Gefahr von Datenverlusten, wenn man Bilder händisch im Dateisystem verschiebt oder kopiert, etwa über den Windows Explorer. Es passiert sehr leicht, dass sich XMP- und die dazugehörige Bilddatei dann in verschiedenen Ordnern wiederfinden, und damit fehlen die mühsam eingetragenen Metadaten. Wer XMP-Sidecar Dateien verwendet, sollte alle Operationen im Dateisystem generell über eine XMP-fähige Anwendung wie Adobe Bridge vornehmen, um diese Fehlerquelle auszuschließen.

Trotz des Bestrebens, IPTC sukzessive zugunsten von XMP abzulösen, ist die Bedeutung von IPTC immer noch sehr hoch. Das beliebte Programm IrfanView kennt beispielsweise XMP überhaupt noch nicht. Da XMP kompatibel zu IPTC ist, kann man sich mit der Umstellung von IPTC zu XMP Zeit lassen und erst einmal in Ruhe abwarten, ob sich XMP durchsetzt.

[b]Pro und contra Metadaten[/b]

Ohne Metadaten sind professionelle Bildarchive nicht zu verwalten. Aus diesem Umfeld kommen die entsprechenden Standards, hier haben sie sich bewährt. Wenn eine Bildagentur mit mehreren hundert Fotografen zusammenarbeitet, geht ohne konsequente und konsistente Verschlagwortung nichts mehr.

Auch für Amateure haben Metadaten durchaus ihren Reiz, man kann sinnvolle Schlagworte eingeben, zusätzlich zu den Informationen über die Aufnahme. Mit ihrem Einsatz sind aber deutliche Einschränkungen verbunden. Selbst innerhalb eines Standards kommt es derzeit immer wieder zu Kompatibilitätsproblemen, vor allem wenn verschiedene Anwendungen im Spiel sind. Heute die Bilder mit iMatch verwalten, morgen Picasa verwenden und später vielleicht auf Lightroom umzuschwenken, daneben noch EXIF-, IPTC oder XMP-Daten mit separaten Editoren zu bearbeiten, ist bei notorisch experimentierfreudigen Amateuren zwar gang und gäbe, aber bei dem bestehenden Metadaten-Wirrwarr nicht empfehlenswert. Auch als Amateur sollte man sich daher [--] wie es im professionellen Bereich üblich ist [--] einmal für eine Archivierungssoftware entscheiden und dieser über Jahre treu bleiben.

Die de facto noch vorhandene enge Bindung der XMP- und IPTC-Metadaten an eine bestimmte Software schmälert ihren Nutzen für die Langzeitarchivierung. Das aktuelle Tohuwabohu erhöht auch nicht unbedingt die Wahrscheinlichkeit, dass in der Zukunft irgendjemand die heute so mühsam eingepflegten Metadaten tatsächlich auswerten kann. Sinnvoll ist der Einsatz von Metadaten-Information also immer dann, wenn man sie im Hier-und-Jetzt schon produktiv für die Verwaltung seines Archivs einsetzt und mit den bestehenden Einschränkungen leben kann. So kommt man über die Metadaten zu einer mächtigen Suchfunktion, von der Archivare vor zwanzig Jahren nicht einmal zu träumen gewagt hätten. Wenn eine themenbezogene Suche dagegen nicht notwendig sein sollte, fährt man mit einer chronologisch geordneten und eindeutig benannten Ordnerstruktur fast genauso gut wie mit der arbeitsintensiven Verschlagwortung durch Metadaten.

[b]Fazit[/b]

In der Bildqualität hat die Digitalfotografie inzwischen mit der Analogfotografie gleichgezogen, bei der Archivierung steht dieser Schritt noch aus. Noch ist es für die langfristige Archivierung immer noch Erfolg versprechender, Bilddaten auf Analogfilm ausbelichten zu lassen, als darauf zu hoffen, dass jemand das digitale Bildarchiv alle 5-10 Jahre auf die dann jeweils aktuelle Software und Hardware aktualisiert. Während ein analoges Bildarchiv auch ohne Eingriffe längere Zeiträume weitgehend unbeschadet überstehen kann, braucht ein digitales Bildarchiv permanente Pflege, sonst droht der Verlust aller Bilder auf einen Schlag.

Der große Vorteil von digitalen Daten liegt in der Reproduzierbarkeit und der Abkoppelung von Information und Datenträger. Doch anders als beim Fotoalbum aus Papier erfordert das digitale Album regelmäßige Pflege, damit es die Jahrzehnte übersteht. Unabhängig vom Medium empfehlen wir die Kontrolle der Daten alle drei Jahre [--] das ist ein Kompromiss aus größtmöglicher Datensicherheit und möglichst geringem Pflege-Aufwand. In diesem Zeitfenster ist man außerdem sicher, nicht vom technischen Fortschritt in Form neuer Medien, Schnittstellen und Lesegeräte überrollt zu werden.

[Wiederholung vom 27.9.2009]