Digitaler Datenschwund

Wir leben nicht nur in einem Zeitalter, das bereits Bezeichnungen wie Yottabyte braucht, um das Ausmaß der Datenproduktion zu benennen – offenbar verschwinden auch zunehmend größere Datenmengen.

vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Peter Glaser

Wir leben nicht nur in einem Zeitalter, das bereits Bezeichnungen wie Yottabyte braucht, um das Ausmaß der Datenproduktion zu benennen – offenbar verschwinden auch zunehmend größere Datenmengen.

Bis zur Jahrtausendwende galt als ausgemacht, dass die Welt auf dem Weg in ein Informationszeitalter ist. Mehr Transparenz würde die Entwicklung der Demokratie fördern, digitaler Zugriff auf Informationen Wirtschaft und Bildung prosperieren lassen. Viele sahen das Internet als Selbstgänger des Fortschritts. Aber spätestens nach dem 11. September 2001 wurde klar, dass Information eine dunkle Seite hat: das Geheimnis. Die Generalidee eines gemeinsamen Wissensreichtums schloß sich wie eine Muschel. Politik und Militär trafen ihre Entscheidungen wieder hinter dem Schirm „klassifizierter” Information – Top Secret.

Das Information Security Oversight Office der US-Regierung hält penibel die Zahl der Dokumente fest, die in den USA jedes Jahr im Dienst der nationalen Sicherheit als geheim eingestuft werden. Mit dem Amtsantritt von Präsident George W. Bush nahm diese Art der Klassifikation massiv zu - allein bis zum Jahr 2004 von 9 Millionen auf 15,6 Millionen Dokumente. Die Behörden schränkten auch den Zugriff auf nicht klassifizierte Informationen ein. Das Telefonbuch des Pentagon beispielsweise, das zuvor jeder kaufen konnte, war nur noch „für den Dienstgebrauch” erhältlich (Inzwischen ist es auch online zugänglich, allerdings braucht man für den Zugang ein Sicherheits-Zertifikat).

Ein Verzeichnis der nicht mehr verfügbaren Informationen gibt es nicht. Steven Aftergood vpn der Federation of American Scientists, der ein Forschungsprojekt über staatliche Geheimhaltung leitet, spricht vom „information blackout”. „Im übrigen“, schrieb der Kulturphilosoph Lewis Mumford schon 1972 in seinem Opus Magnum „Mythos der Maschine“, „ist der Vorschlag, den Menschen in die Gegenwart einzusperren und ihn von Vergangenheit und Zukunft abzuschneiden, nicht erst unserer Zeit entsprungen und auch nicht an die ausschließliche Orientierung auf die elektronische Kommunikation gebunden. Die alte Bezeichnung für diese Form zentralisierter Kontrollmacht ist Bücherverbrennung."

Und es sind nicht nur Militär und staatliche Stellen, die Informationen zum Verschwinden bringen. Im Juni 2001 entschied der oberste Gerichtshof in den USA in dem Verfahren „The New York Times Company gegen Jonathan Tasini”, dass Online-Veröffentlichungen eigenständig honoriert werden müssen. Viele amerikanische Zeitungsverlage begannen daraufhin, ihre Online-Datenbanken auszuräumen. Die Beiträge freier Autoren, die Honorarnachforderungen hätten stellen können, wurden gelöscht – eine kalte Bücherverbrennung. Der Historiker Stanley Katz nannte die Folgen der Aktion „verheerend". Wissenschaftlern, die häufig mit Zeitungsdatenbanken arbeiteten, war der Schwund nach und nach aufgefallen.

Aber offenbar verschwindet Information in großen Mengen auch auf profane Weise. Das Magazin Current Biology veröffentlichte vor kurzem eine Untersuchung, die sich mit bis zu 20 Jahre alten wissenschaftlichen Studien befaßte. Unzulängliche Archivierung und Autoren, die nicht mehr zu erreichen sind, machten es in 90 Prozent der Fälle unmöglich, etwa zur Wiederholung von Experimenten auf die Rohdaten der Ursprungsstudien zurückzugreifen.

Ein Wissenschaftler sollte in jedem Labor der Welt seinen Forschungsgegenstand genauso wie Kollegen vor ihm untersuchen und dabei dieselben Daten reproduzieren können. Als das Current-Biology-Team versuchte, die Autoren von 516 Studien, die zwischen 1991 und 2011 publiziert worden waren, per E-Mail zu erreichen und die Rohdaten zu erbitten, stellte sich heraus, dass mehr als 90 Prozent der alten Daten nicht mehr verfügbar waren. Auch bei neueren Studien, die erst vor drei oder vier Jahren veröffentlicht wurden, ließen sich die Daten nur in 23 Prozent der Fälle auftreiben.

„Jeder kennt das, wenn man einen Forscher nach seinen Daten fragt und er sich windet, weil er nicht mehr weiß, wo sie sind“, konstatiert der Zoologe Timothy Vines von der University of British Columbia, der die Untersuchung leitete. „Aber niemand hat sich zuvor um eine systematische Schätzung bemüht, wie schnell die Daten tatsächlich aus den Händen der Autoren verschwinden.“

(jlu)