Algorithmen: ​Das neue Bild des Alten

Neuronale Netze wandeln historische Fotos und Filme in gestochen scharfe Farbbilder und ruckelfreie Videos. Bringt uns das die Geschichte wirklich näher?

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen
Lesezeit: 3 Min.

Rapide Fortschritte beim maschinellen Lernen ermöglichen einen völlig neuen Blick auf die Vergangenheit: Unternehmen wie DeOldify oder neural.love verwenden neuronale Netze, um Fotos, und historische Filme von Kratzern, Flackern und Wackeln zu bereinigen, sie auf bis zu 60 Bilder pro Sekunde und 4K-Auflösung hochzurechnen und nachzukolorieren. Die Ergebnisse sind verblüffend, doch Historiker und Medienwissenschaftler sind skeptisch, berichtet Technology Review in seiner aktuellen Ausgabe.

Die Idee, maschinelles Lernen dazu zu nutzen, alte Bilder und Filme aufzubereiten und automatisch zu kolorieren, ist technisch zwar naheliegend. Kolorieren ist allerdings deutlich schwieriger für eine KI, als etwa Katzen- und Hundebilder voneinander zu unterscheiden.Um der Realität kontinuierlich näher zu kommen, braucht die KI ein berechenbares Maß für die Qualität der Kolorierung. Die einfachste Möglichkeit, das kolorierte Bild Pixel für Pixel mit dem originalen Farbbild zu vergleichen, funktioniert eher schlecht als recht. Der Haken an dieser Methode: „Neuronale Netze haben die Tendenz zu schummeln“, sagt Dana Kelley vom Start-up DeOldify. Sie neigen dazu, farblich möglichst „gemittelte Bilder“ zu erzeugen.

Mit seiner gleichnamigen Software, die 2018 als Open-Source-Projekt veröffentlicht wurde, hatte das Start-up einen ersten technischen Durchbruch, der diese Schwierigkeiten umgeht: DeOldify verwendet eine Technik, die mittlerweile vor allem mit Deepfake-Videos in Verbindung gebracht wird: Generative Adversarial Networks (GANs). Mittlerweile hat Antic eine überarbeitete Version seiner Software an die Genealogie-Plattform MyHeritage lizenziert – die über das Aufarbeiten historischer Familienfotos potenzielle neue Kunden anlocken will.

TR 1/2021

Dieser Beitrag stammt aus Ausgabe 1/2021 der Technology Review. Das Heft ist ab dem 17.12.2020 im Handel sowie direkt im heise shop erhältlich. Highlights aus dem Heft:

Um nicht nur Fotos, sondern bewegte Bilder aus historischen Filmen in neu aussehende Videos zu verwandeln, ist jedoch noch mehr erforderlich als eine lebensnahe Koloration: Der Film muss von Kratzern und Flackern befreit werden, hochgerechnet auf eine höhere Auflösung, dann koloriert und schließlich nachbearbeitet. Um all diese Schritte zu automatisieren, hat das polnische Start-up neural.love eine Software-Pipeline aufgebaut, die zum Teil auf Open-Source-Lösungen und zum Teil auf selbst entwickelte Software setzt.

Die Ergebnisse sehen zwar verblüffend real aus – sind es aber eben ganz und gar nicht. Immer wieder betont neural.love deshalb auch, dass es sich bei den Videos aus dem Computer nicht um Rekonstruktionen des historischen Materials handelt. „Wir wollen die alten Filme nicht ersetzen“, sagt Elizbeth Peck von neural.love. „Aber wir machen sie zugänglicher“.

Lorenz Engell, Medienwissenschaftler an der Bauhaus Universität Weimar, will von der „Rhetorik des Näher, des besser Greifbaren“ allerdings nichts wissen. Es gebe keinerlei Belege dafür, dass aufbereitete Bilder von den Zuschauern als authentischer wahrgenommen würden, sagt er. Der Fotohistoriker Anton Holzer räumt den neuen computergenerierten Bildern der Geschichte zwar auch „eine gewisse Faszination“ ein, die technische Aufarbeitung sieht er aus wissenschaftlicher Sicht allerdings ebenfalls mit gehöriger Skepsis. „Das verfälscht natürlich ein Stück den Blick auf das originale Dokument“, sagt er. „Ist es denn unser Ziel, dieses historische Material ohne historische Brüche zu lesen, als ob das, was auf dem Bild zu sehen ist, erst gestern passiert wäre?“

Das neue Bild (11 Bilder)

Kinder liefern Gemüse, das auf einem Markt in Boston verkauft werden soll. Das von DeOldify restaurierte und nachkolorierte Bild wirkt in Farbe nahezu idyllisch...
(Bild: DeOldify)

(wst)