Algorithmen: Das neue Bild des Alten
Neuronale Netze wandeln historische Fotos und Filme in gestochen scharfe Farbbilder und ruckelfreie Videos. Bringt uns das die Geschichte wirklich näher?
![](https://heise.cloudimg.io/width/610/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/3/0/2/1/3/0/3/6b_vegetablesmarketboston1909-422c886122b142fe.png)
Rapide Fortschritte beim maschinellen Lernen ermöglichen einen völlig neuen Blick auf die Vergangenheit: Unternehmen wie DeOldify oder neural.love verwenden neuronale Netze, um Fotos, und historische Filme von Kratzern, Flackern und Wackeln zu bereinigen, sie auf bis zu 60 Bilder pro Sekunde und 4K-Auflösung hochzurechnen und nachzukolorieren. Die Ergebnisse sind verblüffend, doch Historiker und Medienwissenschaftler sind skeptisch, berichtet Technology Review in seiner aktuellen Ausgabe.
Die Idee, maschinelles Lernen dazu zu nutzen, alte Bilder und Filme aufzubereiten und automatisch zu kolorieren, ist technisch zwar naheliegend. Kolorieren ist allerdings deutlich schwieriger für eine KI, als etwa Katzen- und Hundebilder voneinander zu unterscheiden.Um der Realität kontinuierlich näher zu kommen, braucht die KI ein berechenbares Maß für die Qualität der Kolorierung. Die einfachste Möglichkeit, das kolorierte Bild Pixel für Pixel mit dem originalen Farbbild zu vergleichen, funktioniert eher schlecht als recht. Der Haken an dieser Methode: „Neuronale Netze haben die Tendenz zu schummeln“, sagt Dana Kelley vom Start-up DeOldify. Sie neigen dazu, farblich möglichst „gemittelte Bilder“ zu erzeugen.
Fake oder Realität?
Mit seiner gleichnamigen Software, die 2018 als Open-Source-Projekt veröffentlicht wurde, hatte das Start-up einen ersten technischen Durchbruch, der diese Schwierigkeiten umgeht: DeOldify verwendet eine Technik, die mittlerweile vor allem mit Deepfake-Videos in Verbindung gebracht wird: Generative Adversarial Networks (GANs). Mittlerweile hat Antic eine überarbeitete Version seiner Software an die Genealogie-Plattform MyHeritage lizenziert – die über das Aufarbeiten historischer Familienfotos potenzielle neue Kunden anlocken will.
Um nicht nur Fotos, sondern bewegte Bilder aus historischen Filmen in neu aussehende Videos zu verwandeln, ist jedoch noch mehr erforderlich als eine lebensnahe Koloration: Der Film muss von Kratzern und Flackern befreit werden, hochgerechnet auf eine höhere Auflösung, dann koloriert und schließlich nachbearbeitet. Um all diese Schritte zu automatisieren, hat das polnische Start-up neural.love eine Software-Pipeline aufgebaut, die zum Teil auf Open-Source-Lösungen und zum Teil auf selbst entwickelte Software setzt.
Keine Rekonstruktionen
Die Ergebnisse sehen zwar verblüffend real aus – sind es aber eben ganz und gar nicht. Immer wieder betont neural.love deshalb auch, dass es sich bei den Videos aus dem Computer nicht um Rekonstruktionen des historischen Materials handelt. „Wir wollen die alten Filme nicht ersetzen“, sagt Elizbeth Peck von neural.love. „Aber wir machen sie zugänglicher“.
Lorenz Engell, Medienwissenschaftler an der Bauhaus Universität Weimar, will von der „Rhetorik des Näher, des besser Greifbaren“ allerdings nichts wissen. Es gebe keinerlei Belege dafür, dass aufbereitete Bilder von den Zuschauern als authentischer wahrgenommen würden, sagt er. Der Fotohistoriker Anton Holzer räumt den neuen computergenerierten Bildern der Geschichte zwar auch „eine gewisse Faszination“ ein, die technische Aufarbeitung sieht er aus wissenschaftlicher Sicht allerdings ebenfalls mit gehöriger Skepsis. „Das verfälscht natürlich ein Stück den Blick auf das originale Dokument“, sagt er. „Ist es denn unser Ziel, dieses historische Material ohne historische Brüche zu lesen, als ob das, was auf dem Bild zu sehen ist, erst gestern passiert wäre?“
Das neue Bild (11 Bilder)
![](https://heise.cloudimg.io/width/696/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/71/3/0/1/9/2/7/8/1-ff05f225da302a54.jpg)
(Bild: DeOldify)
(wst)