Digitale Halluzination

Unscharfe Bilder nachträglich scharf rechnen, echt wirkende 3D-Modelle aus zweidimensionalen Fotos zaubern – Computational Photography war bisher vor allem eine Spielwiese für mathematisch talentierte Wissenschaftler. Nun wird die Technik allmählich marktreif.

vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 12 Min.
Von
  • Martin Kölling
Inhaltsverzeichnis

Unscharfe Bilder nachträglich scharf rechnen, echt wirkende 3D-Modelle aus zweidimensionalen Fotos zaubern – Computational Photography war bisher vor allem eine Spielwiese für mathematisch talentierte Wissenschaftler. Nun wird die Technik allmählich marktreif.

Die Zukunft der Fotografie ist ein kleiner Quader, elf Zentimeter lang, vier Zentimeter hoch und breit sowie rund 300 Euro teuer. Das unscheinbare Kästchen beherrscht eine Kunst, für die noch bis vor wenigen Jahren ein Raum voller Kameras und ein Supercomputer nötig war: Es kann Fotos machen, die sich nachträglich mit Bildbearbeitungssoftware fokussieren lassen. Der Fotograf muss sich nicht mehr sorgen, ob er genau das Motiv scharf gestellt hat. Am Computer klickt er auf den Bildbereich, auf den es ihm ankommt. Und wie von Zauberhand verwandelt sich das allseits scharfe Bild in eine durchkomponierte Aufnahme mit unscharfem Vorder- oder Hintergrund. Denn aus den gespeicherten Bilddaten errechnen Algorithmen, wie weit jedes der aufgenommenen Objekte vom Kamerasensor entfernt war.

Lytro heißt der Hersteller der neuartigen Kamera, ein Start-up aus der Stanford University. Mit dem Verkaufsstart des Quaders in diesem Jahr hat es eine Technik in den Massenmarkt eingeführt, mit der bisher nur wenige Forscher vertraut waren: die Lichtfeldkamera, auch plenoptische Kamera genannt. Sie fängt nicht nur einfach das Licht ein, das auf ihren Sensor fällt. Spezielle Mikrolinsengitter liefern ihr auch Informationen darüber, aus welcher Richtung die Lichtstrahlen kommen. Anhand dieser Daten kann die Kamerasoftware die Wege des Lichts rückberechnen und aus den Tiefeninformationen neben gwöhnlichen Fotos auch dreidimensionale Bilder erstellen – alles mit einem Objektiv und einer einzigen Aufnahme als Grundlage. Bisher mussten 3D-Bilder aus zwei Fotos zusammengesetzt werden, deren Blickwinkel auf die Szenerie seitlich leicht voneinander abwichen, ähnlich wie bei den beiden Augen des Menschen.

Die Lichtfeldkamera ist ein Vertreter eines neuen Trends: Computational Photography – bislang allenfalls eine Spielwiese für mathematisch talentierte, fotointeressierte Wissenschaftler – hat den Elfenbeinturm der Forschung verlassen. "Das Thema ist in die Industrie übergeschwappt", sagt Alexander Oberdörster vom Fraunhofer-Institut für Angewandte Optik und Feinmechanik IOF. Unternehmen setzen die Ideen der Forscher nun in Produkte um. Computational Photography entstand aus der Konvergenz von Computergrafik, Computervision und Fotografie.

Mit immer ausgefeilteren Algorithmen wollen Entwickler die Beschränkungen der bisherigen Fotografie überwinden: Die Software soll helfen, unscharfe oder verwackelte Bilder scharf zu rechnen, den Blickwinkel von Fotos nachträglich zu verändern, nicht existierende Bilddaten zu ergänzen, um so gering aufgelöste Aufnahmen in detailreiche Nachempfindungen der Realität zu verwandeln, und schließlich aus zweidimensionalen Fotos 3D-Simulationen zu erstellen, durch die man virtuell reisen kann.

Einige der aufwendigen Rechenprozesse sind heute schon fast Standard. YouTube fragt Videografen etwa, ob ihr Video beim Hochladen automatisch digital bildstabilisiert werden soll. Immer häufiger werden die Bearbeitungsprogramme zudem gleich in die Kamera integriert. Eine der beliebtesten Funktionen, die inzwischen fast jedes Smartphone beherrscht, stammt aus den Anfängen der Computational Photography: die Aufnahme sogenannter HDR-Fotos.

HDR steht für High Dynamic Range, auf Deutsch Hochkontrastbild. Das Verfahren korrigiert eine eklatante Schwäche von Bildsensoren: Sie können viel weniger natürliche Helligkeitsunterschiede erfassen als das menschliche Auge. Bei Digitalfotos wird bei sehr kontrastreichen Szenen entweder in den hellen Bildzonen alles weiß dargestellt (Highlight-Clipping) oder in dunklen alles dunkel. Kameras mit HDR-Funktion lösen dieses Problem, indem sie kurz hintereinander drei Bilder schießen: Eines belichtet die hellen Felder richtig, eines die dunklen und eines nimmt den Mittelwert auf. Per Computer lassen sich diese drei Aufnahmen anschließend zu einer neuen zusammenfügen, die das facettenreiche Lichtspiel der Natur auch im Foto wiedergibt.

Der Pionier dieser Technik sitzt in Los Angeles: Paul Debevec, derzeit Professor am Institut für Computerwissenschaften an der University of Southern California. Mitte der 1990er-Jahre sann der IT-Experte unter anderem darüber nach, wie er den Kontrastumfang von Bildern erhöhen könnte, um mehr Informationen über die Lichtverhältnisse zu gewinnen. Denn mithilfe der Fotos wollte er Objekte virtuell in anderen Lichtverhältnissen so in Szene setzen, dass sie real wirken. Normale Fotos reichten ihm nicht, da sie zu viele Informationen über Formen, Licht und Farben weglassen. HDR war für Debevec die Lösung. "Das Ergebnis war für die Filmindustrie sofort von Nutzen", erinnert er sich. Und zwar um Kamerafahrten und Akteure digital zu simulieren.

Mit den zusätzlichen Bildinformationen konnte Debevec eine Methode entwickeln, mit der sich beispielsweise Gebäude anhand weniger Fotos mitsamt der Umgebung in ein realistisch wirkendes dreidimensionales Computermodell umrechnen lassen. Veranschaulicht hat Debevec die Leistungsfähigkeit der Algorithmen in einem Film, der eine virtuelle Kamerafahrt rund um den Turm seiner damaligen Alma Mater, der University of California in Berkeley, zeigte. Die Bildsequenz sorgte für viel Furore in der Filmwelt. Die Macher des Blockbusters "Matrix" verwendeten das Verfahren daraufhin für rasante Kamerafahrten um Pistolenkugeln, die in Super-Zeitlupe zu fliegen schienen.

Debevecs nächster Clou waren "digitale Akteure", virtuelle Abbilder oder Masken von echten Schauspielern, die sich wie ihre realen Vorlagen bewegen. Im wahrsten Sinne des Wortes das Highlight seiner Arbeit ist die "Lichtbühne" (Light Stage): eine kugelförmige Sphäre aus Hunderten von LED-Lichtern. In ihrer Mitte nimmt ein Schauspieler Platz, wird unter verschiedenen Lichtverhältnissen beleuchtet und immer wieder fotografiert. Aus dem Material errechnet der Computer ein getreues dreidimensionales Abbild des Modells, das sogar Informationen darüber enthält, wie das Modell Licht reflektiert. "Wir können nun Beleuchtungsdaten aus anderen Szenen benutzen, sie über die Gesichter legen und die Schauspieler in Szenen zeigen, in denen sie nie waren", sagt Debevec.

Ein Beispiel ist der Film "Der seltsame Fall des Benjamin Button". Die von Brad Pitt dargestellte Hauptfigur wird darin als Greis geboren und verjĂĽngt sich mit jedem Lebensjahr. Um diese Metamorphose darzustellen, lieĂź der Regisseur Debevecs Software die Mimik des realen Pitt in das immer jĂĽngere Gesicht hineinrechnen. Und beim 3D-Spielfilm "Avatar" wurden die GesichtsausdrĂĽcke menschlicher Schauspieler mit der Methode auf die Computermasken der blauen AuĂźerirdischen ĂĽbertragen.

Dass die Filmindustrie oft der Erstanwender computertechnischer Innovationen ist, hält Debevec für leicht erklärlich. "Die Filmemacher müssen immer nach neuen Wegen suchen, die Menschen anzuziehen, und sie haben das Geld für die teure Technik." Aber auch im fotografischen Alltag erwartet der Professor große Veränderungen, weil die Preise für Rechenleistung und Sensoren rasant sinken. Die größten Umwälzungen verspricht die Lichtfeldfotografie. Lytro ist daher nicht das einzige Unternehmen, das an dieser Technik feilt. Der japanische Elektronikkonzern Panasonic etwa setzt auf eine Hightechlösung, die eine Schwäche von Lytros Kamera ausbügeln soll: die niedrige 2D-Auflösung.