Computational Photography: Smartphone-Kameras simulieren Foto- und Studiotechnik

Raffinierte Algorithmen, clevere ­optische Konstruktionen und maschinelles Lernen ermöglichen Smartphones Nachtaufnahmen sowie professionelle Porträts.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

(Bild: Thorsten Hübner)

Lesezeit: 12 Min.
Inhaltsverzeichnis

Seit Erfindung der Smartphone-Fotografie sehnen sich Hersteller und Nutzer nach der Qualität und der Ästhetik von Spiegelreflex- oder Systemkamera-Aufnahmen: edle Unschärfe, knackige Details, kaum Rauschen auch bei schlechtem Licht. Gemäß den optischen Gesetzen benötigt man für all das aber möglichst große lichtempfindliche Zellen auf möglichst großen Sensoren, deren Abmessungen wiederum raumgreifende, schwere Objektive nach sich ziehen. Weil das Smartphone damit seinen Immer-dabei-Status verlieren würde, müssen sich die Hersteller zwangsläufig mit deutlich kleineren Sensoren und fest eingebauten Miniaturobjektiven begnügen, was lange Zeit bedeutete: brillante, detailreiche Fotos nur bei Tageslicht, geringe Auflösung und keine fotografische Hintergrundunschärfe (Bokeh).

Im Laufe der Jahre sind die Smartphones zu veritablen Rechenzentren herangewachsen: Bestückt mit schneller CPU, zig Gigabyte Arbeitsspeicher, flankiert von Grafik- und KI-Beschleunigern (Neural Processing Unit, NPU), bringen Entwickler dort Bildverarbeitungsalgorithmen zum Laufen, für die sie früher eine Serverfarm gebraucht hätten. So öffnen sich mit fast jeder Kamerageneration neue Perspektiven. Die erste Generation simulierte glaubhaftes Bokeh und erweiterte den Dynamikumfang, die nächste ermöglichte erstaunlich scharfe, rauscharme Nachtaufnahmen aus der Hand und entlockte den Sensoren deutlich mehr Auflösung. Die Algorithmen dahinter haben eines gemein: Sie stützen sich auf Bilderserien, um möglichst viele Bilddetails zu sammeln, die das beschränkte optische System aus einer Belichtung allein nicht gewinnen kann.

Die Herausforderung dabei ist, die einzelnen Frames so passgenau zu überlagern, dass keine Geisterbilder entstehen. Szenen mit Menschen und anderen sich bewegenden Objekten bringen die Algorithmen an ihre Grenzen, insgesamt arbeiten die Verfahren aber auch dann noch erstaunlich präzise. Pionier auf diesem Gebiet ist Google und insbesondere der Computergrafikexperte Marc Levoy. Unter seiner Ägide entstanden bahnbrechende Techniken wie HDR+, Porträtmodus auf Basis geteilter Pixel, Night Sight und Super Res Zoom, die die Möglichkeiten des günstigen Ein-Kamera-Systems derart ausreizten, dass sie manch teure Konkurrenz mit zwei und mehr Linsen deklassierte.

Das war die Leseprobe unseres heise-Plus-Artikels "Computational Photography: Smartphone-Kameras simulieren Foto- und Studiotechnik". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.