3D-Bilder mit normalen Kameras

Um dreidimensionale Aufnahmen zu erstellen, braucht es nicht unbedingt eine Stereokamera. Das haben US-Forscher nun gezeigt.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 3 Min.

Um dreidimensionale Aufnahmen zu erstellen, braucht es nicht unbedingt eine Stereokamera. Das haben US-Forscher nun gezeigt.

3D liegt im Trend. Doch wer räumliche Bilder aufzeichnen will, benötigt Kameras mit zwei Objektiven – so zumindest arbeitet die Standardtechnik für Stereoaufnahmen. Dass es auch einfacher geht, haben nun Ingenieure der Duke University im amerikanischen Durham gezeigt (DOI:10.1364/OPTICA.2.000822): Sie wollen moderne Digitalkameras nutzen, denen über spezielle Algorithmen auf die Sprünge geholfen werden soll.

Im Rahmen des Duke Imaging and Spectroscopy Program (DISP) arbeiten sie an einer Technik, mit der in einem Schritt hochwertige 3D-Bilder entstehen sollen, ohne dass es mehr als einen Bildsensor braucht. "Wir haben einen neuen Weg gefunden, 3D-Informationen aus einem ansonsten zweidimensionalen Prozess zu extrahieren.

Smartphone-Kamera: Normalerweise nicht 3D-fähig.

(Bild: Apple)

Die Vorteile liegen darin, dass es eine doppelte Funktionalität gibt und man gleichzeitig 2D-Aufnahmen in voller Auflösung über existierende Systeme erhält", sagt Patrick Llull, einer der beteiligten Forscher. "Echte Szenen sind in drei Dimensionen und diese werden normalerweise aufgenommen, in dem mehrere Bilder erfasst werden – und zwar fokussiert aus verschiedenen Distanzen."

Für ihr neues Verfahren benutzten die Forscher zwei Systeme, die viele Digitalkameras ohnehin an Bord haben: Die Scharfeinstellung (Fokus) und den Bildstabilisator. Letzterer verschiebt – je nach verwendeter Technik – das Objektiv oder den Sensor, um Verwacklungen auszugleichen.

Professionelle 3D-Kameras sind nicht klein.

(Bild: James Tworow / Flickr / cc-by-sa-2.0)

Ein Nebeneffekt: Der Sensor bekommt Bilder aus unterschiedlichen Positionen zu sehen, ohne dass die Kamera bewegt werden muss. Daraus lassen sich wiederum Rückschlüsse auf die räumliche Tiefe des Motivs ziehen. Werden gleichzeitig noch viele Bilder mit unterschiedlichem Fokus gemacht, ergeben sich daraus weitere Tiefeninformationen.

Diese Daten lassen sich mit einem von den Forschern entwickelten Algorithmus zu einer Tiefenkarte verknüpfen, in der jedes einzelne Pixel mit seiner räumlichen Position verzeichnet ist. Handelsübliche Software kann daraus dann komplette 3D-Bilder errechnen.

3D-Bilder setzt der Algorithmus aus verschiedenen Fokus-Tiefen zusammen.

(Bild: Duke University)

Für ihre Laborversuche nutzten die Forscher allerdings noch flexible Spiegel und lange Belichtungszeiten. Das Verfahren soll aber auch – deutlich schneller – mit normaler Kamerahardware funktionieren. Es könnte unter anderem ermöglichen, nachträglich die Schärfenebene eines 2D-Bilds zu verschieben. Das alles ist ohne dramatische Systemwechsel wie den Austausch von Linsen möglich.

Theoretisch müsste das Verfahren auch mit Smartphone-Bildsensoren funktionieren – auch diese bringen zunehmend optische Bildstabilisatoren (sogenannte Optical Image Stabilization-Systeme, abgekürzt OIS) mit, beispielsweise die letzten beiden iPhone-Generationen 6 und 6s. Beim iPhone 6s Plus ist OIS erstmals auch für Videoaufnahmen verfügbar. Mit letzterem Thema hat sich die Forschungsarbeit von Llull und Brday allerdings nicht beschäftigt. (bsc)