Tuning für Megapixel
Eine Kombination aus neuer Hard- und Software vermeidet die heutzutage in Digitalkameras verwendete JPEG-Kompression. Das spart nicht nur Strom, sondern könnte aus Sensorpixeln mehr herausholen.
- Kate Greene
Wenn eine Digitalkamera mit mehreren Megapixel Auflösung eine Aufnahme macht, landet ein Großteil der darin enthaltenen Informationen nicht etwa in der daraus entstehenden Datei. Stattdessen gehen rund 90 Prozent der Daten beim Kompressionsprozess verloren, um ein JPEG-File zu generieren.
"Wenn man diese Pixel aufnimmt, um sie dann anschließend einfach wieder wegzuwerfen, ist das doch reine Verschwendung", meint Richard Baraniuk, Professor für Elektro- und Computeringenieurwesen an der Rice University in Houston, Texas. Gleichzeitig, so Baraniuk weiter, werde dadurch unnötig Batterieleistung verbraucht, weil die Kompression sehr rechenintensiv sei.
Der Forscher hat deshalb zusammen mit Kevin Kelly und weiteren Kollegen an der Universität eine alternative Technik entwickelt: eine bildeffiziente Kamera. Die existiert zumindest als Prototyp. Eine Kombination aus neuartiger Hard- und Software sammelt genau die richtige Informationsmenge, um ein Bild abspeichern zu können, ohne dass komprimiert werden müsste.
Im Prototyp-Setup wird ein Array mit kleinen Spiegeln verwendet - eine Technologie, die eigentlich von Texas Instruments zur Verwendung in HD-Projektionsfernsehern gebaut wurde. Die Mikrospiegel nehmen dabei eine verhältnismäßig kleine Informationsmenge auf und lenken sie auf ein einzelnes Sensorpixel. Anschließend wird ein spezieller Algorithmus verwendet, um das Bild zu rekonstruieren. Da der Prototyp mit nur einem Sensorpixel auskommt, stellt er im Grunde eine Ein-Pixel-Kamera dar. Dank des verwendeten Algorithmus lässt sich so jedoch im Vergleich zu herkömmlichen Kameras aus einem Pixel die hundertfache Auflösung herausholen.
Baraniuk und sein Team hatten erkannt, das ein neues Gebiet der Informationstheorie, das so genannte "Compressive Sensing", einen alternativen Ansatz zur konventionellen Bildaufnahme und Kompression bot. Ursprünglich an den Universitäten Caltech, Stanford, UCLA und Rice entwickelt, setzt diese Theorie darauf, dass Daten wie solche, die Bilder oder Signale repräsentieren, oft eine große Menge an Strukturinformationen enthalten. Kennt man die Struktur, lässt sich das Bild oder Signal rekonstruieren - selbst wenn eigentlich nur eine geringe Datenmenge existiert. Auf dieses "Compressive Sensing" setzt die Kamera-Software der Forscher.
Auf Hardwareseite nutzt das Rice-Team die digitale Mikrospiegel-Technologie von Texas Instruments, bei der eine Ansammlung Tausender kleiner Spiegel verwendet wird, die sich in zwei Richtungen bewegen lassen. Schauen die Spiegel in die eine Richtung, reflektieren sie das Licht einer Szene auf den Sensor, in der anderen Richtung bleiben sie dunkel. Die Spiegel werden dann jeweils so ausgerichtet, dass sie ein Muster aus Dunkel und Hell auf den Kamerasensor lenken. Sie bewegen sich dabei bis zu 100.000 Mal pro Sekunde.
Die Ausrichtung jedes Spiegels ist zufällig. Das ist wichtig, weil sich so das bestmögliche Sampling ergibt, damit der Algorithmus das Bild rekonstruieren kann. Die Zufallsstruktur ist dabei jedoch bekannt und Teil des Algorithmus. Zusammengenommen reichen so nur ein paar Hundert Samples, die auf das einzelne Sensorpixel projiziert werden, um ein Bild zu rekonstruieren, das aus mehreren Zehn- oder gar Hunderttausenden von Pixeln besteht.
"Ich finde das sehr spannend, weil es die Art verändern könnte, wie wir derzeit über Digitalkameras denken", meint Bruce Flinchbaugh, der zuständige Manager für Bild- und Video-Bearbeitung bei Texas Instruments. "Es kommt nicht besonders häufig vor, dass in einem Gebiet wie der Bildaufnahme jemand ankommt und etwas so gänzlich anders macht als andere."
Es werde allerdings noch eine ganze Weile dauern, bis man die Kamera des Rice-Teams im Laden kaufen kann, räumt Baraniuk ein. Aktuell ist das notwendige Setup so groß wie ein Leuchttisch im Labor und die verwendeten Algorithmen sind noch langsamer als die aktuell verwendete Kompression in kommerziellen Kameras. Deshalb arbeitet das Team daran, die Berechnungen zu beschleunigen. Gleichzeitig verbessere sich die Hardware ständig, sagt Baraniuk - mehr Mikrospiegel in kleineren Arrays bedeuten mehr Qualität. Zudem bewegten sie sich immer schneller.
Baraniuk glaubt, dass die ersten Anwendungsmöglichkeiten seiner neuen Kamera im so genannten Terahertz-Imaging liegen. Das sind Systeme, die Strahlung im Terahertz-Bereich nutzen, um Objekte zu durchleuchten und dabei kleine Spuren von Chemikalien erkennen. Derzeit sei es sehr teuer, die notwendigen großen Sensoren für diese Geräte zu bauen. Kameras mit nur einem Sensor wären deshalb hierfür ideal, weil sie preisgünstiger sind.
Baraniuks Kollege Kelly glaubt aber auf Dauer auch an eine Verwendung in kommerziellen Kameras. Dies könnte die Zahl der notwendigen Sensoren senken helfen und damit Kosten und Größe weiter reduzieren, die Gesamtauflösung aber tatsächlich erhöhen - ganz ohne Megapixel-Hype. "Dann könnten Sie eine Kamera mit einem 2-Megapixel-Sensor kaufen, dank der Software aber ein 20- bis 30-Megapixel-Bild herausziehen." Mit Hilfe der verwendeten Algorithmen ließen sich so auch aus kleinen Kameras wesentlich bessere Bilder herausholen.
Übersetzung: Ben Schwan (nbo)