Künstliche Augen

Ein intelligenter optischer Sensor soll Kameras und Roboter Objekte identifizieren lassen und ihnen ein Gefühl für räumliche Tiefe geben.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 5 Min.
Von
  • Veronika Szentpetery

Trotz aller Fortschritte hinken technische Systeme in mancher Hinsicht den biologischen hinterher. Hightech-Kameras zum Beispiel können mit ihrer hohen Auflösung Details sehen, die das menschliche Auge gar nicht wahrnimmt. Doch in einigen optischen Eigenschaften reichen sie nicht an das Sinnesorgan heran: beim dreidimensionalen Sehen zum Beispiel, bei der Unterscheidung von Vordergrund und Hintergrund oder beim Erkennen von Farben auch bei schlechter Beleuchtung.

Das soll sich nun ändern: An der Technischen Universität Berlin hat Professorin Susanna Orlic im November ein Projekt für die Entwicklung einer neuen Generation von intelligenten optischen Sensorsystemen nach dem Vorbild des menschlichen Auges gestartet.

„Der Sensor soll nicht nur ein 3D-Bild, sondern auch einen räumlichen Eindruck liefern, indem er auch die Form und die Entfernung von Objekten erkennt“, sagt Orlic. Der Sensor würde also selbstständig feststellen, ob er auf ein Haus oder auf einen Baum gerichtet ist und ob der Baum vor dem Haus steht.

Solche Sensoren könnten neuartige Kameras ermöglichen, die autonomen Robotern die Orientierung erleichtern, oder bei Kassenautomaten zum Einsatz kommen, die Produkte auf dem Fließband selbstständig erkennen. Noch liegt viel Arbeit vor Orlic und sieben Partnern aus Wissenschaft und Industrie bei dem Projekt, das vom Bundesforschungsministerium in den kommenden drei Jahren mit vier Millionen Euro gefördert wird. Denn der neue Sensor existiert vorerst nur auf dem Reißbrett; in drei Jahren soll ein erster Prototyp fertig sein.

„Eine Kamera unterscheidet nur hell und dunkel beziehungsweise Farben. Sie liefert nur ein zweidimensionales Pixelbild. Das Auge hingegen ist schlau und kann erkennen, dass ein Stuhl vor der Wand steht. Wir haben uns also gefragt, warum kann das Auge das“, berichtet Orlic.

Mittlerweile glaubt sie, das Geheimnis für die Leistungsfähigkeit des Sinnesorgans gefunden zu haben: Im Auge gibt es regelmäßige Muster mit sechseckigen Strukturen, ähnlich wie in einem Kristallgitter, in dem sich die verschiedenen Atome in regelmäßigen Abständen wiederholen. So hat die Hornhaut, die äußerste Schicht des Auges, eine Gitterstruktur, deren wiederkehrendes Element wenige Nanometer groß ist. Diese periodische Struktur streut das Licht so, dass alles, was gerade im Blickfeld ist, gleichsam in Bildpunkte zerlegt wird.

Eine ähnliche periodische Struktur findet sich auch bei den lichtempfindlichen Sinneszellen der Netzhaut, den Stäbchen und Zapfen, die dafür verantwortlich sind, die Lichtenergie in elektrische Impulse umzuwandeln und sie ins Gehirn weiterzuleiten.

Die Lichtsinneszellen sind ebenfalls in sechseckigen Mustern angeordnet, anders als bei der Hornhaut sogar in verschiedenen Größenordnungen – es gibt regelmäßig wiederkehrende Muster sowohl in Nanometer- als auch in Mikrometergröße. Physiker nennen solche Strukturen hierarchisch. Orlic vermutet, dass diese hierarchischen Strukturen dafür verantwortlich sind, dass wir die genaue Anordnung von Gegenständen im Raum so gut erkennen können.

Deshalb entwickeln zwei der Projektpartner – das Fraunhofer- Institut für Angewandte Polymerforschung und die micro resist technology GmbH – neue Materialien, aus denen sich ähnliche hierarchische Strukturen zusammensetzen lassen.

Die genaue Rezeptur wird nicht verraten, nur dass es sich um lichtempfindliche Nanokomposit-Materialien auf Polymerbasis handeln wird. Der Sensor soll später aus mehreren Schichten bestehen und einige Millimeter dick sein. Jede Schicht soll eine dreidimensionale Gitterstruktur mit einer unterschiedlichen Periodizität vom Nanometer- bis zum Mikrometerbereich erhalten; dadurch wird das einfallende Licht in jeder Schicht anders gebeugt und dabei spektral zerlegt.

Die nötigen Strukturen im Submikrometer-Maßstab will Orlics Arbeitsgruppe durch eine holographische Belichtungstechnik herstellen. Dabei werden Laserstrahlen aus verschiedenen Richtungen auf das Material gerichtet. Die Strahlen überlagern sich und erzeugen periodische Lichtmuster im Material. Durch Änderung von Wellenlänge und Richtung der Bestrahlung lassen sich die unterschiedlichen räumlichen Periodizitäten erzeugen und so die Beugungseigenschaften den Anforderungen anpassen.

„Wenn das Licht unser Material durchläuft, erhalten wir die benötigten Informationen aus dem Beugungsmuster“, hofft Orlic, die sich der vielen Fragezeichen bewusst ist, die das Vorhaben noch aufwirft: „Es ist ein sehr ambitioniertes Projekt. Aber wenn alles gut geht, haben wir am Ende eine Kamera, deren Bilder aus sogenannten Metapixeln bestehen.

Jeder Bildpunkt trägt dann nicht nur 3D-Informationen des Objektes, sondern auch eine zusätzliche Dimension, die in der spektralen Auflösung des Lichts enthalten ist. Wir nennen diese Methode 4D-RGB-Sensorik.“ Hinter den Nanokomposit-Schichten wird der Sensor einen CCD-Chip beherbergen, wie er auch in normalen Videokameras zu finden ist. Dieser detektiert die räumlichen und spektralen Informationen aus den Beugungsmustern und setzt sie zu einem abstrakten Bild zusammen. Das so entstandene Bild kann anschließend mit einer Datenbank abgeglichen werden, die ebenfalls auf dem Chip gespeichert ist. Ein erstes Etappenziel ist die Erkennung einfacher geometrischer Objekte im Raum. Später soll das Sensorsystem auch Objektklassen wie Häuser, Autos, Hunde, Menschen oder Straßenlaternen auseinanderhalten können. (nbo)