Sehen wie ein Mensch: Ereigniskamerasystem simuliert menschliches Auge

Mikro-Bewegungen des menschlichen Auges sorgen für eine scharfe Sicht und Identifizierung sich bewegender Objekte. Forscher haben es auf eine Kamera übertragen.

In Pocket speichern vorlesen Druckansicht
Frau mit grünem Auge

(Bild: ra2 studio/Shutterstock.com)

Lesezeit: 3 Min.

Ein Wissenschaftsteam der University of Maryland hat eine Kamera, die Artificial Microsaccade-Enhanced Event Camera (AMI-EV), entwickelt, die es Robotern ermöglicht, ihre Umwelt ähnlich wahrzunehmen wie ein Mensch. Die Kamera bildet dazu die natürlichen, unwillkürlichen Mikro-Augenbewegungen des menschlichen Auges nach, die über eine längere Zeitdauer für eine scharfe und verwacklungsfreie Sicht und Verfolgung von bewegten Objekten sorgen.

"Ereigniskameras sind eine relativ neue Technik, die bewegte Objekte besser verfolgt als herkömmliche Kameras, die heutigen Ereigniskameras haben jedoch Schwierigkeiten, scharfe, verwacklungsfreie Bilder aufzunehmen, wenn viel Bewegung im Spiel ist", sagt Botao He, Hauptautor der Studie und Doktorand an der University of Maryland.

Das Problem dabei ist, dass Roboter und etwa autonome Fahrzeuge auf scharfe und verwacklungsfreie Bilder in Echtzeit angewiesen sind, um auf Veränderungen zeitnah reagieren zu können. Die Forscher haben deshalb ein Kamerasystem entwickelt, dass die Technik einer Ereigniskamera verbessert. Die Ergebnisse haben sie in der Studie "Microsaccade-inspired event camera for robotics" zusammengefasst, die in Science Robotics erschienen ist.

Die Wissenschaftler untersuchten zunächst, welche Mechanismen beim menschlichen Auge dafür sorgen, dass bewegte Objekte fokussiert nachverfolgt werden können. Die Forscher machten dafür Mikrosakkaden aus, kleine und sehr schnelle, unwillkürliche Augenbewegungen. Sie kommen immer dann zum Tragen, wenn ein Mensch seinen Blick fokussiert. Die winzigen kontinuierlichen Augenbewegungen ermöglichen die Verfolgung eines bewegten Objektes bei zugleich genauer Wahrnehmung von Strukturen wie etwa Farbe, Tiefe, Schatten und Schattierungen.

Die Wissenschaftler leiteten daraus ab, dass ein Kamerasystem ebenfalls solche Bewegungen nachahmen können muss, um bewegungsbedingte Unschärfe zu minimieren. Die Forscher nutzten dazu ein vorhandenes Ereigniskamerasystem, das sie mit einem rotierenden Prisma ausstatteten. Damit können sie das von der Linse eingefangene Licht umlenken und die Mikro-Bewegungen des Auges simulieren. Zum Ausgleich wechselnder Lichter und um stabile Bilder zu erreichen, entwickelten sie eine Kompensations-Software.

In den Tests konnte die AMI-EV auch schnelle Bewegungen mit zehntausenden Bildern pro Sekunde besser erfassen als herkömmliche Kameras, die im Durchschnitt bis zu 1000 Bilder pro Sekunde erfassen können. Die modifizierte Ereigniskamera konnte sich schnell bewegende Objekte auch genauer identifizieren, schreiben die Wissenschaftler.

Für die AMI-EV sehen die Forscher ein breites Anwendungsspektrum. So kann sie Robotern und autonomen Fahrzeugen dabei helfen, bewegte Objekte schnell wahrzunehmen und zu identifizieren. Auch zeige die Kamera eine bessere Leistung bei extremen Lichtverhältnissen, habe eine geringere Latenzzeit und einen niedrigeren Stromverbrauch. Sie eigne sich deshalb ebenfalls gut für Virtual-Reality-Anwendungen (VR), bei denen schnelle Kopf- und Körperbewegungen auftreten. Auch in einfachen Smartphone-Kameras könne der Einsatz der Technik sinnvoll sein.

(olb)