Autonome Drohnen: Schnellere Reaktion auf Hindernisse durch "Event Cameras"

Plötzlich auftretende Hindernisse stellen autonome Drohnen vor große Probleme. Event Cameras sollen die Hinderniserkennung deutlich verkürzen.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Autonome Drohnen: Schnellere Reaktion auf Hindernisse durch "Event Cameras"

(Bild: Universität Zürich (Screenshot))

Lesezeit: 2 Min.
Von
  • Hans-Arthur Marsiske

Fliegende Roboter können mit ihren Bordkameras Hindernisse erkennen und ihnen ausweichen – aber nur, wenn diese Hindernisse sich nicht oder nur sehr langsam bewegen. Vögel, die ihre Flugbahn kreuzen, oder Gegenstände, die nach ihnen geworfen werden, sind dagegen ein Problem. Schweizer Forscher glauben, jetzt eine Lösung gefunden zu haben.

In der aktuellen Ausgabe von Science Robotics berichten Davide Falanga, Kevin Kleber und Davide Scaramuzza (Universität Zürich) von Experimenten mit Quadrokoptern, die mit "Event Cameras" ausgestattet wurden. Anders als konventionelle Kameras, die in regelmäßigen Abständen komplette Bilder aufnehmen, misst eine Event Camera (für die es noch keine verbindliche deutsche Bezeichnung gibt) lediglich die Helligkeitsänderungen einzelner Pixel, wenn sie geschehen. Die zeitliche Auflösung, mit der solche Ereignisse erfasst werden können, liegt im Bereich von Mikrosekunden. Den Forschern gelang es mithilfe dieser Technik, die Latenzzeit zwischen Wahrnehmung und Aktion von etwa 40 Millisekunden bei Verwendung konventioneller Kameras auf 3,5 Millisekunden zu verkürzen.

Dazu brauchte es neben der neuartigen Hardware allerdings auch eigene Algorithmen zur Auswertung der asynchron eintreffenden Signale. Eine Herausforderung lag zum Beispiel darin, die durch die Eigenbewegungen der Drohne erzeugten Ereignisse von denen zu unterscheiden, die auf sich bewegende Objekte zurückgehen. Diese Kompensation der Eigenbewegung benötigt mit durchschnittlich 1,31 Millisekunden allein schon mehr als ein Drittel der Rechenzeit. Alle Berechnungen konnten an Bord der Drohne mit der CPU eines Jetson TX2 von NVDIA durchgeführt werden. Der vorhandene Grafikprozessor sei nicht verwendet worden, schreiben die Autoren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Wie gut das Verfahren funktioniert, zeigen Videoaufnahmen von den Experimenten, die drinnen und draußen durchgeführt wurden. Dabei wurden Gegenstände verschiedener Größen aus unterschiedlichen Entfernungen auf die Drohne geworfen, die entweder an einem Punkt im Schwebeflug verharrte oder zu einem vorgegebenen Ziel unterwegs war. Das Ausweichmanöver gelang bei rund 90 Prozent der Versuche.

Die Forscher räumen jedoch ein, dass Event Cameras derzeit vorrangig als Forschungsplattformen verwendet werden und noch mit einigen Mängeln behaftet sind. Insbesondere sei die räumliche Reichweite, in der Objekte zuverlässig detektiert werden können, eher gering. Für die Experimente verwendeten sie die SEES 1 der Insightness AG, die mit einer Größe von 35 x 35 Millimeter und 15 Gramm Gewicht zu den kleinsten verfügbaren Event Cameras zählt. (olb)