Roboter Centauro: Ein Vierbeiner mit Allradantrieb

Seite 2: "Die Erkenntnisse werden in neue Projekte einfließen"

Inhaltsverzeichnis

heise online: Herr Behnke, mit einem Vorläufer des Roboters Centauro, dem Momaro, haben Sie im Juni 2015 an der Darpa Robotics Challenge, einem Wettbewerb für Rettungsroboter, teilgenommen und waren mit dem vierten Platz dort das beste europäische Team. Welche Bedeutung hatte Momaro für das knapp drei Monate zuvor begonnene Centauro-Projekt?

Sven Behnke, Leiter des Instituts für Autonome Intelligente Systeme an der Universität Bonn und Projektkoordinator von Centauro.

(Bild: heise online/Hans-Arthur MArsiske)


Sven Behnke: Der Momaro war die erste Realisierung der Idee eines vierbeinigen Roboters mit lenkbaren Rädern und zwei menschenähnlichen Armen, der sich flexibel fortbewegen und komplexe Handhabungsaufgaben durchführen kann. Natürlich haben wir den Momaro ganz speziell für die Anforderungen entwickelt, die von der Darpa gestellt – und im Finale des Wettbewerbs dann leider etwas aufgeweicht wurden, nachdem sich einige der Aufgaben als zu schwierig erwiesen hatten.

Die Teilnahme war auf jeden Fall eine sehr wertvolle Erfahrung, durch die wir die Herausforderungen, die sich bei solchen Einsätzen stellen, besser kennengelernt haben. Das war eine wichtige Grundlage für die Forschungs- und Entwicklungsarbeit im Centauro-Projekt.

Sie haben den Atomreaktorunfall in Fukushima als wichtige Inspirationsquelle für das Projekt genannt. Im Hinblick auf den Einsatz von Robotern war dort eine wichtige Lehre, dass für den Operator eine gute Situationswahrnehmung entscheidend ist. Häufig wurden deshalb zwei Roboter ins Atomkraftwerk geschickt, um mit dem zweiten Roboter den ersten beobachten zu können. Wir realisieren Sie eine solche umfassende Situationswahrnehmung mit nur einem Roboter?

Sven Behnke: Zunächst einmal haben wir zahlreiche Sensoren auf dem Roboter, um die Einsatzumgebung zu erfassen. Auf dem Kopf befindet sich ein 3D-Laserscanner, mehrere Weitwinkelkameras ermöglichen ein panoramisches Umfeldbild und ein Kinect-Sensor liefert in Echtzeit hochaufgelöste, farbige Tiefenbilder. Weitere Sensoren befinden sich an den Handgelenken und an der Basis des Roboters, um zum Beispiel genau dorthin schauen zu können, wo er den nächsten Schritt ausführen soll.

Um diese Daten zu visualisieren, gibt es unterschiedliche Möglichkeiten. Zum einen verfolgen wir den Ansatz der Immersion: Ein Mensch kann sich aus sicherer Entfernung in den Roboter hineinversetzen und ihn über ein Exoskelett steuern. Mithilfe einer VR-Brille kann er sich in dem 3D-Modell, das aus den Sensordaten erstellt wurde, orientieren, als wäre er selbst vor Ort. Sehr wichtig dabei ist die Anzeige von Interaktionskräften. Wenn der Roboter Objekte berührt oder greift, spürt der Bediener die dabei auftretenden Kräfte über das Exoskelett. Das verstärkt noch einmal das Gefühl der Präsenz und erleichtert die Handhabung unterschiedlichster Gegenstände.

Daneben haben wir aber auch Bedienerschnittstellen, bei denen wir dem Roboter aus der Perspektive einer dritten Person praktisch über die Schulter schauen können und ihn über Joystick oder Spacemouse steuern. Auch dieser Blick von außen ist sehr hilfreich.

Wie erzeugen Sie diese Perspektive ohne äußere Kamera?

Sven Behnke: Wir erzeugen aus den Daten des Roboters ein Modell der Einsatzumgebung. Innerhalb dieses Modells können wir dann verschiedene Blickwinkel visualisieren.

Ist die Kraftrückkopplung für den Operator in allen Gelenken zu spüren, bis in die Finger?

Sven Behnke: Das Exoskelett ist ähnlich komplex wie der Oberkörper des Roboters. Es hat seilgetriebene Antriebe für die Schulter und den Ellbogen sowie direkte Antriebe für das Handgelenk und die Finger, die Kräfte erzeugen und anzeigen können.

Erfordert eine so aufwendige Steuerung nicht hohe Datenübertragungsraten?

Sven Behnke: Die Datenrate für die Teleoperation mit dem Exoskelett ist unkritisch, weil nur wenige Variablen übertragen werden müssen. Allerdings sind die Anforderungen an die Latenz der Datenübertragung, also die Verzögerung, relativ hoch. Unsere Partner von der Scuola Superiore Sant‘Anna in Pisa wollen diese Latenz auf wenige Millisekunden beschränken, damit diese Interaktionskräfte möglichst zeitnah angezeigt werden können.

Die Bild- und Laserdaten sind zahlreicher, dafür ist mehr Bandbreite erforderlich. Dagegen ist die Latenz nicht so kritisch, weil wir Umgebungsmodelle erzeugen, die wir mit geringer Verzögerung aus der Perspektive des Operators anzeigen können. Natürlich müssen diese Modelle ständig aktualisiert werden, aber da der Roboter sich zumeist vergleichsweise langsam bewegt, sind die Modelle aktuell genug.

Können Sie die Latenzzeit beziffern?

Sven Behnke: Bei der Kraftrückkopplung liegen wir tatsächlich bei wenigen Millisekunden. Die Übertragung der Kamera- und Laserdaten erfordert mehr Zeit, die auch von den Bedingungen des WLANs abhängt.

Mit der Darpa Robotics Challenge stand ein Roboterwettbewerb gewissermaßen am Anfang des Centauro-Projekts. Ist damit zu rechnen, dass Centauro seine Fähigkeiten jetzt selbst auch wieder bei einem Wettbewerb demonstrieren wird?

Sven Behnke: Die Teilnahme an der Robotics Challenge hat, wie eingangs erwähnt, nicht nur uns wertvolle Anregungen gebracht, sondern auch unseren Partnern vom Italian Institute of Technology, die selbst mit dem Walk-Man teilgenommen haben. Das Centauro-System, das wir gemeinsam entwickelt haben, wird aber in dieser Form wohl nicht wieder zusammenkommen. Nach der morgigen Abschlusspräsentation des Projekts vor Vertretern der EU-Kommission werden die einzelnen Partner ihre Komponenten wieder mitnehmen, in ihren Laboratorien weiter entwickeln und möglicherweise auch im Rahmen von Wettbewerben zum Einsatz bringen. Aber das Projekt ist beendet. Die hier gewonnen Erkenntnisse werden in neue Projekte einfließen. (mho)