iCub 3 eignet sich als Präsenzroboter

iCub mausert sich in Version 3 zum Teenager. Wissenschaftler verwenden ihn als Telepräsenzroboter, der auch haptisches und taktiles Feedback zurückgeben kann.

In Pocket speichern vorlesen Druckansicht

Der iCube 3 lässt sich als Präsenzroboter einsetzen.

(Bild: Instituto Italiano di Technologia)

Lesezeit: 4 Min.

Der ursprünglich in Anlehnung an ein dreijähriges Kind konzipierte Roboter iCub ist dem Kleinkindalter entwachsen und etwas größer, schwerer und stärker geworden. Außerdem hat ein Forscherteam des Instituto Italiano di Technologia (ITT) im italienischen Genua den nun iCub3 genannten humanoiden Roboter zu einer Avatar-Plattform erweitert. Menschen können ihn mit ihrem Körper aus der Ferne steuern, Emotionen auf ihn übertragen und etwa optisches und haptisches Feedback zurückerhalten.

Der iCub3 Roboter ist 25 cm größer geworden und misst nun 125 cm. Sein Gewicht beträgt 52 kg, zuvor war er mit 33 kg verhältnismäßig leichtgewichtig. Zudem baute das Forscherteam des ITT leistungsstärkere Motoren in seine Beine ein. Dadurch soll er sich nach Angaben der Wissenschaftler schneller fortbewegen können. Dabei haben sie auch gleich die Mechanik optimiert – neben der in den Beinen etwa auch die im Rumpf und den Schultern. Der Hals des iCub 3 ist nun länger, der Roboter wirkt dadurch etwas proportionaler und insgesamt humanoider als sein Vorgänger. Zusätzlich verfügt iCub 3 über eine weitere Tiefenkamera und neue Kraftsensoren. Die vormals in einem Rucksack untergebrachte Batterie ist in den Rumpf des Roboters gewandert.

Wie das Forscherteam unter der Leitung von Daniele Pucci darlegt, waren diese Änderungen notwendig, um eine robustere Plattform eines lauffähigen Roboters zu erhalten, der als Telepräsenzroboter funktionieren und als Avatar für einen Menschen an einem anderen Ort eingesetzt werden kann. Dazu entwickelten die Wissenschaftlerinnen und Wissenschaftler eine neue Version der Wearable-Technik iFeel, die im Rahmen des EU-finanzierten Projektes Advancing Anticipatory Behaviors in Dynamic Human-Robot Collaboration (AnDy) in Zusammenarbeit mit dem italienischen Institut für Arbeitsunfälle Istituto nazionale per l’assicurazione contro gli infortuni sul lavoro (INAIL) entstanden ist.

Benutzer schlüpfen dazu in einen mit Sensoren ausgestatteten Ganzkörperanzug, der Augen-, Gesichts- und Körperbewegungen auf den iCub3 übertragen kann. Zur Umsetzung dient eine Software, die die Verbindung und Umsetzung der Bewegungen auf den iCub3-Avatar steuert. So können nicht nur Kopf, Arm-, Hand-, Rumpf- und Beinbewegungen der Anwender auf den iCub3 umgesetzt werden, sondern auch die über ein Gesichtstracking-System erfasste Mimik inklusive der Augenbewegungen und Augenlider. Über spezielle Handschuhe (SenseGlove DK17) erhalten Benutzende auch haptisches Feedback. Mit einer VR-Brille (HTC Vive PRO eye4) mit Audioausgabe können sie das sehen und hören, was auch der iCub3 sieht und hört.

Vorgeführt hat das Wissenschaftsteam das System auf der 17. Internationalen Architekturausstellung La Bienale di Venezia, auf der sich der iCub3 befand. Gesteuert wurde er von einem Bediener des IIT, der sich rund 300 Kilometer entfernt in Genua aufhielt. Die Übertragung der Signale zum Roboter erfolgte über eine Standard-Glasfaseranbindung mit wenigen Millisekunden Verzögerung. Das Forscherteam zeigte, dass das System die Bewegungen, Stimme und Gesichtsausdrücke des Bedieners an den iCub3 übermitteln und zugleich visuelle, auditive, haptische und taktile Rückmeldungen an den Bediener des Roboters zurückliefern konnte.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

"Wir denken, dass diese Forschungsrichtung ein enormes Potenzial in vielen Bereichen hat", erklärt Pucci. "Einerseits hat uns die jüngste Pandemie gelehrt, dass fortschrittliche Telepräsenzsysteme in verschiedenen Bereichen wie dem Gesundheitswesen und der Logistik sehr schnell notwendig werden könnten. Andererseits könnten Avatare es Menschen mit schweren körperlichen Beeinträchtigungen ermöglichen, mithilfe eines Roboterkörpers in der realen Welt zu arbeiten und Aufgaben zu erledigen. Dies könnte eine Weiterentwicklung der Rehabilitations- und Prothesentechnik sein", fasst Pucci zusammen. Auch Einsätze im Katastrophenschutz und im Metaverse seien mit einer Weiterentwicklung des jetzigen Prototyps denkbar und damit nicht nur im gezeigten Anwendungsbeispiel des "Ferntourismus" per Avatar.

(olb)