Ddog: MIT steuert Roboterhund Spot über Brain-Computer-Interface
Das MIT hat ein Brain-Computer-Interface entwickelt, über das ein Roboterhund gesteuert werden kann.
Einem Wissenschafts-Team des Massachusetts Institute of Technology (MIT) ist es in dem Ddog-Projekt gelungen, Spot, den Roboterhund von Boston Dynamics, über ein Brain-Computer-Interface (BCI) durch Gedankenkraft und Augenbewegungen zu steuern. Das System könnte dabei helfen, dass Menschen mit körperlichen Beeinträchtigungen wie etwa ALS (Amyotrophe Lateralsklerose), Zerebralparese und Rückenmarksverletzungen selbstbestimmter ihren Alltag bewältigen können.
Das Ddog-System basiert auf dem vom MIT entwickelten Brain Switch, einem BCI, das es körperlich eingeschränkten Personen ermöglicht, nonverbal mit einem Betreuer zu kommunizieren. Darauf aufbauend haben die Forschenden die Anwendung für das Ddog-System erweitert.
Steuerung per Gedanken
Das verwendete BCI besteht aus einer kabellosen Brille, in deren Rahmen verschiedene Sensoren integriert sind. Sie messen die Gehirntätigkeit, also das Elektroenzephalogramm (EEG) des Trägers sowie das Elektrookulogramm, die Augenbewegungen einer Person. Die Messwerte nutzt das System zur Steuerung des vierbeinigen Roboterhundes Spot. Der Vorteil dieses BCI: Es benötigt keinerlei Klebesensoren am Kopf oder Rucksäcke mit weiterer Elektronik und eignet sich deshalb besser für den täglichen Gebrauch.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Die Wahl von Spot für das Ddog-Projekt kommt nicht von ungefähr. Der Roboterhund ist sehr mobil, kann sich auf engstem Raum bewegen und Treppen steigen, eignet sich also gut für den Einsatz in Wohnungen. Zudem besitzt er einen Roboterarm, mit dem er Aufgaben, wie etwa das Bringen von Lebensmitteln, Medikamenten, Büchern und das Bewegen eines Stuhls erledigen kann. Diese Aufgaben kann Spot autonom durchführen. Es reichen einfache Anweisungen aus.
Bevor Spot durch Gedankenkraft Anweisungen ausführen kann, muss er zunächst seine Umgebung dreidimensional kartieren. Das erfolgt über Lidar sowie Kameras, die 3D-Daten, Fotos und Videos zu einer 3D-Karte verbinden. In einem zweiten Schritt baut das System aus diesen Informationen eine semantische Karte auf, um etwa Gegenstände erkennen zu können.
Ein Apple iPhone dient zur Kommunikation, es fragt den Nutzer etwa, welche Aufgabe als Nächste durchgeführt werden soll. Durch Gedanken und Augenbewegung gibt der Nutzer nun eine Rückmeldung, die vom System in eine konkrete Anweisung an den Roboter übersetzt wird, wie etwa "gehe in die Küche". Um den Roboterhund zur Rückkehr zu bewegen, reicht es aus, an Spot zu denken.
Ein weiteres iPhone führt die lokale Navigationskarte aus und steuert den Roboterarm von Spot. Zusätzlich ergänzt das Lidar dieses iPhones die Lidar-Daten von Spot. Beide Mobiltelefone kommunizieren miteinander, um so den Fortschritt der Erledigung der Aufgaben zu verfolgen.
Das Ddog-System funktioniert online als auch offline. Der Unterschied liegt darin, dass die Online-Variante genauer arbeitet. Sie verwendet bessere und fein abgestimmtere Modelle für maschinelles Lernen.
(olb)