Rechner erkennt Unausgesprochenes

MIT-Forscher haben ein Verfahren entwickelt, mit dem nur aus den Aktivitäten der Gesichtsmuskeln auf gedachte Worte geschlossen werden kann.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 3 Min.

Direkte Computer-Hirn-Schnittstellen arbeiten bislang mehr schlecht als recht: Die Genauigkeit insbesondere von noninvasiven Verfahren wie etwa der Elektroenzephalografie (EEG), bei der Gehirnströme gemessen werden, ist noch reichlich ungenau. Die von außen erfassbaren Körperdaten reichen nicht aus, um ein echtes "Gedankenlesen" durch den Rechner zu ermöglichen. Im Gehirn implantierte Elektroden erfassen zwar genauere Daten, sind für normale Nutzer aber ungeeignet.

Ein Forscherteam am Media Lab des Massachusetts Institute of Technology (MIT) hat nun ein alternatives Verfahren entwickelt, mit dem Menschen direkt mit Maschinen kommunizieren können, ohne ihre Stimme benutzen zu müssen – allein durch eine Sensorik, die um den Mund herum angebracht wird. Dies soll sich zur diskreten Nutzung digitaler Assistenten nutzen lassen oder Menschen helfen, die Stimmprobleme – aus physischen wie psychischen Gründen – haben.

Das System mit der Bezeichnung AlterEgo nutzt die Tatsache aus, dass die für Mundbewegungen verantwortlichen Muskeln auch dann elektrische Signale vom Gehirn empfangen, wenn man wortlos mit sich selbst spricht oder beispielsweise einen Text liest. Diese bewussten Signale lassen sich wiederum mit vergleichsweise hoher Genauigkeit Worten zuordnen. Ein Rechner liest so also keine Gedanken, kann aber erfassen, was andere Menschen nicht hören.

Mehr Infos

Zur Umsetzung der Technik setzten die MIT-Forscher um Arnav Kapur, Shreyas Kapur und Pattie Maes auf maschinelles Lernen: Ihre Software ordnet die Muskelimpulse Begrifflichkeiten zu. Die mittlere Erkennungsgenauigkeit der sogenannten Subvokalisierung lag bei 92 Prozent bei einem Standard-Zahlenerkennungstest. Dies übersteige EEG und Co., so das Team.

Derzeit sind Kapur und seine Kollegen dabei, AlterEgo mit einem größeren Wortschatz zu versehen. Dazu werden Trainingsdaten von unterschiedlichen Probanden gesammelt. Zudem muss geklärt werden, wie stark sich die elektrischen Signale der Muskeln von Person zu Person unterscheiden, um ein einheitlich funktionierendes Sensorsystem zu schaffen.

Mit AlterEgo soll letztlich auch eine Zweiwegekommunikation möglich werden. Im Prototypen steckt bereits ein Knochenschalllautsprecher, der Antworten an den Benutzer weiterleitet, die die Umgebung nicht hört. In ihrem Paper sehen die Forscher auch eine wortlose Kommunikation zwischen zwei AlterEgo-Nutzern in einem Raum vor oder die Steuerung von smarter Heimelektronik per Stimme, ohne dass man diese Befehle hört.

Unauffällig ist das AlterEgo-Gerät allerdings nicht: Da es direkt um den Mund herum platziert wird, lässt es sich in seiner jetzigen Form kaum diskret einsetzen. Ob eine starke Miniaturisierung möglich ist, wird sich erst in den kommenden Jahren zeigen – die Sensoren brauchen zum Erfassen der Muskelsignale zumindest ausreichend Fläche für ihre Elektroden.

(bsc)