Gesichtssensoren ermöglichen sprachlose Rechnerkommunikation

US-Forscher arbeiten an einer neuen Form von nichtinvasiver Gehirn-Computer-Schnittstelle.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Gesichtsinterface erlaubt sprachlose Rechnerkommunikation

Was sagt dieser Mann?

(Bild: MIT Media Lab)

Lesezeit: 2 Min.

Mit einer um die Mundwinkel angebrachten Sensorik wollen MIT-Wissenschaftler neuartige Computer-Gehirn-Schnittstellen schaffen, bei denen eine sprachlose Kommunikation mit Rechnern möglich ist. Das Verfahren namens AlterEgo basiert auf der Tatsache, dass das Gehirn an die Muskeln im Mundbereich auch dann elektrische Signale sendet, wenn die Person einen inneren Monolog führt oder etwas liest, berichtet Technology Review in seiner Online-Ausgabe ("Rechner erkennt Unausgesprochenes").

Direkte Computer-Hirn-Schnittstellen arbeiten bislang mehr schlecht als recht: Die Genauigkeit insbesondere von noninvasiven Verfahren wie etwa der Elektroenzephalografie (EEG), bei der Gehirnströme gemessen werden, ist noch gering. Die von außen erfassbaren Körperdaten reichen nicht aus, um ein echtes "Gedankenlesen" durch den Rechner zu ermöglichen. Im Gehirn implantierte Elektroden erfassen zwar genauere Daten, sind für normale Nutzer aber ungeeignet.

Die von AlterEgo erfassten Signale lassen sich mit vergleichsweise hoher Genauigkeit Worten zuordnen. Ein Rechner liest so also keine Gedanken, kann aber erfassen, was andere Menschen nicht hören. Zur Umsetzung der Technik setzten die MIT-Forscher um Arnav Kapur, Shreyas Kapur und Pattie Maes auf maschinelles Lernen: Ihre Software ordnet die Muskelimpulse Begrifflichkeiten zu. Die mittlere Erkennungsgenauigkeit der sogenannten Subvokalisierung lag bei 92 Prozent bei einem Standard-Zahlenerkennungstest. Dies übersteige EEG und Co., erklärt das Team.

Derzeit versehen Kapur und seine Kollegen AlterEgo mit einem größeren Wortschatz. Dazu werden Trainingsdaten von unterschiedlichen Probanden gesammelt. Zudem muss geklärt werden, wie stark sich die elektrischen Signale der Muskeln von Person zu Person unterscheiden, um ein einheitlich funktionierendes Sensorsystem zu schaffen.

Mehr dazu bei Technology Review Online:

(bsc)