Wörter direkt vom Gehirn ablesen

US-Wissenschaftler haben eine EEG-Schnittstelle entwickelt, mit der sich Wörter erkennen lassen, die im Sprachzentrum artikuliert werden.

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Menschen kommunizieren, biologisch bedingt, mit ihrem Körper, in dem das Gehirn eingesperrt ist. Sie können mit Mimik und Gestik kommunizieren, aber auch mit der Sprache, also damit, dass sie sprechen. Aber diese körperliche Schnittstelle der Sprachareale mit der Stimme, die u.a. durch die Muskeln der Lippen, des Kiefers und der Zunge entsteht, ist eigentlich gar nicht notwendig. Wir können auch sprechen, indem wir motorisch mit den Fingern oder auch mit Gehirnwellen eine Tastatur bedienen, mit der eine künstliche Stimme gesteuert wird.

Neurobiologen der University of Utah und der University of Washington School of Medicine haben, wie sie in ihrem Artikel in der Zeitschrift Journal of Neural Engineering berichten, nun eine erste Schnittstelle mit den motorischen und sensorischen Spracharealen des Gehirns entwickelt. Mit Mikroelektroden, die unter den Schädel des Gehirns, aber nicht direkt in dieses eingepflanzt wurden, konnten die Wissenschaftler die motorischen Signale der Gesichtsmuskulatur und die des sensorischen Wernicke-Zentrums abhören und so einige Worte direkt verstehen. Gedacht ist die Technik für Menschen, die nicht mehr sprechen können, beispielsweise die Menschen mit dem Locked-in-Syndrom, aber die Anwendungen könnten natürlich vielfältig sein und weit darüber hinausgehen.

Die Neurobiologen haben ihre Schnittstelle – Gitter aus 16, jeweils im Abstand von 1 Millimeter angebrachten Mikroelektroden - allerdings nur an einem Patienten getestet und die Bedeutung von 10 Wörtern (yes, no, hot, cold, hungry, thirsty, hello, goodbye, more and less) anhand der Signale mit einer Wahrscheinlichkeit von 76-90 Prozent identifizieren können. Der an Epilepsie leidende Patient wiederholte laut sprechend in vier Sitzungen die 10 Wörter 30 bis 90 Mal, um das dadurch verursachte Muster an Gehirnströmen zu identifizieren. Auch hier gibt es also noch einigen Spielraum der Interpretation. Letztlich ist es nur ein wenig besser, als die Wörter per Zufall zu raten, geben die Forscher selbst zu. Noch ist man also weit entfernt von einem Computersystem mit einer Gehirnschnittstelle, um genau wiedergeben zu können, was eine Person sagen will. Vom Gedankenlesen ist man natürlich noch viel weiter entfernt.

Gleichwohl konnten die Forscher zeigen, dass die Abnahme von Gehirnströmen durch Mikro-EEG-Elektroden im Vergleich zu im Gehirn implantierten Elektroden gute Ergebnisse bringen können. Möglicherweise würde dazu auch reichen, die Hirnwellen von der Schädeloberfläche abzunehmen. Wenn mehr Mikroelektroden verwendet würden, dürfte sich auch die Genauigkeit der Decodierung erhöhen, sagen die Neurobiologen.