Neue Rekordwerte beim Sprechen per Gehirnimplantat: mehr als 60 Worte pro Minute

Gehirn-Computer-Schnittstellen für Menschen, bei denen die Sprechmuskulatur gelähmt ist, sind vorangekommen – wenngleich der Weg in die Praxis noch lang ist.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

lassedesignen/Shutterstock.com

(Bild: Shutterstock)

Lesezeit: 5 Min.

Wie unangenehm es sein kann, kein Wort herauszubekommen, wissen die meisten Menschen wohl nur aus Schreckmomenten. Für Personen mit neurologischen Störungen, die zu Lähmungen der Sprechmuskulatur führen, ist dieses Gefühl ein ständiger Begleiter. Ob Implantate künftig Abhilfe schaffen können, die über eine Gehirn-Computer-Schnittstelle (Brain-Computer-Interface, kurz BCI) und Algorithmen Gehirndaten in Sprache übersetzen, ist noch unklar. Doch die Technologie dafür ist offenbar einen großen Schritt vorangekommen.

Zwei aktuelle Fallstudien im Fachmagazin "Nature" jedenfalls melden Rekordwerte für Sprechtempo und Vokabular. Ein Team der University of California San Francisco (UCSF) berichtet eine Sprechrate von 78 Wörtern pro Minute bei einem Wortschatz von 1024 Wörtern. Und eine Arbeitsgruppe der Stanford University nennt eine Rate von 62 Wörtern pro Minute für ein Vokabular von 125.000 Wörtern. (Aufgrund der Veröffentlichung auf einem Preprint-Server hatte MIT Technology Review davon bereits im Januar dieses Jahres berichtet). Die Fehlerquoten liegen in beiden Fällen um 25 Prozent.

Der bisherige Rekord in Sachen Sprechtempo – vor zwei Jahren von Stanford-Forschenden aufgestellt – lag bei 18 Wörtern pro Minute. Zum Vergleich: Menschen ohne Beeinträchtigungen äußern sich mit um die 150 Wörter pro Minute.

Aus Sicht von Edward Chang, Neurochirurg an der UC San Francisco, ist man dieser Marke nun einen großen Schritt nähergekommen. Das Ziel seines Teams: "Wir wollen eine vollständig im Körper implantierbare Lösung für die Kommunikation entwickeln, weil das die natürlichste Art ist, miteinander zu sprechen", sagt er.

Die Studien haben viel gemeinsam: In beiden Untersuchungen wurden jeweils einer Probandin mit massiven Sprachstörungen, auch Aphasie genannt, Elektroden-Arrangements über jene Gehirnregionen implantiert, die für die Gesichts- und Mundmuskulatur zuständig sind. Die Elektroden erfassen dort elektrische Signale, wenn Neuronen feuern. Um die Signale auszulesen, wurden die Implantate über Kabelanschlüsse an den Köpfen der Probandinnen mit Rechnern verbunden.

Aus dem Stand konnten die Systeme die Daten allerdings nicht in Sprache übersetzen. Sie mussten zunächst über Monate trainiert werden. In etlichen Sitzungen "sagten" die Probandinnen immer wieder bestimmte Laute, Worte oder Sätze, die sie von einem Monitor ablasen. Mit rekurrenten neuronalen Netzwerken spürten die Forschenden dann Muster im Meer der Gehirndaten auf, die sie mithilfe von Sprachmodellen auswerteten. Am Ende sprachen Computerstimmen im Erfolgsfall genau das aus, was die Probandinnen sagen wollten.

Die Implantate in den beiden Studien waren allerdings verschieden. Das USC-Team setzte seiner Probandin, die sich als Folge eines Schlaganfalls nicht mehr artikulieren kann, ein Silikonimplantat mit 253 Elektroden ein, die auf der Hirnrinde aufliegen. Der Probandin aus der Stanford-Studie hingegen, die ihre Sprachfähigkeit wegen der Nervenkrankheit Amyotrophe Lateralsklerose (ALS) verloren hatte, wurden zwei deutlich kleinere, sogenannte Mikroelektroden-Arrays (MEA) mit insgesamt 128 Elektroden implantiert, die in die Hirnrinde hinein pieksen. MEAs sind etablierte Implantate, die allerdings zu Entzündungen und Vernarbungen führen können. Silikonvarianten gelten als sanfter zum Gehirn, wurden am Menschen bisher aber kaum erprobt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auch das monatelange Training der Systeme verlief unterschiedlich. Die ALS-Patientin der Stanford-Untersuchung musste immer wieder Worte und ganze Sätze sagen, eine Zufallsauswahl aus Telefonaten, zum Beispiel: "So war es schon die ganzen letzten fünf Jahre" oder "Ich bin mittendrin rausgegangen". Die Probandin der UC-Studie hingegen trainierte das System mit einzelnen Lauten, sogenannten Phonemen.

Eine weitere Besonderheit der UC-Untersuchung: Das Team leitete aus den Gehirndaten nicht nur die Sprachabsichten der Probandin ab, sondern auch Gesichtsaudrücke. Sprache und Mimik wurden von einem Avatar wiedergegeben, dem die Forschenden die Stimme ihrer Probandin – extrahiert aus einer älteren Videoaufnahme – verliehen hatte. Die Patientin der Stanford-Studie hingegen hörte das Gesprochene, wenn sie auf einen Knopf drückte, als männliche Stimme.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die Neurologie-Experten Nick Ramsy von der niederländischen University Medical Center Utrecht und Nathan Crone von der Johns Hopkins University in Baltimaore, USA, kommentieren die neuen Ergebnisse in der Nature-Rubrik News and Views. Die Studien seien ein "Meilenstein", der Weg in die Praxis sei aber noch weit, lautet ihr Fazit. Beide Verfahren seien aufwändig und teuer und funktionierten bisher nur mit einer Kabelverbindung.

Zudem handele es sich lediglich um zwei Fallstudien, monieren die Autoren. Größer angelegte Studien müssten erst noch zeigen, dass die Methode auch für andere Patienten funktioniert, vor allem für jene, die – anders als die Probandinnen der aktuellen Studien – bei ihren Sprachbemühungen gar keine Gesichts- oder Mundmuskulatur mehr aktivieren könnten. Unklar ist zudem, welchen Einfluss die verschiedenen Implantate und Trainingsmethoden auf das Ergebnis hatten.

"Das Ganze ist ein Machbarkeitsbeweis, aber kein System, das Menschen im Alltag benutzen können", räumt der Stanford-Forscher Francis Willet ein. "Aber es ist ein großer Fortschritt in Richtung schneller Kommunikation für Menschen mit Sprachlähmungen." Der UC-Forscher Chang hofft, dass die in den USA zuständige Behörde FDA der Technologie "in naher Zukunft" eine Zulassung erteilen wird. Angesichts der Herausforderungen könnte bis dahin allerdings noch der ein oder andere Rekord in Sachen Sprechgeschwindigkeit aufgestellt werden.

(anh)