Hirnimplantat: Patientin schafft mit 62 Worten pro Minute Rekord bei Sprechtempo

Eine ALS-Patientin kann mit ihrem Hirn-Implantat schneller kommunizieren als je zuvor, wie Forscher an der Stanford University demonstriert haben.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen

(Bild: Willett, Kunz et al)

Lesezeit: 8 Min.
Von
  • Antonio Regalado
Inhaltsverzeichnis

Acht Jahre ist es her, dass die Patientin mit amyotropher Lateralsklerose (ALS), auch als Lou-Gehrig-Syndrom bekannt, ihre Sprachfähigkeit verlor. Sie kann aufgrund ihrer ALS-Lähmung nur noch Laute von sich geben, ihre Worte sind unverständlich geworden. Um zu kommunizieren, benötigte sie eine Schreibtafel oder ein iPad.

Doch das hat sich mittlerweile geändert. Die in den USA beheimatete Frau hatte sich freiwillig für ein neuartiges Brain-Computer-Interface (BCI) gemeldet. Nun kann sie Sätze wie "Mein Haus gehört mir nicht" oder "Es ist einfach schwer" in einem Tempo kommunizieren, das dem normalen Sprachgebrauch nahe kommt.

Das geht aus einem Paper hervor, dass ein Team der Universität Stanford gerade auf einem Preprint-Server publiziert hat. Noch fehlt der Studie das Peer Review, doch die Wissenschaftler behaupten, dass ihre Probandin, die nur als "T12" bezeichnet wird, mit der implantierten Schnittstelle bisherige Rekorde gebrochen hat. Das Implantat erlaubt demnach eine Kommunikation mit einer Geschwindigkeit von 62 Wörtern pro Minute, dreimal so schnell wie der bisherige Bestwert. Philip Sabes, Forscher an der Universität von Kalifornien in San Francisco, der nicht an dem Projekt beteiligt war, bezeichnet die Studie als "großen Durchbruch" und meint, dass solche experimentellen Verfahren bald das Labor verlassen werden. Eine Vermarktung sei denkbar.

Die Leistungsfähigkeit sei auf einem Niveau, das sich viele Betroffene, die nicht mehr sprechen können, wünschten, so Sabes. "Die Leute werden das haben wollen." Zum Vergleich: Menschen ohne Sprachdefizite sprechen normalerweise etwa 160 Wörter pro Minute. Und selbst im Zeitalter von Tastaturen, Schnelltippen auf dem Handy, Emojis und Abkürzungen bleibt die direkte Sprache die schnellste Form der Kommunikation von Mensch zu Mensch.

Auf Twitter und anderen sozialen Medien sorgte die Studie für großes Interesse – auch, weil einer der Hauptautoren, Krishna Shenoy, am Tag der Veröffentlichung des Preprints an Bauchspeicheldrüsenkrebs starb. Shenoy hatte Teile seiner Karriere der Verbesserung der Geschwindigkeit der Kommunikation über Hirnschnittstellen gewidmet und sammelte selbst die aktuellen Rekorde im Web. Im Jahr 2019 gelang es einem anderen Probanden, mit dem Shenoy arbeitete, per Hirnschnittstelle bis zu 18 Wörter pro Minute zu "tippen", damals ein Rekord.

Die Gehirn-Computer-Schnittstellen, mit denen Shenoys Team arbeitet, bestehen aus einem kleinen Pad aus spitzen Elektroden, die in den motorischen Kortex einer Person eingebettet sind, einer Hirnregion, die hauptsächlich an der Bewegung beteiligt ist. Mit dem System können die Forscher die Aktivität von einigen Dutzend Neuronen gleichzeitig aufzeichnen und Muster finden, die widerspiegeln, an welche Bewegungen jemand denkt, selbst wenn die Person gelähmt ist.

In früheren Arbeiten wurden gelähmte Freiwillige zunächst gebeten, sich Handbewegungen vorzustellen. Durch Dekodierung ihrer neuronalen Signale in Echtzeit konnten sie mit Hilfe von Implantaten einen Cursor auf einem Bildschirm steuern, Buchstaben auf einer virtuellen Tastatur auswählen, Videospiele spielen und sogar einen Roboterarm steuern. In der neuen Studie wollte das Stanford-Team nun aber wissen, ob die Aktivität im Motorcortex auch Informationen über Bewegungen geben können, die mit Sprache zu tun haben. Das heißt: Lässt sich detektieren, wie "T12" versucht, ihren Mund, ihre Zunge und ihre Stimmbänder zu bewegen, während sie sich zu sprechen bemüht?

Dabei handelt es sich um kleine, subtile Bewegungen. Und laut Sabes besteht eine zentrale Entdeckung des Stanford-Teams darin, dass nur einige wenige Neuronen genügend Informationen liefern, um ein Computerprogramm mit guter Genauigkeit vorhersagen zu lassen, welche Worte eine Patientin zu sagen versucht. Diese Informationen wurden von Shenoys Team dann auf einen Computerbildschirm übertragen. Eine Computerstimme liest diese dann vor.

Shenoy und Co. stützen sich auf frühere Arbeiten von Edward Chang an der Universität von Kalfiornien in San Francisco (UCSF), der das Sprechen für die komplexesten Bewegungsabläufe hält, die der Mensch ausführen kann. Worte werden mit Mund, Lippe und Zunge gebildet, arbeiten mit Luft und Vibrationen. Um den Laut "F" zu erzeugen, legt man beispielsweise die oberen Zähne auf die Unterlippe und stößt Luft aus – nur eine von Dutzenden von Mundbewegungen, die zum Sprechen erforderlich sind.

Chang verwendete bisher nur Elektroden, die auf dem Gehirn platziert wurden, um einem Probanden das Sprechen durch einen Computer zu ermöglichen, aber in ihrem Preprint sagen die Stanford-Forscher, dass ihr System genauer und drei- bis viermal schneller ist. "Unsere Ergebnisse zeigen einen gangbaren Weg auf, um Menschen mit Lähmungen die Kommunikation in normaler Geschwindigkeit zu ermöglichen", schreiben die Forscher, zu denen neben dem verstorbenen Shenoy auch der Neurochirurg Jaimie Henderson gehören.

David Moses, der mit Changs Team an der UCSF zusammenarbeitet, sagt, die Arbeit erreiche "beeindruckende neue Leistungsmaßstäbe". Doch selbst wenn weitere Rekorde gebrochen werden, so Moses, "wird es immer wichtiger, stabile und zuverlässige Leistungen über mehrere Jahre hinweg nachzuweisen". Die Qualität der Daten lässt mit der Zeit nach, weil es etwa zu einer Narbenbildung im Gehirn kommen kann. Ob die Aufsichtsbehörden ein solches Implantat für die kommerzielle Nutzung erlauben, ist nicht gesagt.

Der Weg in die Zukunft wird wahrscheinlich sowohl anspruchsvollere Implantate als auch eine engere Integration mit künstlicher Intelligenz umfassen. Das derzeitige System verwendet bereits einige Arten des maschinellen Lernens. Um die Genauigkeit zu verbessern, hat das Stanford-Team beispielsweise eine Software eingesetzt, die vorhersagt, welches Wort in einem Satz normalerweise als nächstes kommt. Auf "I" folgt im Englischen beispielsweise häufiger "am" als "ham", obwohl diese Wörter ähnlich klingen und im Gehirn eines Menschen ähnliche Muster erzeugen könnten. Durch das Hinzufügen eines Wortvorhersagesystems konnte die Versuchsperson schneller und fehlerfreier sprechen.

Neuere große Sprachmodelle wie GPT-3 sind inzwischen in der Lage, ganze Aufsätze zu schreiben und Fragen zu beantworten. Durch die Verbindung dieser Modelle mit Hirnschnittstellen könnten Menschen noch schneller sprechen, weil das System besser erraten kann, was sie auf der Grundlage von Teilinformationen zu sagen versuchen. "Der Erfolg großer Sprachmodelle in den letzten Jahren lässt mich glauben, dass eine solche Sprechprothese in greifbare Nähe gerückt ist, weil man vielleicht keinen so beeindruckend guten Input mehr braucht, um Sprache auszulesen", sagt Sabes.

Shenoys Gruppe ist Teil eines Konsortiums namens BrainGate, das Elektroden in die Gehirne von mehr als einem Dutzend Freiwilligen eingesetzt hat. Sie verwenden derzeit ein Implantat namens Utah Array, ein starres Quadrat aus Metall mit etwa 100 nadelartigen Elektroden. Einige Unternehmen, darunter Elon Musks Hirnschnittstellenfirma Neuralink und ein Start-up namens Paradromics, haben nach eigenen Angaben modernere Schnittstellen entwickelt, die Tausende oder sogar Zehntausende von Neuronen auf einmal erfassen können.

Während Skeptiker noch fragen, ob die gleichzeitige Messung von (deutlich) mehr Neuronen einen Unterschied macht, deutet die neue Studie darauf hin, dass dies der Fall sein könnte – vor allem, wenn es darum geht, komplexe Dinge wie Sprache im Gehirn auszulesen. Die Stanford-Wissenschaftler fanden heraus, dass sie umso weniger Fehler beim Verstehen von Probandin "T12" machten, desto mehr Neuronen sie auf einmal auslesen konnten. "Das ist eine wichtige Erkenntnis, denn es deutet darauf hin, dass die Bemühungen von Unternehmen wie Neuralink, 1.000 Elektroden in das Gehirn unterzubringen, einen Unterschied machen werden, wenn die Aufgabe umfangreich ist", so Sabes, der zuvor selbst als leitender Wissenschaftler bei Neuralink gearbeitet hat.

(jle)