Neuroprothese: ALS-Patient kann schneller kommunizieren​

Mithilfe einer Neuroprothese kann ein ALS-Patient wieder deutlich besser kommunizieren.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
ALS-Patient steuert mithilfe seiner Neurosprachprothese und Eye-Tracking einen Sprachcomputer.​

ALS-Patient steuert mithilfe seiner Neurosprachprothese und Eye-Tracking einen Sprachcomputer.

(Bild: UC Davis Health)

Lesezeit: 4 Min.

Dank einer Neurosprachprothese kann ein an Amyotropher Lateralsklerose (ALS) leidender, 45-jähriger Patient wieder flüssiger kommunizieren. Vor dem Einsatz der Neuroprothese erreichte er eine Geschwindigkeit von rund 6 Wörtern pro Minute, indem er eine kabellose, gyroskopische Kopfmaus nutzte (Quha Zono 2), um Worte mittels Sensoren auf einem Bildschirm zu tippen. Jetzt sind es sechsmal mehr. Das geht aus einer Studie hervor, die von US-Forschern im New England Journal of Medicine veröffentlicht wurde.

Der Patient erhielt laut Studie im Juli 2023 eine Gehirn-Computer-Schnittstelle (Brain-Computer-Interface, BCI). Das von Neurochirurgen der University of California in Davis entwickelte Gehirn-Computer-Interface erfasst unter anderem die EEG-Signale von Bereichen aus dem an der Sprachproduktion beteiligtem Broca-Areal, genauer dem Gyrus frontalis inferior. Auch werden beispielsweise die Signale aus dem linken Gyrus praecentralis erfasst, dem Teil der Hirnrinde, die Motoneuronen vernetzt und für die Bewegung zuständig ist. Aufgenommen werden die Signale von 4 Arrays mit je 64 Elektroden und drahtlos an einen Computer übermittelt.

Die elektrische Aktivität wird mithilfe von vier Arrays mit je 64 Elektroden gemessen und verarbeitet. Unter anderem kommt ein künstliches neuronales Netzwerk zum Einsatz, um die erfassten neuronalen Signale alle 80 ms in ein englisches Phonem zu dekodieren.
Auf dem Gehirn wurden Elektroden platziert. Vor der Operation wurde mithilfe eines MRTs und einer Datenbank des Human Connectome Project ermittelt, wo die Elektroden auf dem Gehirn des Teilnehmers platziert werden müssen.

(Bild: Brandman et al.)

Die Hirnaktivität wird mithilfe eines neuronalen Netzwerks in Phonem-Wahrscheinlichkeiten umgewandelt. Die wahrscheinlichste Äußerung gewinnt zunächst und wird ausgegeben. Die Laute werden in Echtzeit über eine Text-to-Speech-Software über einen Lautsprecher wiedergegeben. Auch die Stimme des Patienten wurde in diesem Fall nachgeahmt. Auf diese Weise soll der Patient mit kleinen Verzögerungen zwischen den Worten nahezu fließend sprechen können.

Die Neuroprothese erkennt anhand der Hirnaktivität, wann der Teilnehmer versucht zu sprechen. Nach 6 Sekunden Inaktivität oder mittels Eye-Tracking endet das Gespräch. Der Patient kann weitere Menüpunkte anwählen, etwa um anzuzeigen, ob der Satz korrekt ist.

(Bild: Brandman et al.)

Der Patient hat anschließend die Möglichkeit, die Aussage mittels Eye-Tracking zu korrigieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Nach Angaben der Forscher war die Lernkurve des Patienten erstaunlich steil. Bereits am ersten Tag der Übung – 25 Tage nach der Operation – erreichte der Patient mithilfe der Neuroprothese bei einem Wortschatz von 50 Wörtern eine Genauigkeit von 99,6 Prozent, mit einem 125.000 Wörter umfassenden Wortschatz eine Genauigkeit von 90,2 Prozent. Mit weiteren Trainingsdaten über einen Zeitraum von 8,4 Monaten nach der Operation erreichte die Neuroprothese eine Genauigkeit von 97,5 Prozent. In selbst gesteuerten Gesprächen erreichte der Patient eine Rate von etwa 32 Wörtern pro Minute. Im Durchschnitt erreichen Englisch sprechende Menschen laut den Forschern eine Geschwindigkeit von 160 Wörtern pro Minute.

Das Transkript zeigt die acht ersten Sätze, die der Patient (T15) beim Einsatz der Neuroprothese zur persönlichen Kommunikation erzeugt hat.
T15 ist der Patient.

(Bild: Brandman et al.)

Laut den Forschern kann die Neuroprothese die Kommunikation für Menschen mit Lähmung erheblich verbessern, indem sie die kognitiven Prozesse, die beim Versuch zu sprechen ablaufen, dekodiert und in Text umwandelt. Das passierte nicht nur auf Wort-, sondern auch auf Phonem-Ebene.

Seit Jahrzehnten arbeiten Wissenschaftler bereits daran, die Hirnaktivitäten in verschiedenen Bereichen möglichst detailliert lesen und übersetzen zu können. Bereits 2021 hatten Forscher des Cognitive Systems Lab (CSL) an der Universität Bremen eine Neurosprachprothese entwickelt, die gedachte Worte in hörbare Sprache umwandelt. In einer in der Fachzeitschrift Nature veröffentlichten Studie "Real-time synthesis of imagined speech processes from minimally invasive recordings of neural activity" zeigten die Forscher, dass das Gerät die Hirnstromsignale einer Person, die sich das Sprechen nur vorstellt, ohne wahrnehmbare Verzögerung in Sprache umwandeln kann.

Um die Funktionsweise des Geräts zu demonstrieren, hatten die Wissenschaftler Elektroden in den Kopf einer Epilepsiepatientin implantiert. Sie las Texte laut vor, aus denen das System mittels maschinellem Lernen die Beziehung zwischen Sprache und neuronaler Aktivität erlernte. Der gleiche Vorgang wurde mit geflüsterter und vorgestellter Sprache wiederholt, was zum selben Ergebnis führte. Dies lässt die Forscher schließen, dass das Gehirn hörbare, geflüsterte und vorgestellte Sprache ähnlich verarbeitet. Die Neuroprothese wurde im Rahmen einer Kooperation im Forschungsprogramm "Multilaterale Zusammenarbeit in Computational Neuroscience" entwickelt, finanziert vom Bundesministerium für Bildung und Forschung (BMBF) und der US-amerikanischen National Science Foundation.

(mack)