Neuronale Forschung: KI-gestützte Sprachprothese nutzt neurale Signale

Mit Elektroden oder durch Muskelreizmessung nehmen Forscher neurale Signale aus dem Gehirn auf und KI ermittelt daraus, was der Mensch sagen will.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

(Bild: Thorsten Hübner)

Lesezeit: 14 Min.
Inhaltsverzeichnis

Forscher am Cognitive Systems Lab (CSL) der Universität Bremen haben im Herbst 2021 erstmals eine echtzeitfähige Neurosprachprothese beschrieben. Die macht Wörter unmittelbar hörbar, von denen sich eine Versuchsperson lediglich vorstellt, sie würde sie sprechen. Die Neurosprachprothese schaut dabei direkt ins Gehirn, interpretiert die Hirnströme und übernimmt die Sprachausgabe. Warten Sie aber besser noch etwas, bevor Sie Ihr Mikrofon vom Headset schrauben oder im Vertrauen auf die Hirn-Computer-Schnittstelle schon Maus und Tastatur verschenken: Die Technik ist noch am Anfang und nicht für jeden zu empfehlen.

Bereits 2017 startete Facebook in seinen Reality Labs ein Projekt, um ein "Brain-Computer Interface" (BCI) zu entwickeln. Die Entwickler hatten die faszinierende Vorstellung, dass Anwender über eine direkte Schnittstelle in aller Stille und ohne Tastatur ihre Gedanken dem Computer mitteilen können, ohne diese extra in Worte zu fassen und dann Buchstabe für Buchstabe eintippen zu müssen. Eine Arbeitshypothese war, dass der Mensch schneller denken als sprechen kann und die Texteingabe mithilfe einer solchen Schnittstelle mühelos und sogar schneller funktioniert.

Man hoffte, eine Art Stirnband oder Kappe zu entwickeln, mit der die Träger auf Eingabe-Raten von mehr als 100 Wörtern pro Minute kommen. Kritiker befürchteten, dass die Nutzer ihre Gedanken damit dem Konzern noch unmittelbarer ausliefern würden als schon bisher durch ihre Aktivitäten auf der Social-Media-Plattform.