Weiterer Erfolg im "Gedankenlesen"

US-Wissenschaftler haben ein Verfahren entwickelt, um zu rekonstruieren, welche Filmszenen eine Person gesehen hat

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Neurowissenschaftler arbeiten daran, mittels bildgebender Verfahren anhand von neuronalen Aktivitätsmustern erkennen zu können, was eine Person denkt, wahrnimmt, beabsichtigt oder sagt. Kalifornischen Wissenschaftlern ist es so etwa gelungen herauszufinden, wie das Gehirn gelesene Substantive neuronal repräsentiert. Mit funktioneller Magnetresonanztomographie (fMRT) konnten sie aus der neuronalen Aktivität erkennen, welches Wort gerade gelesen wurde (Code für neuronale Repräsentation von Wörtern entschlüsselt).

Bild: Nishimoto et al

Der Lauschangriff auf das Gehirn hat nicht nur den Zweck, die neuronale Sprache von außen objektiv verstehen zu können, sondern auch, damit eine Schnittstelle schaffen zu können, um direkt mit dem Gehirn Maschinen steuern zu können oder eben Gedanken, Wahrnehmungen etc. übersetzen und kommunizieren zu können. Diesem Ziel scheinen Wissenschaftler der University of California in Berkeley wieder einen Schritt näher gekommen zu sein, die Universität schwelgt in ihrer Mitteilung gleich einmal in "futuristischen" Fantasien, offenbar muss man dies heutzutage machen, um Wissenschaft unters Volk zu bringen und für weitere Forschungsgelder zu sorgen: "Imagine tapping into the mind of a coma patient, or watching one's own dream on YouTube." Fragt sich nur, ob man wirklich seine Träume aufzeichnen will, um sie als Film noch einmal zu konsumieren? Und welchen Sinn das machen würde? Mit fMRI haben die Neurowissenschaftler beobachtet, so berichten sie in ihrer in der Zeitschrift Current Biology veröffentlichten Studie, wie die Gehirne von drei Versuchspersonen kurze Szenen aus farbigen Hollywoodfilm-Trailern repräsentieren. Es handelt sich also um äußere visuelle Reize, die gesehen werden, nicht um innere Visualisierungen bzw. Vorstellungen wie Fantasien oder Träume. Weil hier die Methode des Abgleichs zwischen gesehenen und von Computern analysierbaren Filmbildern und neuronalen Aktivitätsmustern im visuellen System nicht funktioniert, ist man noch weit entfernt vom wirklichen Gedankenlesen. Gleichwohl wird versprochen, dass man irgendwann demnächst die "Filme in unseren Köpfen, die niemand anders sehen kann, reproduzieren" könne. Die Voraussetzung wäre freilich, dass das, was sich in unseren Köpfen abspielt, nicht nur technischen Filmen gleicht, sondern dass auch die Szenen darin vorkommen, die auch in den Filmen zu sehen sind.

Bild: Nishimoto et al

Gleichwohl ist erstaunlich, dass es möglich war, aus den neuronalen Mustern Hinweise darauf zu rekonstruieren, was die Versuchspersonen gesehen haben. Zu 95 Prozent habe der Filmstimulus, der einen beobachteten BOLD-Kontrast ausgelöst hatte, vom Programm identifiziert werden können, das auf die Erkennung der Voxel trainiert wurde. Ähnliches hatten sie bereits mit Einzelbildern erfolgreich versucht, jetzt gelang es durch eine neue Methode mit bewegten Bildern. Das war bislang nicht möglich gewesen, weil fMRI-Scans für Veränderungen der Durchblutung (BOLD-Kontraste) zur räumlichen und zeitlichen Repräsentation der Aktivität von einzelnen Neuronen und den Geschwindigkeit von Filmszenen zu langsam waren. Weil aber trotz des neuen Modells die Versuchspersonen über Stunden möglichst unbewegt im fMRI-Scanner verbringen mussten, haben sich drei aus dem Wissenschaftlerteam der Prozedur selbst unterzogen.

Getestet wurde die Korrektheit des von den Forschern entwickelten Bewegungsenergiemodells für die dynamische neuronale Aktivität an bis zu 100.000 Videos in einer Länge von 18 Millionen Sekunden, die zufällig von YouTube ausgewählt wurden. Dabei wurden Clips mit einer Länge von einer Sekunde (15 Bilder) zugrundegelegt. Ausgewählt wurden schließlich die hundert ähnlichsten Clips und diese dann übereinandergelegt, um daraus eine Rekonstruktion des Gesehenen zu erzeugen.

Bild: Nishimoto et al

Natürlich sehen die aus den neuronalen Aktivitätsmustern rekonstruierten Szenen nicht realistisch aus, aber man kann, mitunter mit gutem Willen, schon gewisse Übereinstimmungen mit den Clips finden, die die Versuchspersonen wirklich gesehen haben. Würde man mehr Videos einbeziehen, könnte die Wahrscheinlichkeit größer werden, ähnliche Filmbilder zu finden und so die Genauigkeit der Rekonstruktion zu erhöhen. Die Voraussetzung für das "Gedankenlesen" ist hier allerdings, dass entweder Bilder in allen Gehirnen nahezu identisch neuronal repräsentiert werden oder dass zuerst das Rekonstruktionsprogramm trainiert werden muss, wie einzelne Gehirne bestimmte filmähnliche Szenen repräsentieren. Letzteres würde es schwer machen, die inneren Bilder von unbekannten und nicht analysierten Personen zu rekonstruieren.