Der nächste Schritt zur Gedankenlesemaschine?

Kalifornische Forscher konnten gesehene Bilder aus Hirnaktivität vorhersagen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Durch die jüngeren Ergebnisse der Hirnforschung ist die theoretische Möglichkeit von „Gedankenlesemaschinen“ in die gesellschaftliche Aufmerksamkeit gerückt. Während die meisten Experimente unter künstlichen Laborbedingungen arbeiten, versuchten sich die kalifornischen Forscher an realistischeren Aufgaben. Mit ihrem Verfahren ist es ihnen gelungenen, eine neue, bisher noch nicht gesehene visuelle Szene mit 92-prozentiger Trefferquote in der Hirnaktivierung einer Versuchsperson zu erkennen. Das lädt zu Spekulationen über zukünftige Anwendungen wie der computergestützten Rekonstruktion innerer Vorstellungen oder von Träumen ein.

Für manche ist es ein Traum, Computer allein durch Gedanken steuern zu können. Für manche Patienten sogar die letzte Hoffnung, mit der Außenwelt zu kommunizieren, wenn sie beispielsweise vollständig gelähmt ans Bett gefesselt sind, wie beim Locked-in Syndrom. Spielerisch wird die Idee der Gedankensteuerung bereits von dem Startup-Unternehmen Emotiv aus San Francisco umgesetzt, deren Epoc-Helm Gehirnwellenmuster drahtlos an einen USB-Empfänger sendet und in den USA gegen Jahresende für 299 Dollar in den Handel kommen soll. Autoren des c't-Magazins, die jüngst von der Game Developer Conference in San Francisco berichteten, attestierten dem System aber noch deutliche Mängel in der richtigen Erkennung der Gedankenmuster. Angesichts der Schwierigkeiten, die gestandene Hirnforscher bisher mit dem Gedankenlesen haben, wäre alles andere auch überraschend.

Für manche ist es hingegen eine Schreckensvorstellung, dass der Mensch in seinem Innersten für technische Lesegeräte verfügbar wird. Sie sehen schon die letzte Bastion der Privatsphäre fallen, den ultimativen Überwachungsstaat verwirklicht, gegen den selbst Orwells 1984 verblassen würde: Denn dort würde nicht nur die lückenlose Videoüberwachung, sondern gleich die Gedankenkontrolle durchgeführt. In so einer Welt könnte es schon als ein Verbrechen angesehen werden, nur das falsche zu denken. Interessanterweise knüpft das an die Idee einer Gesinnungsethik an, nicht erst für seine Taten, sondern schon für seine Wünsche und Vorstellungen zur Verantwortung gezogen zu werden.

Die Studie von Kendrick Kay und seinen Kollegen der University of California in Berkeley, die in der aktuellen Ausgabe von Nature erschienen ist (doi:10.1038/nature06713), liegt irgendwo zwischen der bloßen Spielfantasie und dem dystopischen Schreckensszenario. Überraschend sticht aber der kulturelle Kontext ins Auge, in den die Forscher selbst ihre Untersuchung stellen: „Stellen Sie sich ein allgemeines Gehirnlesegerät vor, welches das visuell erlebte Bild einer Person zu jedem Zeitpunkt rekonstruieren könnte. Dieser allgemeine visuelle Decoder hätte großen wissenschaftlichen und praktischen Nutzen“, heißt es gleich in der Einleitung ihres Artikels. Bisher hatten es Wissenschaftler meist den Journalisten überlassen, derartige Fantasien auszumalen.

Hohe Ansprüche: Neue natürliche Bilder erkennen

Der Anspruch von Kay und seinen Kollegen war sehr hoch: Sie wollten nicht nur künstliche Stimuli benutzen, sondern Fotos aus der wirklichen Welt. Bisher haben sich Forscher meist auf künstliches Material beschränkt, um die Wahrnehmung der Versuchspersonen besser kontrollieren und dadurch Störfaktoren gering halten zu können. Beispielsweise verwendeten Yukiyasu Kamitani und Frank Tong 2005 noch einfache Gittermuster, wie sie aus traditionellen Wahrnehmungexperimenten bekannt sind. David Cox und Robert Savoy benutzten im Jahr 2003 künstlich erzeugte Bilder von Alltagsgegenständen und Tieren. John-Dylan Haynes und Geraint Rees beschränkten sich 2005 auf rote und blaue rotierende Kreise.

Die Wissenschaftler aus Berkeley gingen aber auch in einer anderen Hinsicht einen entscheidenden Schritt weiter: Ihr Verfahren sollte nicht nur die Aktivität für bekannte Bilder wiedererkennen, sondern auf komplett neue Fälle verallgemeinerbar sein. Ältere Experimente begnügten sich häufig damit, einem Klassifikationssystem in der entscheidenden Testphase diejenigen Bilder einer Hirnaktivierung zuzuordnen, die bereits fürs Training verwendet worden waren – was an sich schon erstaunlich war. Ungleich höher ist aber die Herausforderung an ein System, das in der Testphase völlig neue Exemplare klassifizieren und damit entscheidend über das Gelernte hinausgehen muss.

Beispiel für einen Stimulus, wie sie in der Studie verwendet wurden. Bild: Stephan Schleim

So groß wie ihre Ansprüche war dann auch die Bildersammlung der kalifornischen Hirnforscher: Knapp 2.000 Fotos aus einer kommerziellen Bilddatenbank oder dem privaten Archiv der Autoren wurden verwendet. Auf ihnen waren beispielsweise Tiere, Gebäude, Essen, Menschen oder Landschaften abgebildet. Alle Fotos wurden in Graustufen umgewandelt und auf eine Bildgröße von 500 x 500 Pixeln heruntergerechnet. Nun wurde daraus ein kreisrundes Stück herausgeschnitten, das auf dem Computerbildschirm im Experiment einem Sehwinkel von 20° x 20° entsprechen würde sowie ein vier Pixel großer Fixationspunkt in die Mitte eingezeichnet, von dem die Versuchspersonen tunlichst nicht abweichen sollten – und fertig war das Bildmaterial.

Methodische Sprünge

Wer hohe Ansprüche hat, der muss auch anspruchsvolle Methoden verwenden. Der Clou vieler jüngerer Experimente aus der bildgebenden Neurowissenschaft war, dass sie moderne Algorithmen aus dem Bereich des Maschinenlernens auf Hirndaten anwendeten. Aus der Gesichts- und Spracherkennung sind diese Verfahren schon in kommerziellen und biometrischen Kontexten im Einsatz. Der wesentliche Mehrwert dieser Methoden liegt für die Hirnforschung darin, räumlich ausgedehnte Muster finden zu können, während die früheren Methoden jedes Voxel (ein gemessener Bildpunkt, der die neuronale Aktivierung eines bestimmten Volumens im Gehirn repräsentiert, zum Beispiel 27 mm3 neuronalen Gewebes) einzeln und von seinen Nachbarn getrennt untersuchte. Dadurch konnten die Gedankenforscher den kognitiven Prozessen ein gutes Stück näher rücken und sogar für sich beanspruchen, verborgene Absichten zu unterscheiden (Verräterische Muster im Gehirn).

Die Verfahren des Maschinenlernens bringen aber auch einen Nachteil: Wer zu viel Arbeit dem Algorithmus überlässt, der mag am Ende zwar ein System haben, das Erstaunliches leistet aber überhaupt nicht verstehen, wie es eigentlich funktioniert. Dieses Problem bringen etwa auch die klassischen neuronalen Netze aus der Informatik mit sich: Die Lösung der Aufgabe liegt in den Gewichten der jeweiligen Verbindungen untereinander verborgen. Dieses Bild hat sich tatsächlich auch durch die Brain Interpretation Competition der University of Pennsylvania ergeben, die in den letzten beiden Jahren ausgetragen wurden. 2006 sollten gesehene Videoclips möglichst gut rekonstruiert, 2007 das Verhalten einer Versuchsperson in einer virtuellen Spielewelt nachvollzogen werden (Gedankenlesen). Tatsächlich war die Genauigkeit der Schätzungen erstaunlich, konnten die Preisträger aber meist nur mit den Schultern zucken, wenn man sie danach fragte, was uns ihr Ergebnis Neues über das Gehirn lehre.

Kendrick Kay und seine Kollegen wollten sich aber nicht nur auf die besten Methoden verlassen, sondern haben den Algorithmen entscheidend nachgeholfen: Beispielsweise wurde in einem Vorexperiment das rezeptive Feld eines jeden Voxels herausgefunden. Das heißt, man hat vorab getestet, auf welchen Bildbereich die Neuronen an diesem Ort am meisten anspringen. Dieses Vorgehen macht sich die so genannte retinotope Anordnung der Neuronen im visuellen System unseres Gehirns zunutze. Jeder Ort in der Sehrinde entspricht nämlich einem bestimmten Ort auf der Retina und im Gehirn benachbarte Orte entsprechen auch benachbarten Orten auf der Retina. Das sollte aber nicht zu dem Fehlschluss verleiten, man könnte beispielsweise mit dem Mikroskop im Gehirn ein richtiges Abbild des Gesehenen erkennen – wie die Neuronen nämlich das Bild repräsentieren, bleibt eines der größten Rätsel der modernen Hirnforschung. Studien wie diejenigen der kalifornischer Forscher können aber durchaus zu seiner Lösung beitragen.

Der Vorteil dieses aufwändigen Vorgehens liegt auf der Hand: Hat man das rezeptive Feld eines Voxels herausgefunden, dann weiß man auch, dass ein bestimmter Abschnitt eines gezeigten Fotos in diesen Neuronen zu einer bestimmten Aktivierung führen muss. Kay und seine Kollegen ließen es aber nicht darauf beruhen, sondern modellierten auch weitere Eigenschaften, beispielsweise die Orientierungsinformation, auf die bestimmte Voxel ansprachen, sowie die räumliche Frequenz der Bildinformation. Das heißt, dass herausgefunden wurde, auf welche Struktur- oder Textureneigenschaften eines Fotos diese Neuronen am meisten ansprachen. Damit konnten die Forscher unabhängig von den später verwendeten Bildern ein Modell dafür entwickeln, welche Arbeit an welchem Ort im visuellen Kortex einer Versuchsperson durchgeführt wird.

Aufgabe: Wie würden die Neuronen reagieren?

In einer Trainingsphase mit 1.750 Bildern haben die Forscher dieses Modell der rezeptiven Felder dann mit echten Daten aus dem Hirnscanner gefüttert. So konnte eine Verbindung dazwischen hergestellt werden, welche natürlichen Fotos zu welcher neuronalen Aktivierung führen. Die 120 neuen Bilder der finalen Testphase wurden dann durch dieses Modell geschleust, das eine Vorhersage darüber machte, wie die neuronale Aktivierung jeweils aussehen müsste – wie würden die Neuronen auf das Bild reagieren? Diese Schätzung lässt sich dann mit dem tatsächlich im Hirnscanner gemessenen Signal vergleichen; und die Ergebnisse können sich sehen lassen.

Stufe 2 des Experiments: Durch den Vergleich von gemessener und für das Bild erwarteter Aktivierung lässt sich bestimmen, was eine Versuchsperson gerade gesehen hat. Bild: Kendrick Kay et al., Nature

Bei einer der beiden Versuchspersonen kamen sie auf eine Trefferquote von 92%, bei der anderen immerhin noch auf 72%. Würde man einfach nur raten, käme man im Mittel auf schlappe 0,8%, das heißt, man würde bei 120 Versuchen gerade ein einziges Mal richtig liegen. Die Schätzung des Modells lag aber in 110 beziehungsweise 86 Fällen richtig. Auf dieses Niveau kamen die Forscher aber nur, wenn sie jedes der neuen Bilder dreizehnmal darstellten. Für eine einzige Präsentation kamen sie auf immer noch ansehnliche 51% beziehungsweise 32% für die beiden Versuchspersonen. Der Unterschied lässt sich durch die Begrenzungen der funktionellen Magnetresonanztomographie erklären. Das Signal, das die teuren Hirnscanner aufzeichnen, ist nämlich durch Störungen verrauscht. Die Wiederholung einer Bedingung ist ein geeigneter Weg, das Rauschen in den Griff zu bekommen: Während es nämlich zufällig verteilt ist, steht das echte Signal mit dem Stimulus in Verbindung. Das Rauschen kürzt sich also durch Wiederholung weitestgehend heraus, übrig bleibt das Signal.

Auch darauf ließen es die Kalifornier aber noch nicht beruhen, sondern sie untersuchten außerdem die zeitliche Stabilität ihres Modells: Würde die Schätzung auch dann noch funktionieren, wenn einige Wochen verstrichen wären? Diese Frage ist auch deshalb von Interesse, weil sich das Gehirn im Laufe der Zeit verändert, neue Verbindungen entstehen und einzelne Neuronen absterben. Nach zwei Monaten konnten aber von 120 weiteren Bildern für die erste Versuchsperson immer noch 82% richtig identifiziert werden; selbst nach über einem Jahr funktionierte das Modell sehr gut.

Ausblick

Mit dieser Studie haben Kendrick Kay und seine Kollegen eine neue Messlatte in der bildgebenden Hirnforschung definiert, an der sich zukünftige Studien orientieren werden. Eine offene Frage bleibt aber, ob ähnliche Versuche auch außerhalb der visuellen Domäne funktionieren würden. Unsere visuelle Wahrnehmung ist insofern ein Sonderfall, als eine Reihe hierarchisch organisierter Bereiche im Gehirn ihre Verarbeitung übernehmen, deren Funktionsweise vergleichsweise gut verstanden ist. Wie unser Gehirn abstrakte Gedanken repräsentiert, darüber ist aber viel weniger bekannt. Denkt man an die Möglichkeit der Lügendetektion (Gedankenlesen), an der sich vor allem kommerziell interessierte Forscher versuchen, dann scheinen die Lügen eher in den Bereich der abstrakten geistigen Prozesse zu fallen als in den der visuellen Wahrnehmung.

Die kalifornischen Hirnforscher gehen mit ihrer Entscheidung für neue und natürliche Fotos in die richtige Richtung, wenn es um das Projekt des Gedankenlesens geht. Sie konnten zeigen, dass auch für diese Art von Bildern eine erstaunlich gute Schätzung anhand der Hirnaktivierung möglich ist. Eine interessante Frage wäre, ob das nicht nur für gesehene, sondern auch für vorgestellte Bilder funktionieren würde. Vielleicht könnte so eines Tages eine vollkommen neue Art der Kunst entstehen, bei der es nicht mehr darum geht, schwierige Techniken zu beherrschen, um seinen Gedanken Realität zu verleihen.

Gäbe es in der Folge der Forschung von Kay und seinen Kollegen zukünftig einen Weg, möglichst genaue Vorstellungen oder gar Träume sichtbar zu machen, wäre das ein entscheidender Schritt dahin, unsere innere Welt in die Außenwelt zu transportieren, wo wir sie auch mit anderen teilen können. Der wachsende Markt der Computerspiele, in denen Entwickler ihre Ideen für andere Menschen verwirklichen können, macht den kulturellen Schöpfungswert dieser Idee deutlich. Gleichzeitig liegt es aber auf der Hand, warum diese Forschung gesellschaftlich diskutiert werden muss – am Horizont zeichnen sich nämlich weit reichende juristische und philosophische Fragestellungen ab (Revolutionieren die Neurowissenschaften die Gesellschaft?).

Von Stephan Schleim ist in der Telepolis-Reihe vor kurzem das Buch: Gedankenlesen. Pionierarbeit der Hirnforschung erschienen. Weitere Informationen zum Thema finden sich auf der Homepage zum Buch.