Wie denken wir? Forscher wollen mit KI den menschlichen Geist entschlüsseln
Unser Denkprozess ist für Neurologen und Psychologen noch immer ein Rätsel. Könnten uns große Sprachmodelle dabei helfen, uns besser zu verstehen?
(Bild: metamorworks / Shutterstock.com)
Die heutige KI-Landschaft ist noch immer geprägt von den Unterschieden zwischen digitalen neuronalen Netzen und dem menschlichen Gehirn. Ein Kleinkind lernt mit nur tausend Kalorien pro Tag und regelmäßigen Gesprächen, wie es effektiv kommunizieren kann. Unterdessen nehmen Technologieunternehmen abgeschaltete Atomkraftwerke zur Versorgung ihrer Rechenzentren wieder in Betrieb, lassen Gasturbinen anlaufen, die zur Umweltverschmutzung in marginalisierten Communitys führen oder bedienen sich Terabytes raubkopierter Bücher, um ihre Large Language Models (große Sprachmodelle, LLMs) zu trainieren und zu betreiben.
Das Gehirn und KI-Modelle haben Gemeinsamkeiten
Aber auch digitale neuronale Netze sind schließlich neuronal – sie sind vom Gehirn inspiriert. Trotz ihrer völlig unterschiedlichen Energie- und Datenbilanz haben große Sprachmodelle und das menschliche Gehirn eine ganze Menge gemeinsam. So bestehen beide aus Millionen von Unterkomponenten: biologischen Neuronen, also Gehirnzellen, im Falle des Menschen, simulierte Neuronen im Falle des Computers. Hinzu kommt: Es handelt sich um die einzigen beiden Maschinen auf der Erde, die flüssig und flexibel menschliche Sprache produzieren können. Auch eine andere Sache ist beiden gemeinsam: Wissenschaftlerinnen und Wissenschaftler verstehen bis heute kaum, wie sie funktionieren.
Ich selbst kann bestätigen, dass es diese Ähnlichkeiten gibt: Ich bin über ein sechsjähriges Studium der Neurowissenschaften zum Journalismus und zur KI gekommen. Unter Hirnforscherinnen und Hirnforschern herrscht mittlerweile die Meinung vor, dass der Aufbau von digitalen neuronalen Netzwerken, die dem Gehirn ähneln, einer der vielversprechendsten Wege für unser Fachgebiet ist, zentrale Fragen zu klären. Und: Diese Ansicht hat sich auch in der Psychologie verbreitet.
So veröffentlichte die Fachzeitschrift Nature kürzlich zwei Studien, in denen der Einsatz neuronaler Netzwerke zur Vorhersage des Verhaltens von Menschen und Tieren in psychologischen Experimenten vorgestellt wurde. Beide Studien kommen zu dem Schluss, dass trainierte Netzwerke Wissenschaftlerinnen und Wissenschaftlern helfen könnten, ihr Verständnis der menschlichen Psyche zu verbessern. Aber ein Verhalten vorherzusagen, ist das eine. Zu erklären, wie es zustande gekommen ist, ist das andere.
Grundmodell der menschlichen Kognition
In einer der Studien haben Forscher ein großes Sprachmodell in ein sogenanntes "Grundmodell der menschlichen Kognition" verwandelt. Standardmäßig sind große Sprachmodelle nicht besonders gut darin, menschliches Verhalten nachzuahmen. Sie verhalten sich beispielsweise logisch in Situationen, in denen Menschen ihre Vernunft abschalten, beispielsweise in einem Spielcasino. Daher optimierten die Forschenden Llama 3.1, eines der Open-Source-LLMs von Meta, anhand von Daten aus 160 psychologischen Experimenten, bei denen es beispielsweise darum ging, aus einer Reihe von "Spielautomaten" den mit dem höchsten Gewinn auszuwählen oder sich Buchstabenfolgen zu merken. Das daraus resultierende Modell nennen sie Centaur.
Videos by heise
Im Vergleich zu herkömmlichen psychologischen Modellen, die einfache mathematische Gleichungen verwenden, konnte Centaur das Verhalten von Personen weitaus besser vorhersagen. Genaue Vorhersagen darüber, wie Menschen in psychologischen Experimenten reagieren, sind an sich schon wertvoll: Wissenschaftlerinnen und Wissenschaftler könnten Centaur beispielsweise nutzen, um ihre Experimente auf einem Computer zu testen, bevor sie menschliche Teilnehmer rekrutieren und bezahlen. In ihrer Veröffentlichung schlagen die Forschenden jedoch vor, dass Centaur mehr als nur eine Vorhersagemaschine sein könnte. Durch die Untersuchung der Mechanismen, die es dem System ermöglichen, menschliches Verhalten effektiv nachzubilden, könnten Wissenschaftler neue Theorien über die inneren Abläufe unseres Geistes entwickeln.
Einige Psychologinnen und Psychologen bezweifeln jedoch, dass das Projekt überhaupt viel über den menschlichen Geist aussagen kann. Sicher – es ist besser als herkömmliche psychologische Modelle, wenn es darum geht, das Verhalten von Menschen vorherzusagen. Aber es hat eben auch milliardenfach mehr Parameter. Und nur weil ein Modell sich äußerlich wie ein Mensch verhält, bedeutet das nicht, dass es auch in seinem Inneren wie ein Mensch funktioniert. Olivia Guest, Assistenzprofessorin für computergestützte Kognitionswissenschaften an der Radboud-Universität in den Niederlanden, vergleicht Centaur daher mit einem Taschenrechner, der die Antworten eines Mathematikgenies auf die Frage nach der Summe zweier Zahlen effektiv vorhersagen kann. "Ich weiß nicht, was man über menschliches Rechnen lernen könnte, wenn man einen Taschenrechner untersucht."
Hinzu kommt: Selbst wenn Centaur Wichtiges über die menschliche Psychologie beinhaltet, könnte es für Wissenschaftler schwierig sein, aus den Millionen von digitalen Neuronen des Modells Erkenntnisse zu gewinnen. Obwohl KI-Forscher intensiv daran arbeiten, die Funktionsweise großer Sprachmodelle zu verstehen, haben sie es bisher kaum geschafft, sie zu knacken. Sie sind nach wie vor eine Black Box – wir wissen nicht genau, wie und warum sie funktionieren. Ein riesiges neuronales Netzwerkmodell des menschlichen Geistes zu verstehen, dürfte kaum einfacher sein als das Verständnis unseres Geistes selbst.
Besser klein anfangen
Ein alternativer Ansatz ist daher, klein anzufangen. Die zweite der beiden Nature-Studien konzentriert sich daher auf winzige digitale neuronale Netzwerke – einige enthalten nur ein einziges Neuron –, die dennoch das Verhalten von Mäusen, Ratten, Affen und sogar Menschen vorhersagen können. Da die Netzwerke so klein sind, ist es möglich, die Aktivität jedes einzelnen Neurons zu verfolgen und anhand dieser Daten herauszufinden, wie das Netzwerk seine Verhaltensvorhersagen erstellt. Und obwohl es keine Garantie dafür gibt, dass diese Modelle so funktionieren wie die biologischen Gehirne, die sie nachahmen sollen, lassen sie sich nutzen, um zumindest überprüfbare Hypothesen über die menschliche und tierische Kognition aufzustellen.
Diese Transparenz hat ihren Preis. Im Gegensatz zu Centaur, das darauf trainiert wurde, menschliches Verhalten in Dutzenden verschiedenen Aufgaben nachzuahmen, kann jedes der winzigen Netzwerke nur das Verhalten bei einer bestimmten Aufgabe vorhersagen. Ein Netzwerk ist beispielsweise darauf spezialisiert, Vorhersagen darüber zu treffen, wie Menschen zwischen verschiedenen Spielautomaten wählen. "Wenn das Verhalten wirklich komplex ist, braucht man jedoch ein großes Netzwerk", sagt Marcelo Mattar, Assistenzprofessor für Psychologie und Neurowissenschaften an der New York University, der die Studie zu den winzigen neuronalen Netzwerken leitete und auch an Centaur mitgearbeitet hat. "Der Kompromiss war, dass es jetzt sehr, sehr schwierig ist, es zu verstehen."
Der Kompromiss zwischen Aussagequalität und Transparenz ist ein wesentliches Merkmal der durch neuronale Netzwerke vorangetriebenen Wissenschaft, über die sich ganze Bücher füllen lassen – ich selbst arbeite derzeit an einem. Studien wie die von Mattar bringen uns diesem Ziel ein Stück näher. So klein seine Netzwerke auch sind, sie können Verhalten genauer vorhersagen als herkömmliche psychologische Modelle.
Das Gleiche gilt für die Forschung zur Interpretierbarkeit von LLMs, die beispielsweise bei den Claude-Machern von Anthropic betrieben wird. Derzeit hinkt unser Verständnis komplexer Systeme – von Menschen über das Klima bis hin zu Proteinen – jedoch noch weit hinter unserer Fähigkeit zurück, Vorhersagen über ihre Fähigkeiten zu treffen.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)