Studie: KI-Modell "Centaur" sagt menschliches Verhalten voraus

Ein internationales Forschungsteam hat mit "Centaur" ein KI-Modell vorgestellt, das menschliches Verhalten über zahlreiche kognitive Aufgaben vorhersagen kann.

vorlesen Druckansicht 20 Kommentare lesen
Projektion eines Gehirns, daneben die Buchstaben "AI"

(Bild: incrediblephoto / Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Ein internationales Forschungsteam hat mit "Centaur" ein KI-Modell vorgestellt, das menschliches Verhalten über zahlreiche kognitive Aufgaben hinweg täuschend genau vorhersagen können soll. Das geht aus der Studie "A foundation model to predict and capture human cognition" hervor, die in Nature veröffentlicht wurde.

Centaur basiert auf dem Sprachmodell Llama 3.1 (70B) von Meta AI und wurde mithilfe eines eigens kuratierten Datensatzes namens "Psych-101" feinabgestimmt. Dieser umfasst über 10 Millionen Entscheidungen von mehr als 60.000 Teilnehmern aus 160 psychologischen Experimenten, etwa aus Bereichen wie Objektklassifizierung oder Glücksspiel. Die Forscher weisen darauf hin, dass der Datensatz zwar sehr groß, aber nicht perfekt ist: So fehlen etwa Angaben zu Alter oder sozioökonomischem Status der Teilnehmenden, zudem stammen die Versuchspersonen überwiegend aus westlichen Ländern.

Das Team trainierte Centaur mit 90 Prozent der Daten und prüfte anschließend, wie gut das Modell Entscheidungen von Personen vorhersagen kann, die nicht im Trainingsdatensatz enthalten waren. Auch bei leicht veränderten Versuchsaufbauten blieb die Vorhersagekraft hoch. In beiden Fällen schnitt Centaur besser ab als das Ausgangsmodell Llama oder andere Modelle.

Psych-101 umfasst Daten aus 160 psychologischen Experimenten mit 60.092 Teilnehmenden, die insgesamt 10.681.650 Entscheidungen getroffen haben und dabei 253.597.411 Text-Tokens erzeugten. Der Datensatz enthält Bereiche wie Entscheidungsfindung, Gedächtnis, überwachtes Lernen und weitere. Centaur ist ein Grundmodell menschlicher Kognition, das unter anderem auf Psych-101 feinabgestimmt wurde.

Die Forscher zeigen außerdem, dass die internen Repräsentationen des Modells eng mit gemessener Hirnaktivität (fMRT-Daten) korrelieren – obwohl es nicht darauf trainiert wurde. Das deutet darauf hin, dass Centaur ähnliche Informationsverarbeitungsmechanismen wie das menschliche Gehirn nutzt.

Künftig könnte Centaur helfen, psychologische Theorien zu entwickeln, Experimente zu simulieren oder individuelle Entscheidungsstrategien besser zu verstehen. Laut den Forschern könnten sowohl der Datensatz Psych-101 als auch das Modell Centaur künftig breit in der Verhaltensforschung eingesetzt werden, etwa zur Vorbereitung neuer Experimente oder zum besseren Verständnis kognitiver Prozesse. Auch für die Simulation von Versuchspersonenverhalten in der Forschung bietet das Modell neue Möglichkeiten.

Die Autoren sprechen von einem "Wendepunkt für die kognitive Wissenschaft". Das Model Llama-3.1-Centaur-70B und der Datensatz "Psych-101" sind auf Hugging Face verfügbar. Das Team plant, den Datensatz weiter auszubauen – etwa um psycholinguistische, soziale und interkulturelle Facetten menschlichen Verhaltens.

Experten wie Prof. Andreas Glöckner von der Universität zu Köln, Prof. Markus Langer von der Universität Freiburg und Prof. Clemens Stachl von der Universität St. Gallen sehen in Centaur einen wichtigen Fortschritt. Sie betonen aber auch, dass sich die Vorhersagekraft bislang auf Labor- und Entscheidungsexperimente beschränkt und noch nicht auf komplexe Alltagssituationen übertragbar ist. Zudem warnen sie vor einer Überinterpretation der Ergebnisse und mahnen zur Vorsicht bei ethischen Fragen und möglichen Missbrauchspotenzialen. Langer gibt zu bedenken, ob die "Akkuratheit in der Vorhersage menschlichen Verhaltens – die teilweise bei 64 Prozent liegt – nun wirklich als 'gut' bewertet werden kann".

"Das Modell ist State of the Art, und die Methodik ist äußerst solide. Die Autor:innen sind methodisch sehr sorgfältig vorgegangen und haben zahlreiche Vorkehrungen getroffen, um die Robustheit der Ergebnisse sicherzustellen und deren Generalisierbarkeit auf neue Daten abzuschätzen", so Stachl. Interessant habe Glöckner noch einen Vergleich der Leistung von Centaur zu bereits zuvor entwickelten, spezifischen neuronalen Netzen gefunden, "die zur Vorhersage einzelner Aufgabenbereiche trainiert wurden". Stachl zufolge sei auch der Datensatz sehr beachtlich: "Eines der zentralen Hindernisse, das derzeit größere Fortschritte in den Sozial- und Verhaltenswissenschaften verhindert, ist der Mangel an großen, kuratierten Datensätzen zu menschlichem Verhalten – Psych‑101 stellt hierfür ein Musterbeispiel dar".

Videos by heise

Zudem ist sich Stachl sicher, dass "große Technologieunternehmen bereits heute ähnliche Modelle einsetzen, um unser Entscheidungsverhalten und unsere Präferenzen – etwa beim Online-Shopping oder in sozialen Medien – vorherzusagen. Diese Modelle sind inzwischen sehr gut – denken Sie hier zum Beispiel an ChatGPT oder wie gut Tiktok Videos vorschlägt, um Nutzer möglichst lange in der App zu halten. Wie gut sie genau sind, wissen wir nicht, weil diese Modelle inzwischen die am bestbehütetsten Geschäftsgeheimnisse sind." Er warnt zudem vor der Gefahr digitaler Abhängigkeit oder gar einer "digitalen Sklaverei". Die Frage nach dem Umgang mit Technologie müsse die Gesellschaft als Ganzes beantworten. Dabei werden die Wissenschaft, Juristen und politische Entscheidungsträger "in Zukunft stärker gefordert sein".

(mack)