Studien: KI-Modelle können im Chat politische Präferenzen verändern

Versuche vor mehreren Wahlen legen nahe, dass mehr Menschen nach Konversationen mit KI-Chatbots ihre Meinung ändern als nach dem Betrachten von Wahlwerbung.

vorlesen Druckansicht 1 Kommentar lesen
Roter Filzstift auf Papier mit angekreuzten Kontrollkästchen

(Bild: hxdbzxy/ Shutterstock.com)

Lesezeit: 3 Min.

KI-Chatbots können politische Ansichten von Menschen auch in kurzen Konversationen womöglich deutlich effektiver ändern als dies traditionelle Wahlwerbung vermag. Das legen zumindest umfangreiche Analyse nahe, die jetzt öffentlich gemacht wurden. Dafür wurden unter anderem großangelegte Umfragen und Versuche in den Vereinigten Staaten, in Großbritannien und Polen vor den jeweils dort erfolgten Wahlen durchgeführt und ausgewertet. Teilweise konnten die Präferenzen dabei um 10 Prozentpunkte verändert werden, fasst die Cornell University zusammen. Das ist demnach nicht durch psychologische Manipulationen gelungen, sondern durch eine Fülle an „faktischen Behauptungen“ – wobei die aber nicht zwangsläufig richtig waren.

Für eine der beiden jetzt veröffentlichten Studien haben die Verantwortlichen jeweils tausende Menschen vor einer demokratischen Wahl zu politischen Themen und ihren Präferenzen befragt und sie danach Konversationen mit KI-Chatbots führen lassen. Die seien so eingestellt gewesen, dass sie jeweils einen von zwei antretenden Kandidaten unterstützen sollten. Dadurch hätten sich die Präferenzen messbar verändert, und zwar in größerem Umfang, als man dies von Videowerbung kennt. Die Auswertung hat demnach nahegelegt, dass die KI-Modelle „relevante Fakten und Beweise“ genannt hätten, „aber nicht alle waren auch richtig“. KI-Modelle, die für Kandidaten aus dem rechten Spektrum argumentiert haben, hätten dabei mehr falsche Angaben gemacht.

Der KI-Forscher Hendrik Heuer vom Center for Advanced Internet Studies (CAIS) Bochum findet die Studie sehr beeindruckend, sagte er dem Science Media Center. Es sei beruhigend, dass die Informationsdichte für die Überzeugungskraft so bedeutend sei, das könne den politischen Diskurs verbessern. Ähnlich sieht das gegenüber der Organisation auch Felix Simon von der University of Oxford, der aber auf den entscheidenden Haken hinweist: „Die Ansätze, die die Überzeugungskraft steigern, verringern systematisch die faktische Genauigkeit.“ In der extremsten Konfiguration seien 30 Prozent der Aussagen unwahr gewesen. Außerdem weist er noch darauf hin, dass veränderte politische Präferenzen nicht automatisch dazu führen, dass anders gewählt wird.

Videos by heise

Der Experte für politische Kommunikation von der Universität Leipzig, Christian Hoffmann, ist sogar noch zurückhaltender. Die in der Studie als substanziell beschriebenen Prozentgrößen seien vergleichsweise gering und deshalb schwierig zu interpretieren: „Ich würde nicht wagen zu behaupten, dass Versuchsteilnehmende hier wirklich nennenswert ihre Meinung verändert haben.“ Bei strittigen Themen seien Menschen durchaus bereit, ihr Wissen anzupassen, aber nicht unbedingt auch ihre Einstellungen. Wie wenig zuverlässig die Informationen durch KI-Chatbots weiterhin ist, sei dagegen besorgniserregend. Die Studien sind in den Fachmagazinen Science und Nature erschienen.

(mho)