Wie manipulativ ist KI?
So beeinflussen Sprachmodelle unsere Überzeugungen
Immer mehr Menschen befragen große Sprachmodelle wie ChatGPT und Gemini. Experimente zeigen, wie solche KI-Systeme die Einstellungen und Meinungen ihrer Nutzer verändern – selbst dann, wenn diese davor gewarnt wurden. Das muss aber nicht zwangsläufig einen negativen Effekt haben.
Menschen sind soziale Wesen. Um unser Überleben zu sichern, hat die Evolution uns über Millionen von Jahren darauf getrimmt, ständig miteinander im Austausch zu stehen, zusammenzuarbeiten und voneinander zu lernen. Mit den großen Sprachmodellen hat sich der Homo Sapiens nun ein technisches Gegenüber geschaffen. Diese Maschinen sind keineswegs objektive Informationsquellen. In ihrem Kern auf das Nachahmen menschengemachter Texte trainiert, übernehmen und verstärken sie die in ihren Trainingsdaten vorherrschenden Meinungen und Stereotypen und sind zudem von den Wertvorstellungen ihrer Entwickler beeinflusst. Sie sprechen bereits zu Millionen von Menschen, die aufgrund ihrer Natur gar nicht anders können, als sich von ihnen beeinflussen zu lassen.
Wie immer bei großen Innovationen verläuft auch die Ausbreitung der Sprachmodelle profitgetrieben und, was die gesellschaftlichen Auswirkungen betrifft, weitgehend im Blindflug. In einer Verschmelzung von Soziologie, Psychologie und Informatik versuchen Forschende, die Folgen einer breiten Anwendung abzuschätzen. Mittlerweile haben sie erste wissenschaftliche Erkenntnisse gewonnen und fordern mehr Transparenz von den Herstellern und besseren Einblick in die Entwicklung der Systeme.