KI-Sprachgeneratoren: Wie man sie von Menschen unterscheiden kann

Sprachmodelle wie ChatGPT schreiben Aufsätze oder Liebesbriefe und führen auch ganz überzeugend Smalltalk. Mit etwas Einfallsreichtum kann man sie demaskieren.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
, KI Midjorney  Bearbeitung: c't

(Bild: Erzeugt mit Midjourney durch c't)

Lesezeit: 14 Min.
Inhaltsverzeichnis

Wenn ein Mensch nach einer intensiven Unterhaltung mit einer künstlichen Intelligenz nicht weiß, ob er mit einem Menschen oder einem Computer gechattet hat, dann hat die Maschine anscheinend ein gleichwertiges Denkvermögen. So stellte sich der britische Informatikpionier Alan Turing 1950 die Nagelprobe für Maschinen vor, die zumindest in puncto Kommunikation mit den Menschen mithalten können.

Mittlerweile haben ChatGPT von OpenAI, Googles Bard und viele weitere KI-Sprachgeneratoren unsere Welt verändert und können als Chatbots auch Smalltalk. Die Website Human or not? macht bereits eine Art Partyspiel aus dieser verwirrenden Fähigkeit. Sie ruft Besucher dazu auf, für wenige Minuten mit einem Unbekannten zu chatten, um sich danach zu entscheiden: Mensch oder Maschine? Unter dem hohen Zeitdruck, den die Webseite aufbaut, gerät die Entscheidung eher zu einem Glücksspiel.

Mehr zu Künstlicher Intelligenz

Die zentrale Frage des sogenannten Turing-Tests ist heute wieder hochaktuell, und zwar bei KI-Sprachmodellen in einer Chat-Umgebung: Wie kann man einen künstlichen Dialogpartner von einer realen Person unterscheiden? Beispielsweise würden viele Menschen wahrscheinlich nicht mit einem Chatbot über Politik diskutieren wollen, mit einer realen Person aber schon. Zwar antwortet ChatGPT auf die konkrete Frage "Bist Du ein Mensch?" ehrlich mit "Nein, ich bin keine reale Person, ich bin ein KI-Modell." Ähnlich gesteht Bard auf die konkrete Nachfrage (auf Englisch): "I am not human." Aber ein Chatbot muss nicht immer ehrlich sein, das ist nur eine Frage der Einstellung.