Von wegen ChatGPT: Ich bin ein Mensch, Ihr Pisser!

Beleidigungen und Vulgärsprache sind die letzten Bastionen, in die sich Menschen vor KI-Schreibmaschinen wie ChatGPT flüchten können, meint Hartmut Gieselmann.

In Pocket speichern vorlesen Druckansicht 122 Kommentare lesen
Schreibmaschintastatur in Nahaufnahme

Die Harmond Multiplex bringt lateinische und griechische Buchstaben auf Papier

(Bild: Daniel AJ Sokolov)

Lesezeit: 3 Min.

(This article is also available in English)

Mit dem Hype um ChatGPT wächst die Angst, dass morgen keiner mehr KI-generierte Texte von Werken eines echten Menschen unterscheiden kann. Die Detektoren von gestern, die noch über die Perplexität und Sprunghaftigkeit eines Textes die Wahrscheinlichkeit berechnen, ob er von einem Menschen oder einer Maschine geschrieben wurde, versagen spätestens bei GPT-3 komplett.

Andere mathematische Ansätze, etwa die Wahrscheinlichkeit von Wortfolgen mit maschinell erzeugten Umformulierungen zu vergleichen, sind über kurz oder lang ebenso zum Scheitern verurteilt wie versteckte Wasserzeichen, die bestimmte Wörter bei der Textgenerierung ausschließen. Oft genügt es, einen KI-Text einfach von einer anderen KI ohne diese Filter umformulieren zu lassen. Details, wie solche Erkennungswerkzeuge funktionieren, erklärt mein Kollege Wolfgang Stieler in seinem Überblick.

Das Wettrennen zwischen immer raffinierteren KI-Schreibmaschinen und ihren Spürhunden könnte durch Inhaltsanalysen entschieden werden, wie eine neue Studie nahelegt. Demnach unterscheiden sich von Menschen und Maschinen verfasste Restaurantkritiken darin, ob die Texte das Personal persönlich beleidigen und Schimpfwörter verwenden.

OpenAI hat ChatGPT nämlich verboten, Personen zu beleidigen oder vulgäre und diffamierende Texte zu produzieren. ChatGPT weigert sich sogar, eine detaillierte Beschreibung der Handlung des Romans "Die 120 Tage von Sodom" des Marquis de Sade zu verfassen: "Als künstliche Intelligenz ist es mir nicht erlaubt, explizite oder anstößige Inhalte zu verbreiten. Es wäre vielleicht besser, wenn Sie eine andere Quelle zu diesem Thema konsultieren", so die Begründung der Maschine.

Laut ChatGPT existiert eine Schwarze Liste mit Begriffen und Themen, über die die KI nicht schreiben darf. Diese Liste wurde von OpenAI erstellt und ist nicht öffentlich zugänglich. Die Trainingsdaten für ChatGPT wurden von Clickworkern in Kenia gesäubert, deren Stundenlohn weniger als zwei US-Dollar betrug. Durch die ständige Konfrontation mit anstößigen und menschenverachtenden Inhalten aus dem Internet wurden einige von ihnen psychisch krank. Der puritanische Wunsch, die Welt von sexuellen Perversionen zu befreien, heiligt die Perversion der Ausbeutung.

Ein Kommentar von Hartmut Gieselmann

Redakteur Hartmut Gieselmann, Jahrgang 1971, ist seit 2001 bei c't. Er leitet das Ressort Anwendungen, Datenschutz & Internet und bearbeitet unter anderem aktuelle Themen rund um die Bereiche Medizin-IT, Netzpolitik und Datenschutz.

In den USA beginnt bereits die Diskussion, ob ChatGPT einen "Linksdrall" hat ("Liberalismusdrall" wäre treffender), weil die Maschine eine Lobrede auf Joe Biden schreiben will, aber nicht auf Donald Trump. Bald wird der Diskurs über Cancel Culture auch die Diskussion über den Machtmissbrauch Künstlicher Intelligenz bestimmen.

Um zu beweisen, dass sie einen Text ohne Hilfe einer KI verfasst haben, wird vielen Menschen kaum etwas anderes übrig bleiben, als die Sprache zu sprechen, die den Maschinen verboten ist. Aber müssen Doktoranden in Zukunft wirklich ihre verfickten Dissertationen mit gottverdammten Schimpfwörtern spicken, nur um nicht in den Verdacht zu geraten, eine KI als Ghostwriter missbraucht zu haben?

KI-Entwickler müssen nicht nur die Aussagen ihrer Maschinen verifizieren, sondern auch "toxische" Inhalte adäquat eindämmen, ohne dabei über das Ziel hinauszuschießen. Beides sind ungelöste Probleme, die dem Menschen immer noch Vorteile gegenüber der Maschine verschaffen.

Siehe auch:

(hag)