Wieselworte und Co.: Anleitung zum Erkennen KI-generierter Texte auf Wikipedia
Autorinnen und Autoren haben eine Anleitung auf Wikipedia veröffentlicht, um KI-Texte von ChatGPT und Co. besser identifizieren zu können.
(Bild: Allmy/Shutterstock.com)
Autorinnen und Autoren haben auf Wikipedia eine Anleitung veröffentlicht, laut der man von Large Language Models (LLM) produzierte Texte eindeutiger identifizieren können soll. Dabei handelt es sich laut dem englischsprachigen Artikel um Beobachtungen und Hinweise, nicht um strikte Regeln. Die Anleitung stützt sich dabei auf die Erfahrung ihrer Redakteure, die zahlreiche KI-generierte Texte gelesen sowie redigiert haben und dient vornehmlich als Leitfaden für Leserinnen und Leser.
Der Artikel ist vorerst nur auf Englisch verfügbar. Ein ähnlicher Artikel auf Deutsch richtet sich an Autoren der Wissensdatenbank und benennt harte Regelverstöße.
Videos by heise
Bereits an anderer Stelle befasst sich die englische Wikipedia-Community im Rahmen eines für Administratoren gedachten Schnelllöschverfahrens mit Artikeln, deren zügige Löschung keiner üblichen Abstimmung bedarf. Seit einiger Zeit umfasst dies auch KI-generierte Artikel.
Laut dem jüngst erschienenen Artikel, der sich ausschließlich auf KI-Inhalte bezieht, werden Texte einer KI oftmals wiederkehrende Formulierungen und Muster verwenden, die sie sich durch Training angeeignet haben. LLMs neigten dazu, Texte mit Bedeutung aufzuladen. Übertriebene Werbesprache (Promotional Language) sei ein häufiges Anzeichen für einen KI-generierten Text. Bestimmte Wörter und Phrasen könne man häufiger in solchen Texten finden.
Funktion folgt Form
Weiter heißt es darin, auch das reine Erscheinungsbild, also die Strukturierung und Formatierung eines Textes, könne den künstlichen Autoren verraten. Fett formatierte Texte, die Verwendung von Listen und der häufige Einsatz von Aufzählungszeichen, wie beispielsweise der Halbgeviertstrich, können laut den Autoren auf eine KI hindeuten. Die Form sei oftmals nur Selbstzweck und folge keiner Notwendigkeit.
Nicht so einfach ließen sich dagegen sogenannte Wieselwörter auf den ersten Blick erkennen. Der von Theodore Roosevelt geprägte Begriff des Wieselwortes bezeichnet eine Behauptung, die weder belegt noch widerlegt werden kann. Mit ein wenig Übung könne man solche Formulierungen allerdings logisch überführen.
Halluzinierte Textpassagen dagegen, die Behauptungen mit ebenfalls erfundenen Quellenangaben stützen wollen, kann man erst nach Überprüfung unabhängiger Quellen falsifizieren. In solchen Textstellen ausgezeichnete Links funktionieren häufig nicht und können ein erstes Anzeichen solcher erdachter "Tatsachen" sein.
Interessant dabei: Bereits vor einigen Monaten versuchte die Wikimedia Foundation in einem Projekt, die Akzeptanz und Auswirkungen KI-generierter Zusammenfassungen von Artikeln zu testen, und stieß dabei auf Ablehnung.
(aki)