Einsatz von ChatGPT und Co. bei Abschlussarbeiten schwer nachweisbar

Der Einsatz von KI-Textgeneratoren wie ChatGPT in Abschlussarbeiten bleibt aus Expertensicht vorerst schwer nachweisbar.

In Pocket speichern vorlesen Druckansicht 50 Kommentare lesen
Ein offener Laptop wird von einer Person mit blauem Hemd bedient; über der Tastatur schweben der Schriftzug ChatGPT und einigen abstrakte Symbole

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 1 Min.
Von
  • dpa

Ein nicht deklarierter Einsatz von KI-Textgeneratoren wie ChatGPT zum Beispiel in Abschlussarbeiten bleibt aus Expertensicht vorerst schwer nachweisbar. "Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen", sagte die Berliner Plagiatsforscherin Debora Weber-Wulff von der Hochschule für Technik und Wirtschaft der Deutschen Presse-Agentur. "Es gibt zwar sehr viel angebliche Detektoren-Software, aber sie tut nicht das, was sie soll."

Manche der Hersteller hätten Mängel auch selbst eingeräumt und auf Grenzen der Verlässlichkeit hingewiesen. Die Veröffentlichung von ChatGPT Ende 2022 löste einen Hype um Künstliche Intelligenz (KI) aus – und im Hochschulbereich auch Sorgen vor unkritischer Verwendung oder gar Täuschung durch Studierende. Mittlerweile gibt es auch Programme, mit denen man so erstellten Texten auf die Schliche kommen soll.

Weber-Wulff hat an einer Studie mitgearbeitet, für die 14 angebliche KI-Detektoren getestet wurden. Demnach lieferten diese Tools keine verlässlichen Ergebnisse, wenn es um die Frage ging, ob ein Mensch oder eine Maschine einen Text verfasst hat. Davon berichtete das Forschungsteam Ende 2023 im "International Journal for Educational Integrity". Die Studie macht als Kernproblem aus, dass rund jeder fünfte mit KI erzeugte Text nicht als solcher erkannt wurde.

(mack)