Forschung: ChatGPT bereits als Co-Autor mehrerer Fachartikel genannt

ChatGPT ist erst seit Wochen frei verfügbar, aber die Forschung beschäftigt sich intensiv mit der KI. Debattiert wird, ob die KI Fachartikel mitverfassen kann.

In Pocket speichern vorlesen Druckansicht 13 Kommentare lesen

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 2 Min.

Der KI-Textgenerator ChatGPT wird im Wissenschaftsbetrieb kontrovers diskutiert, nachdem er in einigen veröffentlichten Fachartikeln als Co-Autor aufgetreten ist. Viele Verlage und Preprint-Publisher seien einig, dass ChatGPT nicht die Voraussetzungen mitbringe, um als Autor zu gelten, berichtet das US-Wissenschaftsmagazin Nature. ChatGPT könne aber abseits der Liste von Autoren und Autorinnen als Werkzeug geführt werden.

Insgesamt hat Nature vier publizierte beziehungsweise für die Veröffentlichung akzeptierte wissenschaftliche Artikel ausfindig gemacht, bei denen ChatGPT als Autor genannt wird. In einem Fall handle es sich nach Angaben der zuständigen Redaktion um einen Fehler. Dabei geht es um einen Meinungsbeitrag in "Nurse Education in Practice", für den andere Redigierprozesse gelten als für Fachartikel. Bewusst veröffentlicht wurde dagegen ein Artikel im Fachmagazin "Oncoscience", in dem es um die Leistungsfähigkeit von ChatGPT geht.

Auch in einem anderen für die Veröffentlichung akzeptierten Artikel geht es um ChatGPT selbst. Genauso sieht es bei einem weiteren Fachartikel aus, der neben elf Autorinnen und Autoren auch ChatGPT aufführt. Auffallend ist, dass es in den zusammengetragenen Beispielen ohne Ausnahme um die Leistungsfähigkeit von ChatGPT bei bestimmten wissenschaftlichen Praktiken geht. ChatGPT wird hier also untersucht und darf dabei selbst zu Wort kommen. Auf dem großen Preprint-Server Arxiv gibt es dagegen aktuell keine Veröffentlichung mit ChatGPT als Autor.

Die großen Forschungsmagazine Science und Nature akzeptieren dem Bericht zufolge keine wissenschaftlichen Texte, bei denen ChatGPT als Autor genannt wird. Begründet wird das vor allem damit, dass die Software nicht die Verantwortung für den Text übernehmen könne. Andere weisen darauf hin, dass Co-Autoren einen "signifikanten wissenschaftlichen Beitrag" zu Artikeln beisteuern müssen, was für ChatPGT durchaus gelten könne. Autoren müssten aber auch in der Lage sein, der Mitautorschaft zuzustimmen und für den beigetragenen Teil die Verantwortung übernehmen. Das sei die entscheidende Hürde, meint Matt Hodgkinson vom UK Research Integrity Office.

Alex Zhavoronkov von Insilico Medicine, der einen der Artikel mit ChatGPT verfasst hat, weist auch auf ein ganz grundlegendes Problem hin: Die Software habe oft Antworten geliefert, die "nicht notwendigerweise wahr" waren und wenn man mehrfach gefragt habe, habe man unterschiedliche Antworten erhalten. Er sorgt sich deshalb vor Missbrauch durch Menschen ohne Expertise, die damit wissenschaftliche Artikel schreiben wollen.

(mho)