Wissenschaftliches Publizieren: KI als Segen und Fluch zugleich

Die Textflut aus dem Forschungsbetrieb lässt nicht nach – auch dank KI. Was darf und was darf nicht sein? Laura Hassink vom Großverlag Elsevier im Interview.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Ein forschender Roboter

Ein forschender Roboter.

(Bild: Erstellt mit Midjourney durch heise online)

Lesezeit: 11 Min.
Inhaltsverzeichnis

Laura Hassink ist Managing Director für die STM-Wissenschaftsjournale (Science, Technology, Medical) bei Elsevier in Amsterdam. In diesem Job verantwortet sie die 2.650 Fachzeitschriften des internationalen Großverlags, die selbst von über 24.000 Herausgebern betreut werden. Sie hat sich in der Vergangenheit auch für Open-Access-Journale eingesetzt, einige davon bringt Elsevier selbst heraus. Im Interview mit heise online spricht Hassink über die Herausforderungen, die der Boom der Künstlichen Intelligenz für ihre Arbeit bedeutet – und den publizierenden Wissenschaftsbetrieb an sich.

heise online: Frau Hassink, wie groß ist Ihrer Meinung nach das Problem, das generative KI-Systeme und LLMs derzeit für das wissenschaftliche Publizieren darstellen?

Laura Hassink: Nun, eigentlich ist es beides. Es ist sowohl eine Chance als auch ein Problem. Wir erlauben den Autoren zwar, generative KI in ihren Artikeln zu verwenden, aber zum Beispiel nur zur Verbesserung der Lesbarkeit und der Sprache, nicht für wissenschaftliche Schlussfolgerungen. Wir bitten sie auch stets zu erklären, dass sie KI und generative Systeme verwendet haben – und wo sie sie verwendet haben. Das kann absolut in Ordnung sein und hilft den Autoren und auch dem ganzen System, denn die meisten sind keine englischen Muttersprachler. Wenn sie also ihre Texte so verbessern, hilft das auch den Redakteuren und Gutachtern, den Artikel tatsächlich inhaltlich zu überprüfen.

Laura Hassink ist Managing Director für STM-Wissenschaftsjournale bei Elsevier.

(Bild: Elsevier)

Problematisch wird es, wenn die Autoren uns nicht mitteilen, dass generative KI verwendet wurde und wenn es sich wirklich um einen von KI generierten Text handelt. Dann haben wir es nicht mehr mit echter Wissenschaft zu tun, sondern fast schon mit Fake Science. Und das wird definitiv zu einem größeren Problem, je ausgefeilter die Tools sind. Das bedeutet auch, dass wir wirklich in unsere eigenen Werkzeuge und Systeme investieren müssen, um sicherzustellen, dass wir das erkennen können.

Setzt Elsevier selbst KI für seine Arbeit ein?

Wir sehen, dass unsere Redakteure zunehmend Probleme haben, herausragende Gutachter zu finden. Wir haben daher eigene Tools entwickelt, die ihnen dabei helfen, ein breiteres Spektrum an Gutachtern zu überprüfen, die vielleicht noch nicht in ihrem eigenen Netzwerk sind. Wir werden aber niemals das Auge eines menschlichen Experten ersetzen, wollen ihnen aber helfen, ihre Arbeit besser zu machen, indem wir KI einsetzen. Und da können diese Werkzeuge sehr hilfreich sein und Redakteuren und Gutachtern helfen, ihre Arbeit auch effizienter zu machen.

Wir suchen mit KI auch nach potenziellen Interessenkonflikten. Wir stellen den Redakteuren also nicht nur eine Liste von Namen zur Verfügung, sondern geben ihnen auch einen Kontext. Die Software gibt dann auch Auskunft darüber, wie oft die betreffende Person bereits Beiträge begutachtet hat, oder ob sie vielleicht gerade einen Beitrag begutachtet, bei dem es mögliche Interessenkonflikte gibt.

Was sagen Sie den Leuten, die Artikel publizieren? Gibt es eine bestimmte Art von Vertrag, in dem sie offenlegen müssen, wo sie KI eingesetzt haben und wo nicht?

Wir haben Richtlinien, die sich jeder publizierende Forscher ansehen muss. Außerdem haben wir spezielle Regeln für die Verwendung von KI-Systemen und generativer KI, die festlegen, wie sie verwendet werden können und wie sie nicht verwendet werden dürfen. Und wir machen die Wissenschaftler auch während des Einreichungsprozesses erneut darauf aufmerksam. Wir fragen sie sogar ausdrücklich, ob sie generative KI eingesetzt haben: Wenn ja, müssen sie offenlegen, wie und wo sie eingesetzt wurde.

Reicht das aus, um Missbrauch auszusortieren?

Es ist nicht genug. Wir müssen noch mehr tun, denn wir sehen immer noch, dass Autoren generative KI auf eine Weise einsetzen, die manchmal doch nicht erlaubt ist. Deshalb investieren wir wie erwähnt intensiv in Tools, die alle Arten von Problemen mit der Integrität solcher Forschung aufdecken können, indem sie nach bestimmten Signalen suchen.

Und welche Art von Signalen ist das?

Eines dieser Signale sind zum Beispiel bestimmte Phrasen, die Sie im Output oft erhalten, wenn Sie ChatGPT verwenden. Das ist ein Projekt, an dem wir gerade arbeiten. Dann lassen wir all diese Einreichungen durch dieses Tool laufen. Wenn es dann diese häufig vorkommenden ChatGPT-Sätze findet, werden sie markiert und wir checken das mit dem Autor.

Könnten KI-Unternehmen wie OpenAI oder Anthropic mehr tun, um verantwortungsvolles wissenschaftliches Publizieren zu erlauben?

Ich denke, es ist eine gemeinsame Verantwortung von allen. Aber ich sehe die Verantwortung insbesondere bei den Verlegern, denn es ist unsere Aufgabe, hier das Richtige zu tun. Wir wollen Forschern und Fachleuten im Gesundheitswesen wirklich dabei helfen, ihre Arbeit zu tun, also Forschung und Wissenschaft zu betreiben. Sie müssen sich auf die Inhalte verlassen können, die sie in unseren Zeitschriften lesen. Vertrauen ist also enorm wichtig. Ich würde sagen, es ist von entscheidender Bedeutung. Und das heißt auch, dass wir uns nicht darauf verlassen können, dass andere uns dieses Vertrauen einfach so schenken. Wir müssen es selbst bewahren, und das tun wir unter anderem mit hohen Standards des Peer Review.

Aber jetzt, im Zeitalter der KI, bedeutet es auch, dass wir als Verleger selbst in neue Software investieren müssen, um sicherzustellen, dass wir wirklich alles tun, um zu gewährleisten, dass kein einziger künstlich erzeugter Text in den Journalen vorkommt.

Es gibt immer mehr wissenschaftliche Artikel. Haben Sie denn einen sprunghaften Anstieg der Einreichungen festgestellt, als ChatGPT herauskam?

Natürlich bekommen wir von Jahr zu Jahr immer mehr Beiträge. Im Durchschnitt ist es ein Wachstumsfaktor von etwa 10 Prozent und natürlich haben wir zum Beispiel während der Covid-19-Pandemie neue Spitzenwerte gesehen. Aber ich würde nicht sagen, dass dies allein auf generative KI und Tools wie ChatGPT zurückzuführen ist, mit denen die Leute sich ihre Beiträge dann zusammenfantasieren.