Voller Fehler: Gizmodo-Artikel von KI sorgt für Frust in der Redaktion

Bei Gizmodo wurde ein Artikel zu Star Wars veröffentlicht, der von ChatGPT und Bard verfasst wurde und voller Fehler war. Der Ärger in der Redaktion ist immens.

In Pocket speichern vorlesen Druckansicht 110 Kommentare lesen

(Bild: Alex Kay Visuals/ Shutterstock.com)

Lesezeit: 4 Min.

Beim US-Onlinemagazin Gizmodo und den Schwestermarken herrscht Frust, nachdem auf Betreiben des Redaktionsleiters ein mit Fehlern gespickter Artikel veröffentlicht wurde, der von KI-Chatbots erstellt wurde. Das berichtet die Washington Post, sie zitiert unter anderem aus internen Nachrichten. Ein im Anschluss intern verbreitetes Statement von Merrill Brown, in dem es heißt, dass man Feedback sammeln und mit KI-Experimenten fortfahren wollen, wurde demnach 16 Mal mit 👎, 11 Mal mit 🗑️, sechsmal mit 🤡 und je zweimal mit 🤦sowie 💩 kommentiert. Die zuständige Gewerkschaft bezeichnete das Vorgehen auf Twitter als "unethisch und inakzeptabel": Auf einen Artikel eines "Bots" sollte man nicht klicken, rät die GMG.

In der Auseinandersetzung geht es um einen Artikel, der vergangene Woche auf io9 veröffentlicht wurde, dem Science-Fiction- und Entertainment-Portal von Gizmodo. Es handelt sich um eine "chronologische Liste von Star-Wars-Filmen und -Serien", verfasst von einem "Gizmodo Bot". Der war voller Fehler, unter anderem fehlten Serien wie "Andor", "Obi-Wan Kenobi" und "The Book of Boba Fett", zudem stimmte die Chronologie nicht. Der zuständige stellvertretende Chefredakteur, James Whitbrook, erklärte auf Twitter, er sei erst zehn Minuten im Voraus informiert worden. Außerdem veröffentlicht er einen Brief an die Geschäftsleitung, in der er harsche Kritik übt. Der Text sei "beschämend, nicht publizierbar und respektlos gegenüber den Mitarbeitenden und dem Publikum gegenüber".

Whitbrook bezeichnet den Text weiterhin als "miserabel geschrieben" und als einen Angriff auf die Autorität und Integrität des eigenen Portals. Es sei beschämend, dass das eigene Team einen unerhörten Zeitaufwand betreiben müsse, um der Geschäftsleitung von G/O Media zu erläutern, welche inakzeptablen Fehler sie mit der Veröffentlichung gemacht hätten. Das sei seine förmliche Meinung, persönlich halte er den Artikel für "absoluten Mist". Weiterhin erklärte er, dass der Artikel von außerhalb der Redaktion in das eigene CMS (Content-Management-System) gestellt worden sei, niemand bei io9 oder Gizmodo habe vor der Veröffentlichung damit in irgendeiner Weise interagiert.

Laut der Washington Post waren die Gizmodo -Angestellten und der verschiedenen Schwestermarken Anfang der vergangenen Woche darüber informiert worden, dass "begrenzte Tests" mit KI-generierten Texten begonnen würden. Auch in anderen Artikeln wurden in der Folge teilweise gravierende Fehler gefunden. Wenige Tage vorher hatte der neue Redaktionsleiter Merrill Brown den Rückgriff auf ChatGPT, Bard & Co. demnach auch damit begründet, dass man mehrere Portale habe, die über Technologie berichten. Deshalb müsse man KI-Initiativen vergleichsweise früh im Entwicklungsstadium der Technik entwickeln.

Das Vorgehen bei Gizmodo erinnert an Cnet, wo KI-Artikel Anfang des Jahres für Aufsehen gesorgt hatten. Nach breiter Kritik wurde die Praxis dann angeblich eingestellt. In Deutschland lag im Frühjahr sogar eine Extraausgabe des Rezeptemagazins Lisa Kochen & Backen an Kiosken, die komplett mit Inhalten aus Text- und Bildgeneratoren befüllt worden war. Die Gizmodo-Reporterin Lauren Leffer bezeichnet den jetzt kritisieren Rückgriff auf KI gegenüber der Washington Post als "transparenten" Versuch, mehr Werbeeinnahmen zu generieren. Die Redaktion habe das demoralisiert. Es sei auch nicht so, dass Menschen keine Fehler machen würden, meint sie. Aber diese wüssten, dass sie für ihre Texte und mögliche Fehler geradestehen müssen, KI-Chatbots nicht.

Laut Leffer wurde der Artikel des "Gizmodo Bots" außerdem gerade einmal 12.000 angeklickt, deutlich weniger als ein anderer zur NASA, der im gleichen Zeitraum auf 300.000 Page Views gekommen sei. "Wenn ein Unternehmen sich darauf beschränkt, Menschen dazu zu verführen, versehentlich auf Links zu klicken, dann könnte KI dafür reichen", meint sie demnach. "Aber wenn sie ein Medienunternehmen leiten wollen, sollten sie darauf vertrauen, dass ihre Redaktionen wissen, was die Leser wollen". Ein Sprecher von G/O Media hat den Versuch gegenüber der Washington Post dagegen als Erfolg bezeichnet und nur noch versichert, dass man wegen KI keine Stellen abbauen wolle.

(mho)