Roboterjournalismus: Forscher fordern Label für automatisch erstellte Texte
Schon vor ChatGPT setzten immer mehr Redaktionen auf Wetter- und Finanzberichte aus der Maschine. Bundestagsforscher drängen auf eine Kennzeichnung.
Von Robotern geschriebene Texte werden in Deutschland bislang nicht als solche gekennzeichnet. Das bemängelt jetzt das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem neuen Bericht zu "Algorithmen in digitalen Medien und ihr Einfluss auf die Meinungsbildung" unter dem Stichwort Roboterjournalismus: "Dies gilt sowohl für die Textgenerierung an sich als auch oft für die Quelle der Daten."
Damit werde der etablierte Standard im deutschen Medienwesen ausgehöhlt, Autoren journalistischer Texte anzugeben und auch Agenturmeldungen als solche zu kennzeichnen, kritisieren die Forscher in der jetzt publizierten Studie. Durch eine aufkommende Praxis, Verfasser und Quellen nicht zu benennen, "könnte die Bedeutung der Autorenschaft im Journalismus sinken". Die Leser seien so zugleich nicht imstande, die Qualität der Texte auch im Vergleich zu journalistischen, also von Menschen geschriebenen Beiträgen zu bewerten.
Wenn Texte vom Leser abhängen
Die Wissenschaftler weisen auf eine weitere Gefahr hin: Es sei angesichts des Trends, Kosten zu sparen und auf den Kollegen Roboter zu setzen, nicht auszuschließen, beim Erzeugen von Texten durch die Maschine Wert darauf zu legen, dass diese den Sichtweisen der jeweiligen Rezipienten entsprächen. Bei Fußballspielen möge es noch vertretbar sein, Resultate aus der Perspektive der Vereine zu verbreiten. Bei Wahlergebnissen gelte es aber zu hinterfragen, ob die Ergebnisse eines Wahlkreises "in unterschiedlichen Versionen veröffentlicht werden sollten, die der vermeintlichen Sicht der jeweiligen Leserschaft entsprechen".
In einer Online-Zusammenfassung ihrer Untersuchung betonen die TAB-Forscher daher: "Nötig ist eine Kennzeichnung automatisch generierter Texte", da Roboterjournalismus künftig an Bedeutung gewinnen dürfte. Bei diesem vergleichsweise jungen Genre wandelten algorithmische Prozesse "strukturiert vorliegende Daten in erzählende Nachrichtentexte" um.
Schneller, aber nicht immer richtig
Nur die anfängliche Programmierung erfolge von menschlicher Hand, erläutern die Experten. Die Texte selbst würden jeweils aktuell aus den zugrundeliegenden, maschinell verwertbaren Informationen etwa zu Sportereignissen erstellt. Immer mehr Redaktionen und Nachrichtenagenturen wie ANP, AP, dpa, die Los Angeles Times, die Washington Post und die Springer-Gruppe setzten automatisch erzeugte Nachrichtentexte etwa für Wetter- und Finanzberichte ein und könnten so in kurzen Zeitabständen Updates veröffentlichen. Solche Texte oder Videos würden aufgrund des hohen Aktualitätswerts in Suchmaschinen als relevanter bewertet, obwohl sie sich teils als falsch herausgestellt hätten.
Für die kommenden Jahre wird mit einer Zunahme gerechnet. Weltweite Aufmerksamkeit erregte vor allem die Ende des Jahres vorgestellte Demoversion des neuen Sprachmodells ChatGPT von OpenAI, schreiben die Wissenschaftler in einem separaten Blogbeitrag zu Systemen mit Künstlicher Intelligenz (KI): "Die Eloquenz ihrer Konversation verblüffte die Öffentlichkeit". Innerhalb von Tagen registrierten sich mehr als eine Million Nutzer, um den Dienst auszuprobieren.
Das Risiko von Falschnachrichten
Falschnachrichten könnten dank digitaler Medien die öffentliche Meinung und politische Entscheidungen nachhaltig beeinflussen, warnen die Forscher. Desinformation mit manipulierenden und irreführenden Inhalten errege "aufgrund ihres oft reißerischen Inhaltes und ihres Neuigkeitswertes" bei den Lesern oft hohe Aufmerksamkeit und werde daher rege weitergeleitet. In der Folge würden "Fake News" so wiederum "von den algorithmischen Verfahren priorisiert".
Über Online-Plattformen verbreiteten sich Falschnachrichten so besonders schnell, bevor ihr Wahrheitsgehalt überprüft werde, monieren die Technikanalysen. Das Phänomen müsse quantitativ und qualitativ noch genauer ausgeleuchtet werden. Die Bedeutung von Filterblasen und Echokammern sei noch nicht wissenschaftlich belegt. Zumindest in Europa komme die große Mehrheit der Nutzer sozialer Medien durchaus regelmäßig bislang "mit konträren Meinungen in Kontakt".
Die Politik in Deutschland und in der EU loben die Forscher dafür, etwa mit dem Medienstaatsvertrag der Bundesländer und dem Digital Services Act (DSA) "erste Schritte" zur Regulierung von Online-Vermittlern von Inhalten unternommen zu haben. Die damit vorgeschriebenen Transparenzmaßnahmen beträfen auch algorithmische Systeme der großen Plattformen mit dem Ziel aufzuzeigen, wie maschinelle Entscheidungen getroffen werden und welche Auswirkungen diese auf die Gesellschaft haben.
Die dpa legt laut einem Sprecher Wert auf die Feststellung, "keine automatisch generierten Texte in unsere Dienste" zu senden. Dies sei auch in der Vergangenheit nicht geschehen. Man beschäftige sich aber "grundsätzlich mit KI-unterstützter Produktion von Inhalten" etwa für Bildrecherchen, automatisierte Gesichtserkennung und die Umwandlung von Einladungen in Termineinträge.
(mki)