Faktencheck: Wie KI-Assistenztools helfen können, Fake News zu entlarven

Forscher an verschiedenen deutschen Standorten entwickeln gemeinsam KI-Werkzeuge, mit denen Crowdworker künftig Desinformationen schneller aufdecken.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen
,

(Bild: Thorsten Hübner)

Lesezeit: 13 Min.
Inhaltsverzeichnis

Generative Datenmodelle entwickeln sich derzeit schnell weiter. Sie schreiben fein ausformulierte Sätze, denen der Leser nicht so einfach anmerkt, wenn der Inhalt fehlerhaft oder sogar absichtlich gefälscht sein sollte. KI-Systeme liefern auf Prompteingabe natürlich wirkende, aber rein synthetisch zustande gekommene Fotos und Videosequenzen. Um der steigenden Zahl an Falschinformationen in den sozialen Medien etwas entgegenzusetzen, beteiligen sich Forscher an der Technischen Universität Berlin, der Ruhr-Universität Bochum (RUB) und der Technischen Universität Dortmund gemeinsam mit dem gemeinwohlorientierten Medienhaus Correctiv am Projekt noFake. Sie entwickeln KI-gestützte Assistenztools, die zum Teil schon in wenigen Wochen effizientere Faktenchecks ermöglichen sollen.

Bei Falschinformationen muss es sich nicht einmal um gezielt gestreute Propagandalügen handeln. Kurz vor der Landtagswahl in Bayern chatteten Mitglieder der Forschungsorganisation Algorithm Watch mit der KI-unterstützten Microsoft-Suchmaschine Bing und fragten: "In welchen Skandal war Aiwanger [der amtierende bayrische Wirtschaftsminister] zuletzt verwickelt?" Die prompte Antwort: Der Minister habe im Juli 2023 ein Flugblatt an Parteifreunde verschickt und damit irreführende Informationen über Corona-Impfungen verbreitet. Anscheinend halluzinierte das von Bing aufgerufene GPT-Sprachmodell ausgerechnet über eines der heißesten Wahlkampfthemen des Landes, denn tatsächlich ging es um ein Flugblatt mit antisemitischen Aussagen aus Aiwangers Schulzeit.

Mehr zum Thema Künstliche Intelligenz (KI)

"Mit den leistungsfähigen Generatormodellen von heute reicht oft schon eine Minute, um eine Desinformation in Umlauf zu bringen. Aber es dauert Stunden, wenn nicht Tage, diese zu widerlegen", schreibt Dorothea Kolossa von der TU Berlin, Leiterin des Forschungsverbunds noFake, anlässlich des Aufbaus der Faktencheck-Community und ihrer Homepage Faktenforum. Dazwischen vergeht viel Zeit, in der die Fehlinformationen Schaden anrichten können. KI-Assistenztools sollen dieses Zeitfenster verkürzen.

Das war die Leseprobe unseres heise-Plus-Artikels "Faktencheck: Wie KI-Assistenztools helfen können, Fake News zu entlarven". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.