Fraunhofer-Tool: Dank maschinellem Lernen automatisch "Fake News" erkennen

Ein Werkzeug des FKIE soll automatisch "Fake News" erkennen und auch helfen, deren Verbreiter zu identifizieren. Die Macher sehen darin ein Frühwarnsystem.

In Pocket speichern vorlesen Druckansicht 150 Kommentare lesen
Fake News

(Bild: dpa, Jens Kalaene/Symbolbild)

Lesezeit: 2 Min.

Deutsche Forscher haben eine Software entwickelt, die mit Methoden des maschinellen Lernens sogenannte Fake News erkennen soll, um den Kampf gegen Desinformation zu erleichtern. Wie das Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) erläutert, konzentriert sich ihr Werkzeug dabei auf Twitter, wo die Links zu den Desinformationen verbreitet werden. Aber auch die Webseiten, auf denen sie stehen, würden ausgewertet und etwa die Metadaten analysiert, um automatisch erkennen zu können, wenn es sich um "Fake News" handelt.

Wie bei maschinellem Lernen üblich, haben die Wissenschaftler ihre Algorithmen zuerst einmal trainiert. Dazu wurden der Software "seriöse Beispielbeiträge" und als "Fake News" klassifizierte Beiträge vorgesetzt. Die Algorithmen suchten dann automatisch nach bestimmten Merkmalen, die "Fake News" auszeichnen. Das können etwa Formulierungen sein, die sich nicht im Sprachgebrauch und bei Journalisten finden, wie "die aktuelle Bundeskanzlerin". Gefunden würden auch sprachliche Fehler, die von Nicht-Muttersprachlern gemacht werden.

Bei der Einordnung von Beiträgen seien auch Metadaten sehr hilfreich. Dabei gehe es etwa darum, wie häufig Tweets zu einer Meldung abgesetzt werden und zu welchen Uhrzeiten. Auch die Vernetzung der Accounts, die Links verbreiten, könne Anzeichen enthalten, die auf "Fake News" hinweisen. Wenn solch ein Beitrag mithilfe der Technik gefunden wurde, lasse sich so auch herausfinden, wer damit begonnen hat, ihn in Umlauf zu bringen.

Sogar Hate Speech lasse sich mit dem System erkennen, versichern die Forscher, sie sprechen dann aber nur von eindeutigen Fällen. Anhand derer müsse ein Klassifikator entwickelt werden, mit dessen Hilfe künftig weitere Beispiele identifiziert werden könnten. Solche eindeutigen Fälle seien Ausdrücke wie "Politischer Abschaum" oder "Nigger".

Das Werkzeug kann an verschiedene Arten von Texten angepasst werden, erklären die Forscher. Behörden und Unternehmen nutzen es demnach, um Desinformation gezielt zu finden und zu bekämpfen. Es diene dabei auch als Frühwarnsystem. (mho)