Facebook-Entwicklerkonferenz F8: KI und Faktenchecker gegen Problem-Postings

Seite 2: Ein Medium, dem die Leser vertrauen

Inhaltsverzeichnis

Viele Fake News würden sich weniger schnell verbreiten, wenn man sie vor dem Klicken auf "Teilen" erst mal lesen würde. Diese Binsenweisheit lässt sich auch per KI erfassen, denn Facebook erfasst schon dann viele Daten, sobald man den Newsfeed betrachtet. "Wir registrieren, ob jemand ein Video bis zum Schluss angesehen hat – und wir wissen, ob er eine Geschichte komplett gelesen oder nur überflogen hat", sagte Greg Marra.

Um ein Medium genauer bewerten zu können, stuft Facebook per Umfrage dessen Vertrauenswürdigkeit ein. Je mehr Nutzer es kennen und ihm vertrauen, desto höher werden dessen Beiträge eingestuft. Doch manch ein Leser mag sein Vertrauen nur darauf gründen, dass ein Medium sein Weltbild nicht erschüttert. Deshalb bekommt das Medium Bonuspunkte bei der Einstufung, wenn es von einer großen Bandbreite von Lesern positiv bewertet wurde.

Um rund 80 Prozent senkt Facebook die Sichtbarkeit von Fake News.

(Bild: Roland Austinat)

Wie effektiv sind Faktenprüfung und KI-Bewertung letztendlich? Derzeit gelingt es Facebook nach eigenen Angaben, die Sichtbarkeit von Fake News um 80 Prozent zu senken und pro Tag rund eine Million Fake-Benutzerkonten zu löschen. Die übrigen 20 Prozent sind die wahre Herausforderung, denn auf die Frage "Warum löscht Facebook Fake News nicht einfach?" gibt es laut Lyons keine einfache Antwort.

"Wir haben zwar klare Regeln, wenn es etwa um Hassreden geht, aber keine, die vorschreibt, dass alle Postings wahr sein müssen", sagte Tessa Lyons. Auch wenn viele Nutzer im Normalfall automatisch davon ausgehen: "Unter einem Verlobungsfoto fragt niemand in den Kommentaren, ob die darauf abgebildeten Personen sich wirklich verlobt haben."

Ein Ansatz, mit denen Facebook derzeit experimentiert, ist das inhaltliche Abwerten von Beiträgen durch normale Facebook-Anwender – so ähnlich wie etwa bei Amazon-Produkttests. Doch das bringt ebenfalls Probleme mit sich. Tessa Lyons sagt dazu: "Emotionale Kommentare werden bevorzugt auf- und abgewertet, unabhängig von ihrem Wahrheitsgehalt."

Bei Fotos scheint es greifbare Lösungsansätze zu geben: "Wir könnten ein digitales Wasserzeichen auf dem Telefon mit dem vergleichen, was der Nutzer bei Facebook hinterlegt", so Greg Marra. Mit Hilfe von Image Clustering von Bildern gleicher Ereignisse fliegen dann beispielsweise Fotos eines längst vergangenen Wirbelsturms auf, die einem der Poster als Bilder eines aktuellen Unwetters verkaufen will. (olb)