Maschinenlernen gegen Fake-Konten

Mit einem neuen System will Facebook Spam, Betrug und Manipulationen bekämpfen – doch ganz ohne echte Menschen werden diese Bemühungen nicht funktionieren.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Maschinenlernen gegen Fake-Konten

(Bild: Ms Tech)

Lesezeit: 4 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Im Jahr 2019 hat Facebook pro Quartal im Durchschnitt fast zwei Millionen Fake-Konten gelöscht. Betrüger nutzen solche Konten, um Spam, Phishing-Links oder Malware zu verbreiten – ein lukratives Geschäft, das für unschuldige Nutzer verheerende Folgen haben kann.

Jetzt aber hat Facebook Details dazu veröffentlicht, wie dieser Herausforderung mit Hilfe von Maschinenlernen begegnet werden soll. Der Technologieriese unterscheidet zwischen zwei Arten von Fake-Konten. Zum einen gibt es "vom Nutzer falsch kategorisierte" – persönliche Profile für Unternehmen oder Haustiere, die eigentlich eine Facebook-"Seite" darstellen sollten und deshalb schlicht darauf umgestellt werden. "Accounts mit Verstößen" aber sind gravierender: Bei ihnen handelt es sich um persönliche Profile, die Spam oder Betrügereien betreiben und die Nutzungsbedingungen der Plattform verletzen. Diese müssen so schnell wie möglich entfernt werden, ohne ein zu großes Netz auszuwerfen, das auch echte Konten erwischen würde.

Um Fake-Accounts möglichst schon beim Anlegen zu erkennen, also bevor sie Schaden anrichten können, nutzt Facebook eine Kombination aus per Hand geschriebenen Regeln und Maschinenlernen. Wenn ein solches Konto erst einmal aktiv ist, wird die Erkennung deutlich schwieriger. An dieser Stelle kommt das neue Maschinenlern-System von Facebook ins Spiel, das als Deep Entity Classification (DEC) bezeichnet wird.

DEC lernt, echte von falschen Nutzern zu unterscheiden, indem es ihre Verbindungsmuster in dem Netzwerk analysiert. Diese werden als "tiefe Merkmale" bezeichnet, zu denen unter anderem das durchschnittliche Alter oder die Geschlechter-Verteilung bei den Freunden eines Nutzers zählen. Jedes Konto wird mit mehr als 20.000 tiefen Merkmalen charakterisiert.

Das System beginnt seine Arbeit mit einer großen Zahl von maschinengenerierten Kennzeichnungen mit niedriger Präzision. Diese entstehen durch eine Mischung aus Regeln und anderen Maschinenlern-Modellen zur Bewertung der Echtheit von Nutzern. Dann werden die Daten für das Training eines neuronalen Netzes verwendet, und das Modell wird mit einer kleinen Zahl von sehr präzisen Daten weiter optimiert; diese stammen von Menschen rund um die Welt, die mit den jeweiligen kulturellen Normen vertraut sind.

Das finale Klassifikationssystem kann vier Arten von Fake-Profilen identifizieren: Konten, hinter denen eine andere als die angegebene Person steht, kompromittierte Konten von echten Personen sowie Konten von Spammern und von Betrügern, die versuchen, von anderen persönliche Daten zu bekommen. Seit der Einführung von DEC konnte Facebook den Anteil von Fake-Konten auf der Plattform nach eigenen Angaben auf 5 Prozent der aktiven monatlichen Nutzer begrenzen.

Die Angaben zu den Aufräum-Bemühungen von Facebook fallen in eine Zeit, in der Sorgen vor Manipulationen bei den anstehenden US-Präsidentschaftswahlen herrschen, insbesondere mittels Deep-Fakes. Im Dezember berichtete die New York Times über eine koordinierte Desinformationskampagne, bei der mit Hilfe von Deep-Fakes massenhaft Fake-Konten mit überzeugenden Profilbildern angelegt wurden.

Nach Angaben des Facebook-Teams ist diese zeitliche Nähe reiner Zufall. "Es geht darum, Verstöße allgemein zu erkennen, nicht speziell zu irgendwelchen Wahl-Themen", sagt Daniel Bernhardt, technischer Leiter des Teams für Community Integrity. Trotzdem könnte DEC die anderen Bemühungen der Plattform gegen Wahl-Manipulationen ergänzen: Weil das System Profile mittels der tiefen Merkmale kategorisiert, dürfte es sich beispielsweise auch von gut gefälschten Fotos nicht austricksen lassen.

Aviv Ovadya, der als Gründer der Organisation Thoughtful Technology Project Plattform-Design und -Governance analysiert, begrüßt die neue Transparenz von Facebook bei der Fake-Bekämpfung. "Es kann sehr nützlich und hilfreich sein, vorsichtig über Architektur-Entscheidungen und die Funktionsweisen von Sicherheitssystemen zu sprechen, die dann von anderen Unternehmen nachgebildet werden können", sagt er. Unternehmen wie Facebook hätten weitaus mehr Ressourcen als kleine, sodass sich das Teilen von Wissen lohnen könne.

Mehr rund um soziale Medien

Trotzdem stehen die Aufräumarbeiten noch ziemlich am Anfang. Bei 2,5 Milliarden Nutzern im Monat machen 5 Prozent immer noch 125 Millionen Fake-Konten aus. Und auch Maschinenlernen ist kein Allheilmittel – ein solches System wird auch mit noch so viel Training nie jeden einzelnen falschen Nutzer mit absoluter Präzision erwischen.

Also dürfte Facebook für weitere Verbesserungen noch andere Kombinationen von Mensch und Maschine brauchen.

(sma)