Online-Fälschern auf der Spur

Nutzerbewertungen spielen im Internet bei Kaufentscheidungen eine wichtige Rolle. US-Forscher haben nun einen Algorithmus entwickelt, der helfen soll, Fake-Reviews auf die Schliche zu kommen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.

Nutzerbewertungen spielen im Internet bei Kaufentscheidungen eine wichtige Rolle. US-Forscher haben nun einen Algorithmus entwickelt, der helfen soll, Fake-Reviews auf die Schliche zu kommen.

Wer im Netz etwas besorgen will, erwirbt normalerweise nicht irgendetwas – beim Kauf von einem neuen Handy, einer High-Tech-Kamera oder einem potenziell interessanten Buch lesen die meisten Nutzer erst einmal ausgiebig die Bewertungen anderer Käufer, bevor sie sich schließlich entscheiden, den Bestellvorgang auch wirklich einzuleiten. Das Problem: Nicht immer entsprechen diese Nutzer-Reviews der Wahrheit, sind von Händlern selbst oder gar von Konkurrenten manipuliert, die User an der Nase herumführen wollen, um davon direkt oder indirekt zu profitieren.

Teile der Bewertungen, mit denen die Forscher ihre Filter erprobten.

(Bild: Bing Liu)

"Bis zu 30 Prozent der Nutzerbewertungen können bei einzelnen Produkten falsch sein", sagt Bing Liu, Professor für Informatik an der University of Illinois, der das Problem in zwei Forschungsprojekten mit Wissenschaftlern beim Softwarekonzern Microsoft und dem Suchriesen Google analysiert hat. Dies führe zu einem Vertrauensverlust der Käufer und ernsten wirtschaftlichen Schäden. "Immer mehr Menschen verlassen sich auf Nutzer-Reviews, wenn sie etwas kaufen oder entscheiden, wohin ihre nächste Reise geht. Entsprechend steigen die Anreize, "Fakes" zu platzieren." Es sei ein sehr billiger Weg, Marketing zu betreiben. Zudem schreite die Professionalisierung voran – Firmen bezahlten ganze Horden virtueller Mitarbeiter nur dafür, Produkten besonders viele "Sterne" oder andere Bewertungseinheiten zu verpassen. Manchmal gibt es für gute Bewertungen auch Kundenrabatt, der Einfallsreichtum ist groß.

Liu und seine Forscherkollegen glauben allerdings, dass sich mit einem gut trainierten Algorithmus Fakes bald verlässlich automatisch auffinden lassen. Dabei muss zunächst der Mensch helfen: In Lius jüngster Studie, die kürzlich auf einer Konferenz in Frankreich vorgestellt wurde, kategorisierten acht Angestellte der indischen Shopping-Websites "Rediff" und "eBay.in", die mit dem Thema täglich konfrontiert werden, über zwei Monate lang knapp 2400 einzelne Nutzerbewertungen als "Spam", "Nichtspam" und "Unklar".

Das indische Portal Rediff leidet unter Fake-Reviews.

Über eine Software, die ähnlich wie ein Spam-Filter arbeitet, wurden dann die Eigenheiten der falschen Bewertungen destilliert und in eine Algorithmus namens "Group Spam Rank" (GSRank) gegossen: Dazu gehörten besonders häufig vorkommende Begriffe ebenso wie die Zahl der von einem Nutzer eingestellten Postings und wie lange dieser bereits Bewertungen einstellte. Der aktuelle Prototyp ist in der Lage, größere Spammer-Gruppen präzise zu identifizieren – die Trefferquote lag im Idealfall bei 88 Prozent (entdeckte Fake-Autoren zu Gesamtzahl Fake-Autoren). Die nächste Version soll lernen, auch mit gefälschten Nutzerbewertungen umzugehen, die dezenter gestreut werden.

"Wenn Fake-Reviews gut geschrieben sind, lassen sie sich nur schwer durch eine einfache Lektüre identifizieren. Im Extremfall ist das logisch gesehen eine unmögliche Aufgabe. Beispielsweise kann man eine echte Bewertung für ein gutes Restaurant schreiben und diese dann als falsches Review für ein schlechtes Restaurant ausgeben", sagt Liu.

Die Wissenschaftler ließen verschiedene Algorithmen gegeneinander antreten.

Aus diesem Grund müssten neben dem Text selbst stets auch externe Metadaten analysiert werden. Eine Software, die nach atypischem Verhalten suche, sei dabei verlässlicher als eine reine Textuntersuchung. "Wenn dann beispielsweise die Fünf-Sterne-Reviews für ein Hotel nur von Menschen kommen, die in der Umgebung des Hotels wohnen, machen sie sich ganz klar verdächtig."

Es bleibt allerdings abzuwarten, ob Algorithmen wie GSRank alleine das Fälschungsproblem lösen können. Im Zweifelsfall kann die Technik aber zumindest helfen, für menschliche Fake-Jäger vorzusortieren. Bis dahin empfehlen Experten Betreibern von Bewertungsangeboten einfache Tricks, es Fälschern nicht ganz so leicht zu machen – so sollte zunächst einmal sichergestellt werden, dass ein Bewerter ein Produkt tatsächlich in der Hand hatte. (bsc)