Facebook manipulierte für eine Studie den Nachrichtenstrom

Für eine Studie hat Facebook in den Nachrichtenstrom Hunderttausender Nutzer manipuliert. Die Anfang Juni veröffentlichten Ergebnisse stehen jetzt in der Kritik.

In Pocket speichern vorlesen Druckansicht 90 Kommentare lesen
Lesezeit: 1 Min.
Von
  • dpa

Facebook hat vor eineinhalb Jahren in einer Studie untersucht, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Dazu wurde die Auswahl der Einträge ihrer Facebook-Freunde im Nachrichtenstrom einiger hunderttausend Nutzer vorgefiltert. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Insgesamt wurden im Januar 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert. Über drei Millionen Einträge wurden laut Studie von Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog "Psych Central" auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Von Facebook gab es zunächst keine Reaktion.

Die Studie war bereits am 2. Juni veröffentlicht worden, kam aber erst jetzt mit Medienberichten und Kritik im Internet in die Diskussion. In dem Papier wird darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen. Die Newsfeeds der Mitglieder werden von Facebook ohnehin vorgefiltert, um sie nicht mit Informationen zu überfluten. (ps)