Facebook-Nutzer als Laborratten: Universitäten mischen mit

Die Data-Mining-Experimente von Facebook erfolgen ohne explizite Zustimmung der Nutzer. Inzwischen beteiligen sich auch Universitäten daran - und verletzen so die Grundregeln, die sie bei staatlich geförderter Forschung einhalten.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 5 Min.
Von
  • David Talbot

Die Data-Mining-Experimente von Facebook erfolgen ohne explizite Zustimmung der Nutzer. Inzwischen beteiligen sich auch Universitäten daran - und verletzen so die Grundregeln, die sie bei staatlich geförderter Forschung einhalten.

Wieder einmal hat sich Facebook den Argwohn der Netzgemeinde zugezogen. In einer umstrittenen Studie hatte das soziale Netzwerk untersucht, wie sich die Stimmung von Nutzern beeinflussen lässt, indem in deren Zeitleisten vorzugsweise negative oder positive Nachrichten platziert wurden. Es ist zwar nicht das erste mal, dass Facebook seine Nutzer in Live-Experimenten manipuliert. Problematisch ist jedoch, dass inzwischen auch Universitäten dabei mitmachen - und dabei die Grundregeln verletzen, die sie bei staatlich geförderter Forschung einhalten.

Natürlich sind die Datenmassen, die von den Konten der über eine Milliarde Nutzer auf den Facebook-Servern einlaufen, verlockend. In den vergangenen drei Jahren hat das Unternehmen anhand der Daten nicht nur untersucht, wie der Aufenthalt auf der je eigenen Facebook-Seite interessanter gestaltet werden kann. Auch mit Themen wie dem Verhalten bei Wahlen oder Organspenden, die wahrlich nichts mit Facebooks Geschäft zu tun haben, experimentiert der Konzern.

Das Data-Science-Team von Facebook hat dabei einerseits die Optimierung des sozialen Netzwerks im Blick, andererseits auch sozialwissenschaftliche Fragestellungen. Die jüngste Studie, die im Januar 2012 durchgeführt, aber erst kürzlich veröffentlicht wurde, hat jedoch einen besonderen Nerv getroffen. Denn auf einen Teil der Nutzer, die als unfreiwillige Probanden dienten, hatte sie negative Auswirkungen.

Facebook holt für seine Experimente keine Genehmigung ein – wer die Geschäftsbedingungen akzeptiert, hat damit nach Ansicht des Konzerns automatisch seine Zustimmung zu etwaigen Untersuchungen an seinem Nutzerkonto gegeben.

„Was bei dieser Studie anders ist, ist, dass die Ergebnisse veröffentlicht wurden, ohne dass die Teilnehmer explizit der Studie zugestimmt hätten“, sagt Lorrie Cranor, Informatikerin an der Carnegie Mellon University. Sie leitet dort das CyLab Usable Privacy and Security Laboratory.

In dem Experiment versuchte Facebook die Gefühlslage von 689.003 Nutzern zu manipulieren. Dazu wurden die Nachrichten, die in den Zeitleisten erschienen, nach eigenen Kriterien gefiltert. Während bei einigen positive Begriffe ausgesiebt wurden, waren es bei anderen negative. Dies wirkte sich tatsächlich auf die Stimmung der Nutzer aus, die sich in folgenden Statusmeldungen niederschlug. Allerdings waren die Effekte geringfügig.

Doch die können in der Summe größere Effekte nach sich ziehen. Ältere Studien von Facebook zeigten, dass bereits unwesentliche Umstrukturierungen von Seiten und scheinbar arglose Mitteilungen signifikante Auswirkungen haben können. Am Tag der Präsidentschaftswahl im November 2010 führten von Facebook selbst lancierte Wahlerinnerungen dazu, dass 340.000 mehr Nutzer ihre Stimme abgaben, als zu erwarten gewesen wäre.

2012 demonstrierte Facebook, wie es Menschen dazu bewegen könnte, Organe zu spenden. Der Konzern platzierte anklickbare Boxen in den Zeitleisten von Nutzern, in den diese angeben konnten, ob sie registrierte Organspender sind. In der Folgezeit nahm die Zahl der Neuregistrierungen stark zu, wobei nicht klar ist, wie sehr auch die Berichterstattung in den Medien dazu beitrug.

Facebook steht mit dieser Form von Social Engineering nicht alleine. „Besorgniserregender daran ist, dass die Praktiken von Facebook jegliche Transparenz vermissen lassen“, sagt Zeynep Tufeki, Professor an der University of North Carolina in Chapel Hill. „Was macht Facebook neben diesen täglichen Experimenten sonst noch? Wir haben keine Ahnung.“

Längst ist das Data-Mining von Nutzerdaten zum Milliardengeschäft geworden. Es geht darum, die Aufmerksamkeit auf Webseiten und Apps zu erhöhen, Verhalten zu formen, Online-Einkäufe zu generieren. „Werbung und Medien manipulieren ständig Gefühle, deshalb halte ich dies nicht für allzu problematisch“, hält Lorrie Cranor zugegen. „Wir sind doch alle Laborratten, ohne es zu wissen.“

Das eigentliche Problem sei vielmehr, dass sich akademische Einrichtungen an den Experimenten beteiligen. An der Facebook-Studie zur Stimmungsmanipulation beteiligten sich Wissenschaftler der Cornell University und University of California in San Francisco. Die Aufsichtsgremien der Hochschulen sollten da genauer hinschauen, sagt Cranor. Derzeit machen sie das nur, wenn es um Fördermittel der Regierung geht.

Die Richtlinien bei der staatlichen Fördermittelvergabe verlangen, dass Versuchspersonen eine „informierte Zustimmung“ geben, und dass sie über absehbare Risiken oder Nachteile aufgeklärt werden. Die Richtlinien von Facebook sind hingegen viel vager. Das Unternehmen behalte sich vor, Nutzerdaten für „interne Prozesse, darunter Fehlerbehebung, Datenanalyse, Tests, Forschung und verbesserten Service“ zu nutzen.

Für den Hirnforscher Antonio Damasio von University of Southern California ist die fehlende Zustimmung von Testpersonen problematisch. „Es stimmt, dass die Manipulation von Gefühlen verbreitet ist, nicht nur im Web“, sagt Damasio. „Aber das autorisiert Forscher nicht dazu, Experimente ohne ein ordentliches Zustimmungsprocedere durchzuführen. Für dieses Verhalten lasse ich keine Entschuldigung gelten.“

Facebook selbst erklärte vergangenen Montag nur, es habe zu der umstrittenen Studie jenseits der Entschuldigung des Studienleiters Adam Kramer nichts hinzuzufügen.

(nbo)