Die dunkle Seite von Anzeigen-Targeting

Werbung im Internet ist auf die Nutzer abgestimmt. Dazu dienen komplizierte Datensammlungen und Algorithmen – doch das Ergebnis ist in manchen Fällen zweifelhaft und sein Zustandekommen nur teilweise transparent.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Tom Simonite

Werbung im Internet ist auf die Nutzer abgestimmt. Dazu dienen komplizierte Datensammlungen und Algorithmen – doch das Ergebnis ist in manchen Fällen zweifelhaft und sein Zustandekommen nur teilweise transparent.

Dass Google und andere Online-Unternehmen die Aktivitäten ihrer Nutzer im Web nachverfolgen, ist weithin bekannt. Unklarheit aber herrschte darüber, wie genau diese Informationen genutzt werden. Bis jetzt: Eine Anfang Juli vorgestellte Forschungsarbeit lässt erkennen, dass einige der algorithmischen Entscheidungen des Anzeigen-Systems von Google zumindest zweifelhaft sind.

Um herauszufinden, wie Nutzerdaten für vermeintlich zielgenaue Anzeigen genutzt werden, entwickelten die Forscher von der Carnegie Mellon University und am International Computer Science Institute ein Werkzeug namens AdFisher. Es schickt automatisiert Hunderte oder Tausende von Webbrowsern durch das Internet. Anzeigen-Netzwerke zeichnen deren Spuren auf und ziehen so Rückschlüsse auf Interessen oder Aktivitäten der dahinter vermuteten Nutzer. Die Software registriert dann, welche Anzeigen angezeigt werden, wenn einer der automatisierten Browser eine Nachrichtenseite aufruft, die in das Anzeigen-Netz von Google eingebunden ist. Außerdem erfasst sie Änderungen an den Anzeigen-Einstellungen, in denen Google Informationen über den jeweiligen Nutzer bzw. Browser speichert. Darüber hinaus kann AdFisher diese Seiten editieren und dann beispielsweise testen, ob das Netzwerk für Frauen andere Anzeigen ausliefert als für Männer. Signifikante Unterschiede werden automatisch gekennzeichnet.

Eines der Ergebnisse der Analyse: Fiktive Web-Nutzer, die von Google für männliche Jobsuchende gehalten wurden, bekamen bei späteren Besuchen auf Nachrichtenseiten mit deutlich höherer Wahrscheinlichkeit Anzeigen für gut bezahlte Führungsjobs angezeigt als Frauen, die ebenfalls auf Jobsuche sind.

Ein weiteres Ergebnis: Die Google-Anzeigeneinstellungen, bei denen Nutzer ihre identifizierten "Interessen" einsehen und korrigieren können, zeigt nicht alle potenziell sensiblen Informationen, die für das Targeting genutzt werden. So bekamen die Browser, nachdem sie Seiten für Menschen mit Suchtproblemen aufgerufen hatten, viele Anzeigen für Entzugsangebote zu sehen. In den Anzeigeneinstellungen aber war keine Änderung zu erkennen.

Wie genau die konkreten Muster entstanden, ist nicht geklärt, weil das Anzeigen-Auslieferungssystem von Google sehr komplex ist. Google betreibt eigenes Targeting mit seinen Daten, Werbekunden können aber teils auch selbst für sie relevante Bevölkerungsgruppen auswählen und bei bestimmten Anzeigenarten zudem zusätzlich eigene Datenquellen über die Online-Aktivitäten von Nutzern auswerten. Auch einen Verstoß gegen bestimmte Datenschutzregelungen stellen die Beispiele nicht dar – auch wenn die Google-Policy Targeting auf der Grundlage des "Gesundheitszustands" verbietet. Doch sie zeigen, dass Werkzeuge gebraucht werden, um herauszufinden, wie Online-Werbefirmen zwischen Nutzern unterscheiden. Das sagt Anupam Datta, der als Associate Professor an der Carnegie Mellon University an der Entwicklung von AdFisher beteiligt war.

"Meiner Meinung nach zeigen unsere Analysen, dass in Teilen des Anzeigen-Ökosystems gewisse Diskriminierungen entstehen und dass es an Transparenz darüber mangelt", sagt Datta. "Aus gesellschaftlicher Sicht ist das beunruhigend." Anzeigensysteme wie das von Google beeinflussen, welche Informationen Nutzer zu sehen bekommen. Sie üben so möglicherweise auch indirekt Einfluss auf ihre Entscheidungen aus. Aus diesem Grund sei es so wichtig, zu verstehen, wie diese Systeme ihre Daten verwenden.

Laut Datta wissen nicht einmal Unternehmen mit eigenen Anzeigen-Netzwerken so richtig, welche Schlüsse ihre Systeme über Nutzer ziehen und wie diese Schlüsse genutzt werden. Seine Gruppe arbeitet jetzt zusammen mit Microsoft an einer internen Version von AdFisher, um potenziell irreführende Muster beim Anzeigen-Targeting der Suchmaschine Bing zu erkennen. Datta und zwei Kollegen – Michael Tschantz vom International Computer Science Institute und Amit Datta, ebenfalls von der Carnegie Mellon University – haben einen Fachaufsatz über das Thema geschrieben und jetzt beim Privacy Enhancing Technologies Symposium in Philadelphia vorgestellt.

Auf Nachfragen der Forscher Ende vergangenen Jahres kam keine offizielle Antwort von Google. In diesem Juni allerdings bemerkten sie einen neuen Hinweis auf der Seite mit den Anzeigeneinstellungen: Die gezeigten Interessenkategorien steuerten nur "einen Teil der Google-Anzeigen, die Sie sehen", nicht aber diejenigen, bei denen Dritte eigene Daten nutzen, heißt es dort jetzt. Das bedeutet eine klare Einschränkung des Nutzens von Googles Transparenzwerkzeug, findet Datta: Grundsätzlich sei es durchaus möglich, auch die übrigen Informationen anzuzeigen. "Die Anzeigen werden von Google ausgeliefert, und wenn Google wollte, könnten sie auch diese Interessen nennen", sagt er.

"Werbekunden können auswählen, welches Zielpublikum sie erreichen wollen, und wir haben Richtlinien dazu, welche Arten von interessenbasierten Anzeigen erlaubt sind", teilte Anrea Faville, eine Google-Sprecherin, per E-Mail mit. "Über die 'Warum diese Anzeige'-Hinweise und die Anzeigeneinstellungen bieten wir Transparenz für die Nutzer sowie die Möglichkeit, interessenbasierte Anzeigen auszuschließen." Google beschäftige sich aber mit der Methodik der Studie von Datta und Kollegen, um ihre Ergebnisse genauer zu verstehen.

(sma)