Facebook: Job-Anzeigen mit Bias
Die Zielgruppen-Algorithmen von Facebook zeigen Frauen nicht alle Stellenanzeigen, wie eine aktuelle Untersuchung demonstriert.
- Karen Hao
Eine Prüfung durch Forscher der University of Southern California (USC) belegt, dass Facebooks Anzeigensystem Frauen und Männern unterschiedliche Stellenanzeigen zeigt, obwohl die Stellen die gleichen Qualifikationen erfordern. Dieses „Targeting“ von Anzeigen ist schlicht verboten. Allerdings ist das Problem bei Facebook nicht neu. Seit Jahren sollen Lobbyarbeit und Gerichtsverfahren diese Art der Anzeigenausspielung verhindern – mit mäßigem Erfolg. Facebook verspricht zwar Besserung, ändert aber letztlich nicht wirklich etwas.
Nachweis durch eigene Anzeigen
Um die Algorithmen zu prüfen, schalteten die Forschenden bei Facebook Anzeigen-Paare aus zwei Stellen mit gleicher Qualifikation, aber unterschiedlichen demografischen Merkmalen – etwa Jobs als Lieferfahrer: einen für Domino’s (Pizzalieferung) und einen für Instacart (Lebensmittellieferung). Für Domino’s fahren derzeit mehr Männer als Frauen, bei Instacart ist es umgekehrt.
Das Ergebnis war eindeutig: Die Domino’s-Anzeige wurde mehr Männern als Frauen gezeigt und bei der Instacart-Anzeige war es umgekehrt. Das gleiche Muster zeigten Software-Ingenieure für Nvidia (eher männlich) und Netflix (eher weiblich) sowie Verkäufer für Autos (eher männlich) und Schmuck (eher weiblich). Die Algorithmen von Facebook greifen also die aktuelle demografische Verteilung dieser Jobs auf, die sich oft aus historischen Gründen unterscheiden. Facebook hat seine Probleme mit der Anzeigendiskriminierung also offenbar nicht gelöst, seit ProPublica das Problem im Oktober 2016 erstmals ans Licht brachte.
Das Problem ist alt
Damals deckte die Non-Profit-Organisation auf, dass die Plattform Werbetreibenden von Job- und Wohnungsangeboten erlaubt, bestimmte Zielgruppen auszuschließen. Es dauerte zweieinhalb Jahre und mehrere juristische Scharmützel, bis Facebook diese Funktion entfernte. Christo Wilson, Algorithmen-Forscher an der Northeastern University, bringt es auf den Punkt: „Wie oft müssen Forscher und Journalisten diese Probleme noch finden, bevor wir einfach akzeptieren, dass das ganze Ad-Targeting-System bankrott ist?“
In früheren Befragungen sagte das Social-Media-Unternehmen, dass es nicht in der Lage sei, die Details zu besprechen, wie es denn konkret daran arbeitet, die algorithmische Diskriminierung in seinem Anzeigenangebot zu entschärfen, weil Rechtsstreitigkeiten noch andauerten. Das Anzeigenteam kommentierte zudem, dass seine Fortschritte durch technische Herausforderungen begrenzt wurden.
Bias nicht nur bei Jobs
Das Problem besteht nicht nur bei Jobanzeigen. Ein Team unabhängiger Forscher, das von Muhammad Ali und Piotr Sapieżyński von der Northeastern University geleitet wurde, fand weiterhin heraus, dass Häuser, die auf Facebook zum Verkauf stehen, häufiger weißen Nutzern und Häuser, die zur Miete angeboten werden, häufiger Nutzern mit Minderheitenherkunft gezeigt werden.
Sapieżyński, der mittlerweile drei Audits der Plattform durchgeführt hat, macht deutlich, dass er bei Facebook bislang auf Granit beißt. "Facebook hat immer noch nicht zugegeben, dass es ein Problem gibt", sagt er. Während das Team die technischen Seiten ausarbeite, fügt er hinzu, gebe es doch auch eine einfache Zwischenlösung: Es könnte das algorithmische Ad-Targeting speziell für Wohnungs-, Beschäftigungs- und Kreditanzeigen einfach abschalten, ohne den Rest des Reklamegeschäfts zu beeinträchtigen. Das sei wirklich nur eine Frage des politischen Willens.
(bsc)