Das Problem der diskriminierenden Algorithmen

Künstliche Intelligenz kann einzelne Gruppen schlechter behandeln – wenn sie fehlerhaft programmiert ist. Noch sehen Internet-Konzerne dies aber kaum, warnen Forscher.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Will Knight
Inhaltsverzeichnis

Undurchsichtige und möglicherweise diskriminierende mathematische Modelle werden in Zukunft viele Bereiche unseren Lebens mitbestimmen – und weder die dafür verantwortlichen Unternehmen noch staatliche Stellen erkennen das Problem bislang in ausreichender Form, glauben Wissenschaftler.

Sie haben deshalb zusammen mit der US-Bürgerrechtsorganisation American Civil Liberties Union (ACLU) eine Gruppe gebildet, die problematische Algorithmen identifizieren und bekanntmachen soll. Die sogenannte AI-Now-Initiative wurde Mitte Juli am Massachusetts Institute of Technology (MIT) in Cambridge vorgestellt, wo sich Experten trafen, um über die kommenden Herausforderungen zu sprechen.

Mehr Infos

Sogenannte algorithmische Voreingenommenheit, auf englisch Algorithmic Bias genannt, könnte zu einem schwerwiegenden sozialen Problem werden, meinen die Forscher – und das an einem kritischen Punkt in der Entwicklung maschinellen Lernens und Künstlicher Intelligenz. Je mehr Algorithmen wichtige Entscheidungen über das menschliche Leben treffen, desto problematischer könne ein solcher Bias sein – und seine negativen Konsequenzen, insbesondere für ärmere Teile der Bevölkerung sowie Minderheiten. Umgekehrt könnte eine Diskriminierung durch die Maschinen zu einem Aufschrei führen, der die Entwicklung einer unglaublich nützlichen Technik bremst.

Die Leute von AI Now glauben, dass algorithmische Voreingenommenheit schon jetzt in vielen Programmen steckt, die beim Treffen wichtiger finanzieller oder rechtlicher Entscheidungen helfen. Proprietäre Algorithmen werden in den USA und anderswo beispielsweise eingesetzt, ob man einen Kredit erhält, zu einem Vorstellungsgespräch eingeladen wird oder gar wie bei Gefangenen die Aussichten auf ein vorzeitige Haftentlassung sind.

Kate Crawford, Forscherin bei Microsoft, und Meredith Whittaker, Forscherin bei Google, sind die Gründerinnen der AI Now Initiative. Sie glauben, dass Alorithmic Bias bereits in unterschiedlichsten Diensten und Produkten steckt.

"Wir sind noch ganz am Anfang darin, diesen zu verstehen", sagen die beiden Informatikerinnen. In diesem Jahr hätten sie bereits mehr Systeme mit Problemen entdeckt, "und das waren nur die, die untersucht wurden". Beispiele aus der jüngsten Vergangenheit seien etwa fehlerhafte oder Fakten verdrehende Algorithmen, die Lehrer bewerteten oder Modelle für den Umgang mit natürlicher Sprache, die ein Geschlecht dem anderen vorziehen.

Cathy O'Neil, eine Mathematikerin und Autorin des Buches "Weapons of Math Destruction", in dem die Risiken algorithmischer Voreingenommenheit in verschiedenen Zusammenhängen beleuchtet werden, meint, dass die Menschen häufig zu schnell bereit dazu seien, mathematischen Modellen zu vertrauen. Sie glaubten, diese kämen ohne Diskriminierung aus. "Algorithmen ersetzen menschliche Prozesse, orientieren sich aber nicht an deren Standards. Die Leute vertrauen ihnen zu viel."

Eine zentrale Herausforderung, so O'Neil und andere Forscher, sei es, dass es bislang noch wenig Interesse von Seiten der Verantwortlichen gibt, diese Form der Diskriminierung zu überwachen und einzudämmen – weder bei den Firmen, die Systeme für das maschinelle Lernen einsetzen noch bei staatlichen Stellen, die sie regulieren sollten. Finanz- und Technik-Firmen setzen jede Menge mathematische Modelle ein, die nicht transparent darin seien, wie sie arbeiten. O'Neil nennt als Beispiel Googles neue Jobsuchmaschine und deren Algorithmen.

Die Mathematikerin arbeitete zuvor als Professorin am Barnard College in New York und als quantitativer Analyst bei der Investmentfirma D. E. Shaw. Sie ist nun Leiterin der Firma Online Risk Consulting & Algorithmic Auditing, die Unternehmen helfen soll, Algorithmic Bias zu erkennen und notfalls zu korrigieren. Doch aktuell fehle es noch am Bewusstsein. Diejenigen, bei denen ein entsprechendes Risiko bestehe, achteten stärker auf ihren Gewinn als darauf, Diskriminierung zu vermeiden. Sie selbst habe aktuell "keine Kunden".

O'Neil, Crawford und Whittaker warnen zudem davor, dass die Regierung unter dem neuen US-Präsidenten Donald Trump bislang kaum Interesse an Künstlicher Intelligenz – und Wissenschaft ma Allgemeinen – zeige. Das wiederum bedeute, dass es keine regulatorische Bewegung auf diesem Gebiet gibt. "Das zuständige Office of Science and Technology Policy engagiert sich nicht mehr in der KI-Politik – oder überhaupt um irgendetwas, wenn man sich seine Website ansieht", sagen Crawford und Whittaker. Regulatorische Politik müsse nun anderswo betrieben werden.

(bsc)