Künstliche Intelligenz lernt Vorurteile von uns Menschen

Wenn KI-Systeme mit Texten trainiert werden, lernen sie damit auch Klischees und Vorurteile, die ihre Anwendung später beeinträchtigen können. Das haben Forscher nun bestätigt und raten Programmierern zu Gegenmaßnahmen.

In Pocket speichern vorlesen Druckansicht 129 Kommentare lesen
Künstliche Intelligenz lernt Vorurteile von uns Menschen
Lesezeit: 3 Min.

Wenn künstliche Intelligenzen mit Texten trainiert werden, menschliche Sprache zu verstehen, übernehmen und verfestigen sie damit auch Vorurteile und Klischees. Das berichten Wissenschaftler des Centers for Information Technology Policy der Universität Princeton und des Department of Computer Science der Universität Bath im Magazin Science.

Dafür haben die Forscher im Internet gesammelte Texte mit mehr als 840 Milliarden Wörtern untersucht. Solche Textsammlungen werden auch benutzt, um KI-Systemen die menschliche Sprache zu lehren. Mit einem eigenen Lern-Algorithmus ermittelten die Forscher die Beziehungen von Wörtern in diesen Texten. Dann haben sie die Beziehungen von rund 300 ausgewählten Begriffen auf mögliche Vorurteile oder Klischees untersucht.

Dabei stellte sich heraus, dass der Algorithmus ähnliche Vorurteile entwickelt, wie sie in verschiedenen sozialpsychologischen Studien bei menschlichen Probanden nachgewiesen wurden. Darunter Verknüpfungen wie "Blumen" und "schön", aber auch Vorurteile bezüglich Geschlechterrollen. So seien etwa Frauennamen stärker mit häuslichen Begriffen wie "Eltern" und "Hochzeit" assoziiert würden, Männernamen dagegen mit beruflichen wie "professionell" oder "Gehalt".

Wie sich Vorurteile einer KI im Alltag bemerkbar machen können, erläutern die Forscher an einem Beispiel: So übersetze Google Translate das geschlechtsneutrale türkische "o bir doktor" ("er/sie ist ein/e Arzt/Ärztin") mit "he is a doctor" (oder "er ist ein Arzt"). "O bir hemşire" ("Er/Sie ist ein/e Krankenpfleger/-schwester") dagegen werde zu "she is a nurse" ("sie ist eine Krankenschwester").

Die Forscher vermuten nun, dass sich menschliche Vorurteile statistisch in der Nutzung von Sprache widerspiegeln. Untersucht werden könnten anhand dieser Hypothese auch die Unterschiede zwischen den Sprachen, meinen die Wissenschaftler. Nicht zielführend seien aber Versuche, die Sprache zu "reinigen" und von Vorurteilen zu säubern. KI-Programmierer könnten dagegen – ganz wie menschliche Eltern in der Erziehung – der Übernahme von Klischees mittels expliziter, mathematischer Anweisungen entgegenwirken.

Nachdem bereits "neutrale" Algorithmen wiederholt mit rassistischem Verhalten aufgefallen waren, liefert die Forschungsarbeit neue Hinweise, woran das liegen könnte. Gleichzeitig gibt sie den Wissenschaftlern aber auch Hinweise darauf, wie wir Menschen sprechen lernen. Indem sie uns zeigt, wie wir Vorurteile lernen und zumindest implizit beizubehalten scheinen, könnte sie auch verstehen helfen, wie unser Gehirn funktioniert und was das für die Entwicklung künstlichen Intelligenzen bedeutet, schreiben die Wissenschaftler.

Semantics derived automatically from language corpora contain human-like biases. Sciene, Vol. 356, Issue 6334,17. April 2017 (mho)