Weiße Stereotype bei intelligenten Maschinen: zu viel "Whiteness" in der KI

Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden.

In Pocket speichern vorlesen Druckansicht 253 Kommentare lesen
Weiße Stereotypen: wissenschaftlicher Artikel zeigt zu viel "Whiteness" von KI

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Rainald Menge-Sonnentag
Inhaltsverzeichnis

Zwei Wissenschaftler der University of Cambridge haben eine Abhandlung mit dem Titel "The Whiteness of AI" veröffentlicht, die zeigt, wie weiße Stereotype das Bild von Systemen mit künstlicher Intelligenz prägen. Der Artikel beschäftigt sich sowohl mit realen als auch mit fiktiven intelligenten Maschinen.

Die beiden Wissenschaftler unterteilen die Maschinen in den Kategorien humanoide Roboter, Chatbots, virtuelle Assistenten und Stock-Images. Sie bieten drei Interpretationen für die weiße Stereotypisierung der KI-Systeme an.

Maschinen können eine Rassenzuordnung über den Anthropomorphismus erhalten, also das Übertragen menschlicher Attribute auf die künstlichen Systeme. Neben den offensichtlichen visuellen Merkmalen, die eher weißen Vorbildern entsprechen, spielt dabei auch die menschenähnliche Stimme oder die Art der Interaktion eine Rolle.

Auch sehr künstlich anmutende Roboter wie Nao, Pepper und PR2 bestehen aus weitgehend weißen Materialien. Noch auffälliger sei die Zuordnung in der von Hanson Robotics vorgestellten Sophia, die 2017 die Staatsbürgerschaft von Saudi-Arabien erhielt. Trotz ihrer asiatischen Ursprünge weist die in Hongkong gebaute Roboterfrau eindeutig kaukasische Züge auf.

Sophia lässt sich mit oder ohne Torso wohl eindeutig als "weiß" einstufen.

(Bild: Hanson Robotics)

Die Abhandlung untersucht drei mögliche Begründungen für das dominant weiße Bild. Zum einen spiegele die Rassenzuordnung häufig die weißen Milieus wider, in denen sie entstehen. Als zweiten Grund führen die Autoren auf, dass Maschinen, die intelligent, professionell und mächtig sind, aus Sicht vieler weißer Menschen mit diesen Attributen ihrer eigenen Rasse zuzurechnen sind.

Als Folge warnen die Autoren davor, dass die weißen Stereotype farbige Menschen aus der weißen Utopie entfernen könnten. Insgesamt fördere die Darstellung Vorurteile und den Bias in Machine-Learning-Systemen. Dadurch können wieder Entscheidungen fallen, die ethnische Gruppen benachteiligen.

Deutlich auf den Punkt bringt es der Satz: "Wenn weiße Menschen sich vorstellen, dass sie von überlegenen Wesen ausgestochen werden, werden diese Wesen nicht den Rassen entsprechen, die sie zuvor als minderwertig eingestuft haben. Ein weißes Publikum kann sich nicht vorstellen, dass es von schwarzen Maschinen übertroffen wird."

Das Ergebnis einer Bildersuche auf Google nach "artificial intelligence robot" belegt die weißen Stereotypen.

(Bild: Artikel "The Whiteness of AI")

Als wichtigen ersten Schritt zum Aufbrechen der Strukturen sieht der Artikel die Erkenntnis und das Zugeständnis, dass sie existieren. Die weißen Stereotype dürften nicht unsichtbar bleiben. Es sei unwahrscheinlich, dass die Mehrheit der weißen Betrachter bei menschenähnlichen Maschinen eine Rassenzuordnung erkenne, da sie nur bestätigt sehe, was 'menschenähnlich' bedeute. Für Menschen ohne weiße Hautfarbe seien die weißen Stereotype dagegen niemals unsichtbar.

Der vollständige Artikel ist online verfügbar und lässt sich zudem als PDF herunterladen.

(rme)