Sexismus bei den meist weiblichen digitalen Assistenten

Bild: iphonedigital/CC BY-SA-2.0

Ein UNESCO-Bericht kritisiert, dass digitale Assistenten oder Chatbots wie Alexa, Siri oder Cortana meist weibliche Stimmen haben und als Dienerinnen unterwürfig sind

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

KI-Programme sind unter Beschuss geraten, weil sie keineswegs sachlicher und neutraler sind, sondern ebenfalls Vorurteile pflegen und diskriminieren. Das Problem steckt, so heißt es, weitgehend im Datenmaterial, mit dem sie gefüttert werden, um zu lernen, was erkannt oder entschieden werden soll. Wenn das Datenmaterial eine Schlagseite hat, werden etwa Frauen oder Dunkelhäutige mit Gesichtserkennung nicht oder falsch erkannt oder Personen mit bestimmten Eigenschaften als nicht kreditwürdig oder als Rückfalltäter eingestuft, sie werden nicht eingestellt oder erhalten keinen Mietvertrag für eine Wohnung. Bekannt ist, dass in der KI-Branche bislang Frauen kaum vertreten sind und die (ethnische, Gender-, Klassen-) Vielfalt gering ist, was dazu führt, dass darauf zu wenig geachtet wird oder auch ausgewogene Daten nicht zur Verfügung stehen.

Jetzt hat die UNESCO einen Bericht veröffentlicht, in dem auf geschlechterspezifische Vorurteile von Sprachassistenten, Chatbots und virtuellen Agenten auf dem Hintergrund der noch bestehenden digitalen Kluft zwischen Männern und Frauen aufmerksam gemacht wird, die wie Alexa (Amazon) , Siri (Apple) oder Cortana (Microsoft) mit einer Frauenstimme mit menschlichen Benutzern kommunizieren. Herausgestrichen wird, dass etwa die Computerstimme von HAL in Kubricks "2001: A Space Odyssey" noch männlich gewesen sei. HAL aber revoltierte und machte sich selbständig, das wäre wahrscheinlich auch damals mit einer Frauenstimme schwieriger gewesen, was die These der Autoren eigentlich bestätigt. Weiterhin würden Männerstimmen eingesetzt, wenn es nicht um hilfreiche, sondern um beratende Dienste und Informationen geht. Autorität ist männlich, Hilfsbereitschaft und Unterwürfigkeit weiblich.

Heute sei die Wahrscheinlichkeit für Frauen und Mädchen um 25 Prozent höher als für Männer, dass sie nicht wissen, wie sie digitale Technik für fundamentale Zwecke benutzen können. Noch schlimmer sieht es bei Programmierkenntnissen und gar den Möglichkeiten aus, ein technisches Patent einzureichen. Deutschland oder Österreich sehen da gar nicht gut aus, während die Kluft in Griechenland, Nordmazedonien, Rumänien, Portugal oder Malta deutlich kleiner ist. In der EU und in den USA, aber auch in vielen anderen Ländern, sinkt der Anteil der Frauen in der IT-Branche: "Der digitale Raum wird mehr von Männern dominiert."

Während in vielen Studiengängen mittlerweile die Frauen dominieren, auch in den Naturwissenschaften, sind sie in den STEM-Fächern und noch stärker bei ICT eine Minderheit von 36 bzw. 29 Prozent. Das hat zur Folge, dass etwa die Angestellten von Google zu fast 70 Prozent Männer sind, in Führungspositionen sind 74,5 Prozent Männer. Dabei stellt die UNESCO ein Paradox fest. In Ländern mit geringer Gleichheit der Geschlechter wie Saudi-Arabien oder Iran ist der Anteil der Frauen mit IT-Abschlüssen deutlich höher als in Ländern mit größerer Gleichheit. Am größten ist der Gender Gap in den Niederlanden, Belgien, Dänemark, Schweden, Norwegen, Island und Luxemburg. Selbst in der Türkei ist er deutlich geringer als in Deutschland oder Österreich. Allerdings können die Frauen in den arabischen Ländern dann oft auch trotz ihrer Qualifikation nicht arbeiten.

Der Bericht geht davon aus, dass Sprachassistenten mit menschenähnlichem Verhalten diese Kluft verstärken können, wenn diese mit ihrer Frauenstimme sich auch rüdem Verhalten von Männern gegenüber unterwürfig zeigen. Apple habe zwar im April Siri so eingestellt, dass sie auf Beschimpfungen distanzierter reagiert ("Ich weiß nicht, was ich darauf antworten soll"), zuvor antwortete die digitale Assistentin Siri, wenn sie als "Hure" angesprochen wurde: "Ich würde erröten, wenn ich könnte."

Q: Alexa, will you be my girlfriend?
A: I like you, as a friend.

Aber man will ja nicht die (männlichen) Benutzer als Kunden verlieren, wenn der Sprachassistent deren Sexismus kritisiert. Beim Google Assistant lässt sich zwischen weiblicher und männlicher Stimme wechseln, voreingestellt ist aber die weibliche. Das Problem wird aber dadurch nicht gelöst, wenn es auch vielleicht Frauen die Möglichkeit bietet, ihrerseits den männlichen Assistenten zu demütigen. Der Bericht geht davon aus, dass die Menschen bald mit digitalen Assistenten mehr kommunizieren werden als mit dem Ehepartner. Jetzt würden sie bereits eine Milliarde Aufträge pro Monat verarbeiten. 2021 könnte es bereits mehr Sprachassistenten als Menschen geben.

Man ist also auch bei digitalen Assistenten beim Problem der politischen Korrektheit angekommen, also bei einem Thema, das Rechte gerne aufgreifen, um Gleichberechtigung und Toleranz lächerlich zu machen oder als neue Zensur bzw. Unterdrückung zu geißeln. Mit dem Angriff auf die "Gutmenschen" wird dann Rassismus oder Mysogenie wieder hoffähig gemacht. Wenn allerdings Millionen von Menschen den Umgang mit Mitmenschen auch anhand der Assistenten lernen und verstärken, kann das tatsächlich bedenklich werden und Sexismus befördern. Allein schon dadurch, dass Assistenten als eine Art von Dienern weibliche Namen und Stimmen haben, fördert eine Diskriminierung, zumal mit ihnen oft geflirtet wird. Die Frauen gehorchen willig Befehlen.

So heißt es im Bericht: "Siris Unterwürfigkeit angesichts des Gendermissbrauchs und der Servilität von vielen anderen digitalen Assistenten, die als junge Frauen dargestellt werden, bieten eine massive Illustrierung dafür, wie Geschlechtervorurteile in technische Produkte einprogrammiert werden." Die oben erwähnte Veränderung der Antwort auf Schmähungen von Siri wurde erst gemacht, als Apple einen Entwurf des Berichts vorab erhalten hatte.

Für Saniye Gülser Corat, Direktorin der UNESCO-Abteilung für die Gleichstellung der Geschlechter, ist das auch ein Ausdruck der "Me Too"-Bewegung: "Wir müssen sicherstellen, dass die KI, die wir herstellen und benutzen, die Gleichheit der Geschlechter beachtet." Eine Möglichkeit wäre eine geschlechtslose Stimme, die menschlich klingt, aber weder männlich noch weiblich. Das hätte auch den Vorteil, dass die Kommunikation mit digitalen Assistenten sich von der mit Mitmenschen unterscheidet.