KI: Google reduziert geschlechtsspezifische Vorurteile beim Übersetzen

Die Google-Translate-Website gibt zunächst bei einzelnen Wörtern und bestimmten Phrasen alternative Übersetzungen für Männer und Frauen aus.

In Pocket speichern vorlesen Druckansicht 71 Kommentare lesen
Machine Learning: Google will geschelchtsspezifische Vorurteile beim Übersetzen reduzieren

(Bild: Shutterstock)

Lesezeit: 2 Min.
Von
  • Rainald Menge-Sonnentag

Google hat angekündigt, bei automatischen Übersetzungen künftig die geschlechtsspezifischen Vorurteile zu reduzieren. So soll das System unter anderem nicht mehr automatisch überwiegend von Männern besetzte Berufe als männlich übersetzen, wenn in der Quellsprache wie im Englischen eine Zuordnung fehlt. Auch bei Adjektiven soll die Zuweisung zu dem typischerweise damit assoziierten Genus entfallen und das System im Zweifel Alternativen vorschlagen.

Bias ist insgesamt ein breites Problem im Bereich Machine Learning (ML), da das System typischerweise aus Texten und anderen Daten sein Weltbild erstellt. Wie sich menschliche Vorurteile auf die Maschine übertragen, zeigt sich unter anderem am prominenten Fall von Microsofts Chatbot Tay, den Nutzer mit nationalsozialistischen Thesen zu rassistischen Äußerungen verleiteten.

Aber auch subtilere Vorurteile übernehmen die Maschinen durch das Training. Wenn im Großteil übersetzter Texte der Englische "the doctor" im Deutschen zu "der Arzt" und umgekehrt "the nurse" zu "die Schwester" wird, lernt das System daraus, dass Ärzte wohl männlich sein müssen und "der Krankenpfleger" höchstens eine Sonderform ist.

Google hat nun eben diese beiden Beispielworte zumindest teilweise von Vorurteilen befreit. So funktioniert die geschlechtergerechte Übersetzung lediglich für Einzelworte und vom Englischen nur ins Spanische oder Französische, nicht jedoch ins Deutsche. Hierzulande ist der Arzt immer ein Mann, und im ganzen Satz bleiben die Vorurteile ebenfalls erhalten: Die englische Ärztin, die den Pfleger ruft, wird im Spanischen zum Arzt, der nach der Schwester ruft.

Bei Einzelworten hat Google Translate weniger Vorurteile als in ganzen Sätzen.

Einem prominenten Fall, der in Vorträgen zu Machine Learning gerne als Beispiel für Gender Bias auftaucht, nimmt sich Google Translate ebenfalls an: Der türkische Satz "o bir doktor" sagt nichts darüber aus, ob es sich um einen Mann oder eine Frau handelt. Hier schlägt die englische Übersetzung bei Google Translate nun beide Alternativen vor. Ins Deutsche übersetzt wird "doktor" interessanterweise die Ärztin.

Türkisch für Anfänger im Gender Bias.

Derzeit beschränken sich die Alternativen auf die Weboberfläche von Google Translate. Künftig sollen auch die Apps für iOS und Android Alternativen vorschlagen. Das Team denkt zudem darüber nach, wie Übersetzungen jenseits der binären Geschlechtsidentität funktionieren können, also andere Gruppen als Männer oder Frauen berücksichtigen.

Weitere Details lassen sich dem Google-Blog entnehmen. (rme)