Braucht Googles KI-Forschung mehr Ethik?

Margaret Mitchell leitete das KI-Ethik-Team bei Google, bis sie 2021 entlassen wurde. Im Interview erklärt sie, woran die KI-Forschung in Tech-Konzernen krankt.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen

(Bild: JHVEPhoto/Shutterstock.com)

Lesezeit: 10 Min.
Inhaltsverzeichnis

Mit einem kurzen Tweet teilte Margaret Mitchell am 19. Februar ihren Abgang bei Google mit: "I’m fired." Laut Google hat Mitchell gegen den Verhaltenskodex von Mitarbeitern sowie gegen Sicherheitsrichtlinien verstoßen. Erst im Dezember war ihre Kollegin Timnit Gebru, die gemeinsam mit Mitchell das KI-Ethik-Team bei Google geleitet hat, gefeuert worden. Gebru war Co-Autorin eines Papers mit dem Titel "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?". Die Autorinnen kritisierten darin große Sprachmodelle, unter anderem aufgrund der Gefahr, Vorurteile und Diskriminierungen zu reproduzieren – eben wie ein echter Papagei, der die Auswirkungen schlechter Sprache, die er wiederholt, nicht versteht. In dem Paper wurde BERT, ein System von Google, mehrmals erwähnt, aber auch GPT-3 von OpenAI.

TR 6/2021

Spätestens nach Mitchells Entlassung folgte eine Debatte in der Presse, ob Google ein kulturelles Problem mit Minderheiten habe, sie kategorisch ausschließe und ihre Arbeit nicht wertschätze. Mitchell selbst twitterte drei Tage nach ihrer Entlassung: "Ich habe versucht, auf die Ungleichbehandlung von Rasse und Geschlecht aufmerksam zu machen und die problematische Entlassung von Dr. Gebru durch Google anzusprechen."

Mitchell forschte ab 2012 am "Human Language Technology Center of Excellence" an der John Hopkins University, bevor sie 2013 eine Stelle in der Forschungsabteilung bei Microsoft annahm, wo sie zunächst an natürlicher Sprachverarbeitung arbeitete. Im November 2016 wechselte sie dann zu Google in die KI-Forschung. Zuletzt lag ihr Forschungsschwerpunkt vor allem darin, mehr Fairness in Machine-Learning-Systemen zu etablieren und Bias und Vorurteile zu reduzieren.

Frau Mitchell, in einem TEDx-Vortrag aus dem Jahr 2017 haben Sie gesagt, dass wir mit Blick auf KI dringend über unsere Vorurteile und unsere blinden Flecken diskutieren müssen. Wie weit sind wir nach rund fünf Jahren gekommen?

Margaret Mitchell

(Bild: privat)

Als ich das sagte, war verantwortungsvolle KI nicht wirklich auf dem Radar von irgendjemandem. Das war genau zu der Zeit, als ich von Microsoft zu Google gewechselt bin. Es ist ein wenig so wie in einem Zwölf-Schritte-Programm. Der erste Schritt besteht darin, sich einzugestehen, dass man ein Problem hat. Der zweite Schritt ist, etwas dagegen zu tun. Und so weiter. Ich denke, wir sind beim ersten Schritt angelangt.

Zwar wird langsam mehr über verantwortungsvolle KI gesprochen, gleichzeitig entstehen immer mächtigere Sprachmodelle wie GPT-3 mit Milliarden von Parametern, in denen Verzerrungen und Diskriminierung kaum zu kontrollieren sind. Größere Modelle, so der Glaube, führe zu besseren Ergebnissen. Ist das nicht zu kurz gedacht?

Es ist nicht schwer zu erkennen, warum diese Denkweise falsch ist. Stellen Sie sich vor, Sie haben einen kleinen Datensatz, in dem die Menschen fair repräsentiert sind, im Gegensatz zu einem großen Datensatz, in dem alle Frauen hassen. Die meisten Leute würden zustimmen, dass der große Datensatz in diesem Fall nicht besser ist. Aber in der Community des maschinellen Lernens ist man der Meinung, dass man dem Verständnis des Weltwissens immer näherkommt, wenn man einfach Dinge aus dem Web sammelt, die auf allgemeinen menschlichen Äußerungen beruhen. Und erst in letzter Zeit hat man sich tatsächlich damit beschäftigt, was gesammelt wird. Ich würde sagen, dass diese Vorstellung, dass größer besser ist, einen gewissen männlichen Unterton in der Community des maschinellen Lernens widerspiegelt.