Konflikt um Fachaufsatz von Google-KI-Forscherin

Die Ethik-Expertin Timnit Gebru arbeitet nicht mehr bei Google. Über ihren Abgang gibt es unterschiedliche Versionen. Eine Rolle spielt ein geplanter Aufsatz.

In Pocket speichern vorlesen Druckansicht 317 Kommentare lesen

(Bild: courtesy of Timnit Gebru)

Lesezeit: 11 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Anfang Dezember gab Timnit Gebru, Co-Leiterin des Teams für ethische KI bei Google, auf Twitter bekannt, dass sie nicht mehr bei dem Unternehmen arbeitet. Gebru gilt als angesehene Forscherin auf ihrem Gebiet und wurde bekannt als Co-Autorin eines bahnbrechendes Aufsatzes, der zeigte, dass Gesichtserkennung bei Frauen und People of Color ungenauer funktioniert, was zu Diskriminierung führen kann. Außerdem hat sie die Gruppe "Black in AI" aufgebaut, die sich für Diversität in der Technologie-Branche einsetzt. Ihr Team bei Google war eines der vielfältigsten in der KI-Forschung und hatte viele führende Köpfe als Mitglied. Kollegen waren neidisch auf seine kritische Arbeit, mit der es gebräuchliche KI-Praktiken hinterfragte.

Wie sich später in Twitter-Nachrichten, durchgesickerten E-Mails und Medienberichten herausstellte, kam die Beendigung von Gebrus Arbeit als Folge eines Konfliktes über einen weiteren Aufsatz, an dem sie beteiligt war. Der Beitrag habe „unsere Anforderungen an eine Publikation nicht erfüllt“, schrieb Googles KI-Chef Jeff Dean in einer internen E-Mail, die er später öffentlich machte. Gebru habe eine Reihe von Bedingungen dafür gestellt, nicht zu kündigen, die er nicht habe erfüllen wollen. Sie selbst erklärte dazu auf Twitter, sie habe angeboten, unter bestimmten Bedingungen ihren Namen aus dem Aufsatz streichen zu lassen oder einen „letzten Arbeitstag“ für sie zu besprechen. Doch bevor sie aus einem Urlaub zurückkehrte, war der Zugang zu ihrer beruflichen E-Mail gesperrt.

Im Internet vertraten viele andere führende Forscher auf dem Gebiet die Ansicht, Gebru sei aus dem Unternehmen gedrängt worden, weil sie eine unbequeme Wahrheit über ein Kernelement der Forschung – und vielleicht der Gewinne – bei Google aufgedeckt habe. Mehr als 1400 Google-Beschäftigte und 1900 weitere Personen haben einen Protestbrief unterzeichnet.

Viele Einzelheiten der Umstände, die zu Gebrus Abgang bei Google führten, sind noch ungeklärt; weder sie noch das Unternehmen wollten über ihre Beiträge in sozialen Medien hinaus etwas sagen. Aber die US-Ausgabe von Technology Review hat von der Co-Autorin Emily M. Bender, Professorin für Computer-Linguistik an der University of Washington, ein Exemplar des strittigen Aufsatzes erhalten. Sie bat darum, es nicht zu veröffentlichen, weil es sich noch um einen frühen Entwurf handle. Doch seine Lektüre gibt Hinweise darauf, welche für Google möglicherweise unangenehmen Themen zu KI von Gebru und ihrem Team aufgeworfen wurden.

Der Aufsatz ist betitelt mit „Die Gefahren von stochastischen Papageien: Können Sprachmodelle zu groß sein?“ und beschäftigt sich mit künstlich intelligenten Systemen, die mit unglaublichen Mengen an Textbeispielen trainiert wurden. Solche Modelle sind in den vergangenen drei Jahren immer beliebter geworden – und eben größer.

Mittlerweile funktionieren sie bei den richtigen Bedingungen gut und können neue Texte generieren, die überzeugend und sinnvoll erscheinen – manchmal gelingt es auch, die Bedeutung von Sprache zu verstehen. Aber, so heißt es in der Einführung des Papers, „wir stellen die Frage, ob ausreichend über die potenziellen Risiken, die mit ihrer Entwicklung einhergehen, nachgedacht wurde und über Strategien, diese Risiken zu verringern“.