Konflikt um Fachaufsatz von Google-KI-Forscherin

Seite 2: Ist der stochastische Papagei des Pudels Kern?

Inhaltsverzeichnis

In ihrem Aufsatz bauen die Forscherinnen auf früheren Arbeiten auf. Sie präsentieren die Geschichte der Verarbeitung natürlicher Sprache, einen Überblick über die vier wichtigsten Risiken von großen Sprachmodellen und Vorschläge für weitere Forschung. Weil der Konflikt mit Google die Risiken zu betreffen scheint, konzentrieren wir uns hier auf eine Zusammenfassung dieses Teiles.

Das Trainieren von großen KI-Modellen erfordert viel Rechenleistung und damit Energie. Gebru und die Co-Autoren zitieren eine Studie aus dem Jahr 2019 von einem Team um Emma Strubell über die Kohlendioxid-Emissionen und finanziellen Kosten solcher Sprachmodelle. Seit 2017 soll beides explosiv zugenommen haben, weil die Modelle mit immer mehr Daten gefüttert werden.

Laut Strubell hätte eines der Sprachmodelle mit einer bestimmten „neural architecture search“-Methode das Äquivalent von 284 Tonnen Kohlendioxid produziert, ungefähr so viel wie fünf normale US-Autos im Lauf ihres Lebens. Eine Version des Sprachmodells BERT, das der Suchmaschine von Google zugrunde liegt, produzierte nach dieser Schätzung 652 Kilogramm CO2-Äquivalente – ungefähr so viel wie ein Hin- und Rückflug zwischen New York und San Francisco.

Im Entwurf von Gebrus Aufsatz heißt es dazu, dass für Entwicklung und Betrieb großer KI-Modelle derart viele Ressourcen erforderlich seien, laufe darauf hinaus, dass vor allem wohlhabende Organisationen davon profitieren – während arme Gemeinschaften am stärksten vom Klimawandel betroffen sind. „Es ist mehr als an der Zeit, dass die Forschung Energieeffizienz und Kosten priorisiert, um negative Umweltfolgen und ungleichen Zugang zu Ressourcen zu vermeiden“, fordern die Autoren.

Große Sprachmodelle werden mit exponentiell zunehmenden Mengen an Text trainiert. Das bedeutet, dass Forschende so viele Daten aus dem Internet ziehen, wie sie nur können. Und das bringt die Gefahr mit sich, dass rassistische, sexistische oder auf andere Weise missbräuchliche Sprache darunter ist.

Ein KI-Modell, das rassistische Äußerungen als normal gelernt hat, ist offensichtlich schlecht. Doch es gibt auch subtilere Probleme. So spielt Sprache eine wichtige Rolle bei gesellschaftlicher Veränderung. Beispielsweise haben die Bewegungen MeToo und Black Lives Matter versucht, auch ein neues Vokabular zu etablieren. Ein mit riesigen Teilen des Internets trainiertes Modell dürfte auf die Feinheiten dieses Wortschatzes nicht abgestimmt sein und Sprache nicht nach solchen neuen kulturellen Normen interpretieren.

Ebenso entgehen ihm die Sprache und die Normen von Ländern und Völkern, die weniger Zugang zum Internet und deshalb eine weniger ausgeprägte Präsenz darin haben. Die Folge ist, dass von KI generierte Sprache homogenisiert ist und die Praktiken nur der reichsten Länder und Gemeinschaften widerspiegelt.

Weil die Datensammlungen für das Training so groß sind, lassen sie sich zudem kaum auf solche versteckten Verzerrungen überprüfen. „Aus diesem Grund ist eine Methode mit Datensätzen, die zu groß sind, um sie zu dokumentieren, inhärent riskant“, heißt es dazu in dem Paper-Entwurf von Gebru et al. „Eine Dokumentation würde eine Zurechenbarkeit ermöglichen, (…) während undokumentierte Trainingsdaten Schäden ohne Verantwortung festschreiben.“

Die dritte Herausforderung wird in dem Beitrag als „fehlgeleitete Forschungsarbeit“ bezeichnet. Die meisten KI-Experten sind sich darüber einig, dass auch große Modelle Sprache nicht wirklich verstehen, sondern nur exzellent damit umgehen. Aber das reicht großen Technologie-Unternehmen schon, um Geld damit zu verdienen, also investieren sie weiter in sie. „Diese Forschungsarbeit bringt Opportunitätskosten mit sich“, schreiben jedoch Gebru und Kollegen: Dadurch bleiben weniger Ressourcen für die Arbeit an KI-Modellen, die tatsächlich verstehen oder mit kleineren und sorgfältiger ausgewählten Datensammlungen gute Ergebnisse erzielen (und somit weniger Energie verbrauchen) könnten.

Das letzte Problem bei großen Sprachmodellen liegt nach Angaben der Autoren darin, dass man Menschen damit leicht täuschen kann, weil sie so gut sind. Einige bekannte Fälle dieser Art gab es bereits, zum Beispiel den US-Studenten, der mit Hilfe von KI Artikel zu Selbsthilfe und Produktivität in einem Blog veröffentlichte und großen Erfolg damit hatte.

Die Gefahren sind offensichtlich: Mit KI-Modellen ließe sich Desinformation über Wahlen oder die Coronavirus-Pandemie produzieren. Und bei Maschinen-Übersetzungen können sie auch für unabsichtliche Fehler sorgen. Ein Beispiel dazu aus dem Gebru-Paper: Im Jahr 2017 wurde ein Facebook-Beitrag eines Palästinensers automatisch falsch übersetzt – statt „guten Morgen“ sollte er „greift sie an“ geschrieben haben. Der Mann wurde festgenommen.

In dem Aufsatz von Gebru und Bender sind sechs Autoren angegeben, davon vier Forschende bei Google. Bender bat darum, die übrigen Namen nicht zu nennen, weil negative Folgen für sie zu befürchten seien – sie selbst dagegen habe eine feste Professur, was „den Wert von akademischer Freiheit unterstreicht“, wie sie sagt.