Warum sich Google mit der KI-Ethik so schwer tut

Die Entlassungen der Leiterinnen von Googles KI-Ethik-Team haben in diesem Jahr für Schlagzeilen gesorgt. Was macht der Internetriese nun?

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen
Google Store in New York City

(Bild: Google)

Lesezeit: 3 Min.

Google hat zwar bereits 2017 damit begonnen, „AI Principles“ zu formulieren. Darin werden Regeln zusammengefasst, an die sich der Konzern bei der KI-Entwicklung halten will – beispielsweise keinen Bias zu reproduzieren, soziale und kulturelle Kontexte zu berücksichtigen und hohe Sicherheitsstandards zu beachten.

Kritiker warfen dem Konzern jedoch immer wieder vor, dass diese Prinzipien zu unkonkret und schwammig für die Praxis seien. „Wir haben in dieser Ethik-Charta Regeln festgeschrieben, um jedes Mal die gleichen Leitlinien zu verwenden und unsere Fortschritte im Laufe der Zeit zu verfolgen“, erklärt Charina Chou, Global Policy Lead for Emerging Technologies bei Google. Chou war Teil des Teams, das die Google AI Principles entwickelt hat.

Die konkreten Ethik-Bemühungen würden sich unter anderem auf Daten und Modelle konzentrieren, sagt Chou. So arbeite man daran, mit verschiedenen Tools die Qualität der Datensätze zu verbessern. Ein Tool mit dem Namen „Crowdsource“ zum Beispiel soll dafür sorgen, dass die Datensätze diverser und auch aus anderen Teilen der Erde gesammelt werden. Dazu können Freiwillige beitragen, indem sie etwa Bilder hinzufügen oder Daten mit besseren Labels versehen. Einer der dadurch entstandenen Datensätze nennt sich „Open Images Extended“ und ist laut Chou „viel repräsentativer für verschiedene Länder als frühere Versionen“.

Neuere Ansätze sind die Arbeit mit synthetischen Daten, die sich vor allem da als hilfreich erweisen, wo die Datenlage gering ist – etwa bei seltenen Sprachen oder Akzenten. „Wie können wir die Daten, die wir haben, erweitern und mehr Daten erzeugen, aus denen dann ein Modell lernen kann?“, fragt Chou. Google beginne gerade damit, bei Sprachen und Bildern zu experimentieren.

Charina Chou ist Global Policy Lead for Emerging Technologies bei Google und war Teil des Kernteams, das die „AI Principles“ des Konzerns entwickelt hat.

Was die Modelle selbst angeht, ist eine der Maßnahmen, um Bias zu reduzieren, spezielle Regeln zu installieren. Bei Google Translate zum Beispiel tritt häufig das Problem mit geschlechterspezifischen Verzerrungen auf. Ärzte etwa werden häufig als männlich übersetzt, Krankenschwestern als weiblich. Die Regeln sollen diese Vorurteile minimieren und entsprechende Übersetzungen ausliefern.

Auf der diesjährigen Google IO hat der Konzern MUM angekündigt, kurz für „Multitask Unified Model“. Es soll mit 75 Sprachen trainiert und in der Lage sein, auch komplexe Fragen in der Google-Suche zu beantworten. Was zeigt, dass der Konzern darüber nachdenkt, mächtige Sprachmodelle, sogenannte LLMs (Large Language Models), in der Suche zu verbauen.

„Wir müssen in Zukunft einfach in der Lage sein, echte Gespräche zu führen, wie wir es im Alltag mit echten Menschen auch machen. Aber da gibt es noch eine Menge Hürden“, erklärt Chou. Genau deshalb gebe es die KI-Richtlinien, um neue Technologien stets bewerten zu können und so sicherzustellen, dass die Risiken nicht den Nutzen überwiegen.

TR 6/2021

Die Richtlinien leiten das Unternehmen auch bei der Entscheidung, wie offen der Konzern mit seinen Modellen und Datensätzen umgeht. Beim Thema Gesichtserkennung hat Google etwa entschieden, keine offene API zur Verfügung zu stellen – zu diesem Zeitpunkt sei die Möglichkeit des Missbrauchs zu groß.

Und zur Causa Timnit Gebru? „Timnit hat wirklich gute Arbeit geleistet und wichtige Punkte, wie die Bedeutung von Frauen und unterrepräsentierten Gruppen, hervorgehoben. Wir brauchen die Vielfalt. Sie hat diese Punkte sehr deutlich gemacht.“ Warum sie dann entlassen wurde, obwohl sie gute Arbeit geleistet hat, wollte Chou dann aber nicht beantworten.

(bsc)