Ethik und Künstliche Intelligenz: ein neuer Umgang mit KI-Systemen

Seite 2: Sprachmodelle gewinnen an Bedeutung

Inhaltsverzeichnis

Trainingsdaten spielen auch für Sprachmodelle eine zentrale Rolle. Language Models (LM) sind unüberwachte KI-Systeme, die für die Vorhersage der Wahrscheinlichkeit eines Tokens (Zeichen, Wort oder Zeichenkette) trainiert werden, wenn entweder der vorangehende Kontext oder der umgebende Kontext gegeben ist. Viele Menschen verwenden direkt oder indirekt große LM, auch wenn sie sich dessen vielleicht nicht bewusst sind. Ob Suchmaschinen, Textgenerierung oder Konversationstools – die Bedeutung von LM ist fest etabliert und wird im Alltag weiter an Bedeutung zunehmen. Um den Datenhunger der Sprachmodelle zu stillen, gilt es, große Datenmengen als Trainingsdaten aus dem gesamten Internet zu sammeln.

Das Internet als Datenbezugsquelle birgt das Risiko, "hegemonische Weltansichten von den Trainingsdaten zu absorbieren", wie ein Paper von der Universität Washington erklärt, und dem Algorithmus von Anfang an eine Sprache beizubringen, die von Bias geprägt ist. Daraus resultieren Modelle, die stereotypische und abwertende Assoziationen bezüglich Geschlecht, Rasse, Ethnie und Behinderungsstatus enthalten. Wenn diese Modelle ausgerollt werden, entweder als Teil eines Klassifizierungssystems oder als Spachgenerator, verstärkt sich dieser Bias in der Anwendung.

Darüber hinaus beginnt mit dem Deployment des Modells ein neuer Kreislauf: Der von LM produzierte Text wird sich mit dem in ihm enthaltenen Bias weiterverbreiten und im Zuge dessen nicht nur Stereotype verstärken, sondern selbst wieder in Trainingsdaten für neue Modelle enthalten sein. Das Risiko eines subtilen Bias oder das einer von Language Models generierten offen beleidigenden Sprache wird für Menschen, gegen die es sich richtet, ein gravierendes Problem. Dazu gehört zum einen der individuelle psychologische Schaden, zum anderen hat das Thema mit der Verstärkung sexistischer, rassistischer und anderer Vorurteile eine gesamtgesellschaftliche Tragweite. Verstärkte Ideologien können im schlimmsten Fall zu Gewalt führen.

Gender Shades und die möglichen Risiken großer Sprachmodelle führen vor Augen, wie schwierig es ist, vor der Bereitstellung der Software zu erkennen, ob und welches schädliche Potenzial einem System innewohnt. Entfaltet sich dieses Potenzial nach Bereitstellung, ist das Auffinden der Fehlerquelle mitunter unmöglich und kann massive Konsequenzen haben. Selbstverständlich gibt es eine Vielzahl weiterer Anwendungsfälle von KI in einem breiten gesellschaftlichen Kontext. Beispielsweise kann KI eingesetzt werden, um Kreditentscheidungen oder den Einstellungsprozess neuer Mitarbeiter zu unterstützen.

Mit der zunehmenden Integration von KI in die Gesellschaft sind Chancenverlust, wirtschaftlicher Schaden und soziale Stigmatisierung die Hauptrisiken einer unethischen Anwendung von KI-Technologie. Es ist klar, dass Algorithmen selbst nicht zur Rechenschaft gezogen werden können – wohl aber Unternehmen, die KI-Software entwickeln. Um zu verhindern, dass deren Umgang mit ethischen Leitlinien lediglich eine Reaktion auf externen Druck wie drohenden Reputationsschäden darstellt, braucht es verbindliche gesetzliche Vorgaben zur Regulierung von KI-Software und eine Neujustierung der Unternehmens-Policy.