Ethik und Künstliche Intelligenz: ein neuer Umgang mit KI-Systemen

Unregulierte KI-Systeme bergen gesellschaftliche Risiken. Doch wie könnten geeignete Regulierungsmaßnahmen aussehen? Ein Weg heißt Model Governance.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: Black Jack/Shutterstock.com)

Lesezeit: 15 Min.
Von
  • Isabel Bär
Inhaltsverzeichnis

Da KI sich den Weg in viele Anwendungsbereiche bahnt, ist es nun wichtig, dass KI-Systeme auf verantwortungsvolle, sichere und transparente Weise funktionieren. Die Risiken eines unregulierten Einsatzes von KI-Technologie diskutiert die im April 2021 veröffentlichte "Regulation on a European Approach for Artificial Intelligence" auch auf EU-Ebene. Die Regulierung von KI-Systemen ist ein rechtliches, gesellschaftliches und technisches Thema, das ein breites Bewusstsein erfordert und in den nächsten Jahren weiter an Relevanz gewinnen wird. Der erste Teil dieser aus zwei Teilen bestehenden Artikelserie beschreibt die gesellschaftlichen Herausforderungen, die mit KI einhergehen. Der zweite Teil vertieft die technische Seite des Themas.

Young Professionals schreiben für Young Professionals

Dieser Beitrag ist Teil einer Artikelserie, zu der die Heise-Redaktion junge Entwickler:innen einlädt – um über aktuelle Trends, Entwicklungen und persönliche Erfahrungen zu informieren. Bist du selbst ein "Young Professional" und willst einen (ersten) Artikel schreiben? Schicke deinen Vorschlag gern an die Redaktion: developer@heise.de. Wir stehen dir beim Schreiben zur Seite.

Wenn man ehrlich über die Herausforderungen sprechen möchte, denen eine demokratische Gesellschaft gegenübersteht, kann man es sich nicht leisten, die Risiken unregulierter KI-Software zu ignorieren. Machine Learning beziehungsweise Künstliche Intelligenz mag eine technische Methode sein – die Probleme, die sich damit lösen lassen, müssen allerdings nicht technischer Natur sein.

KI ist im Grunde die Anwendung von Algorithmen auf ein bestimmtes Problem. Um dieses zu lösen, werden sie mit Daten trainiert. Algorithmen gehören in den Bereich der Mathematik, die weithin als neutrale Instanz gilt. Lässt sich daraus ableiten, dass die Neutralität der Mathematik auch auf ihre Anwendung zutrifft? Nein, denn KI-Systeme und die ihnen zugrunde liegende Anwendung mathematischer Algorithmen sind nicht inhärent neutral. Es sind Menschen, die KI-Systemen die Daten bereit stellen, aus denen Algorithmen wiederum lernen. Damit sind es also Menschen, die in die Richtung weisen, in die sich KI verselbständigen soll, und der Mensch taugt nun mal nicht als objektiver Wegweiser.

2018 veröffentlichten die ghanaisch-amerikanische Informatikerin Joy Buolamwini und Timnit Gebru, eine ehemalige Ethical-AI-Forscherin bei Google, die Studie "Gender Shades", in der sie die Gesichtserkennungssysteme von Microsoft, IBM und Megvii analysierten. Sie wies nach, dass die Gesichtserkennung bei der Identifizierung von Menschen dunklerer Hautfarbe weniger akkurat entscheidet als bei Menschen hellerer Hautfarbe. Unterschiede in der Genauigkeit des Algorithmus gab es auch zwischen Männern und Frauen: Alle getesteten Face-Recognition-Systeme funktionierten für Männer besser als für Frauen. IBM führte dabei den Negativrekord an: Das System hatte eine um rund 34 Prozent reduzierte Accuracy für dunkelhäutige Frauen als für hellhäutige Männer. Woraus resultierte der Bias?

Damit Gesichtserkennungssysteme die gewünschte Leistung erbringen, muss die Verteilung der Bilder in den Trainingsdaten der Verteilung der Merkmale von Gesichtern entsprechen, die man in der realen Welt erwarten würde. Nur durch eine hohe Vielfältigkeit und breite Abdeckung der Trainingsdaten kann ein Modell unterschiedliche Ausprägungen von Merkmalen lernen. Enthalten Trainingsdaten dagegen Verzerrungen, die soziale Ungleichheiten in den Trainingsdaten widerspiegeln, gehen diese Verzerrungen in die erstellten Modelle ein.

Vor dem Hintergrund, dass Gesichtserkennung in den USA an Flughäfen zur Überprüfung der Identität der Reisenden oder von der Polizei zur Strafverfolgung eingesetzt wird, entpuppten sich die Ergebnisse der Studie als Initialzündung für eine Bürgerrechtsbewegung, die Maßnahmen forderte, um dem Problem des algorithmischen Bias Rechnung zu tragen. Als Konsequenz aus dieser öffentlichen Empörung beschloss IBM, sein Gesichtserkennungssystem vorerst nicht mehr einzusetzen. Zusätzlich zum Rückzug ihres Systems ging IBM noch einen Schritt weiter und stellte "Diversity in Faces" vor, einen Datensatz mit einer Million annotierter menschlicher Gesichter.

Die Daten waren unter sorgfältiger Berücksichtigung wissenschaftlicher Gesichtskodierungsschemata generiert worden und zielten darauf ab, zu vielfältigen Datensätzen beizutragen, die schließlich zu einer ausgewogeneren und fairen algorithmischen Entscheidungslogik führen sollten. Es stellte sich jedoch heraus, dass die im Datensatz enthaltenen Fotos ohne Zustimmung der Nutzer von der Foto-Hosting-Seite Flickr übernommen worden waren. In dem Versuch, das Fairness-Problem zu kitten, tat sich das Problem der Privacy auf.