Ethik und Künstliche Intelligenz: ein neuer Umgang mit KI-Systemen

Seite 3: Ethical Guidelines: "lauwarm, kurzsichtig und vorsätzlich vage"?

Inhaltsverzeichnis

Diese Notwendigkeit hat auch die EU erkannt. Im April 2021 erschien die "Regulation on a European Approach for Artificial Intelligence" als erster Rechtsrahmen für KI, der die Risiken Künstlicher Intelligenz adressiert. Das Dokument erkennt an, dass der Einsatz biometrischer Identifikationssysteme „besondere Herausforderungen für den Schutz der Grundrechte und -freiheiten" mit sich bringt. Außerdem hält das Dokument fest, dass "technische Ungenauigkeiten zu verzerrten Ergebnissen führen und diskriminierende Wirkungen nach sich ziehen" (Sektion 70). Dies sei besonders bei Alter, ethnischer Zugehörigkeit, dem Geschlecht oder Behinderungen relevant.

Auch die zentrale Bedeutung der Trainingsdaten für die Leistung des KI-Systems wird hervorgehoben (Sektion 45). Diese sollten "ausreichend relevant, repräsentativ, fehlerfrei und vollständig im Hinblick auf den beabsichtigen Zweck sein", damit gewährleistet ist, dass Risiken für die Sicherheit und Grundrechte minimiert werden. Da dieser Rechtsrahmen nicht nur für in der EU ansässige Unternehmen und Einzelpersonen gelten soll, sondern auch für jedes Unternehmen, das KI-Leistungen innerhalb der EU anbietet, hätte das Gesetz einen der DSGVO entsprechenden Geltungsbereich und würde weltweit auf die KI-Entwicklung Einfluss nehmen.

Die Auseinandersetzung mit der Regulierung von KI-Software ist für die EU nicht neu. 2019 gab eine von der Europäischen Kommission beauftragte Expertengruppe Ethik-Leitlinien für die Entwicklung von KI-Software heraus. Die "Requirements for Trustworthy AI" beschreiben die geforderten Hauptmerkmale von KI-Systemen, nach denen Künstliche Intelligenz rechtmäßig, ethisch und robust sein sollte. Aus diesen Eigenschaften wurden sieben präzise Schlüsselanforderungen abgeleitet: menschliches Handeln und Aufsicht (KI sollte den Menschen befähigen, informierte Entscheidungen zu treffen), technische Robustheit und Sicherheit, Datenschutz und Data Governance, Transparenz, Vielfältigkeit, gesellschaftliches und ökologisches Wohlbefinden sowie die Rechenschaftspflicht.

Obwohl diese Leitlinien sicherlich ein Schritt in die richtige Richtung waren, gab es Kritik an ihrem Inhalt, den ein Mitglied der Expertengruppe als "lauwarm, kurzsichtig und vorsätzlich vage" bezeichnete. Ohne eine praktische Anleitung zur tatsächlichen Umsetzung und Operationalisierung ethischer Prinzipien fehlt eine wichtige Voraussetzung, um die Einhaltung eigener normativen Forderungen durchsetzen zu können. Ob die frisch veröffentlichte Regulierung genau das bewirken kann, bleibt zum Stand der Artikelveröffentlichung noch offen.

Klar ist es aber, dass das europäische Anziehen regulatorischer Zügel Unternehmen, die KI-Software entwickeln, rechenschaftspflichtig macht. Um dieser Rechenschaftspflicht nachzukommen, brauchen Firmen eine Unternehmens-Policy (Model Governance), die ein klares Framework zum Umgang mit KI-Software festlegt. Als "System, durch das die gesamte Organisation geleitet, kontrolliert und zur Rechenschaft gezogen wird", macht Model Governance Unternehmen rechenschaftsfähig und mindert die Risiken, die der Einsatz von KI-Software birgt.

Das Prinzip von Model Governance ist nicht neu: Es gibt etliche Bereiche mit einer Tradition überprüfbarer Prozesse und Kontrollmechanismen, die zwar nicht fehlerlos funktionieren, aber ohne die das Erreichen eines Sicherheitsstandards unmöglich wäre. Dazu gehören sicherheitskritische und regulierte Branchen wie die Medizin, aber auch Luft- und Raumfahrt oder das Finanzwesen.

Im Bereich der KI muss Model Governance die Zugriffskontrolle sowie Prüfungs- und Validierungsprozesse definieren – diese Prüfungsprozesse sind wichtig, um zu überprüfen, ob KI-Systeme ethischen Anforderungen entsprechen. Rollen und Verantwortlichkeiten gilt es ebenso festzulegen wie standardisierte Änderungs- und Auditprotokolle, die jede Änderung von Daten, Modell oder Systemen protokollieren. Die Protokollierung schafft nicht nur Transparenz nach außen, sie erleichtert auch die Fehlerbehebung und hilft beim Erfüllen gesetzlicher und regulatorischer Anforderungen.

Dazu gehören auch nachvollziehbare Modellergebnisse: Modelle sind dynamisch. Dennoch muss es möglich sein, jedes Modellergebnis der Modellversion zuzuordnen, die es erzeugt hat – das kann wichtig werden, wenn Nutzer beispielsweise gegen eine bestimmte algorithmische Entscheidung klagen. Die klare Festlegung von Rollen, Verfahren und Protokollen ermöglicht einen konsistenteren Produktionsprozess, der für Unternehmen das betriebliche, regulatorische und rechtliche Risiko vermindert.

Damit ist Model Governance die Basis, auf der zu regulierende Aspekte wie Ethik, Fairness und Bias (übergeneralisierte Annahme über eine bestimmte Personengruppe), Interpretierbarkeit und Erklärbarkeit sowie Robustheit und Sicherheit von KI-Systemen aufbauen. Diese Kernaspekte werden unter dem Begriff Responsible AI zusammengefasst.