Ethik und Künstliche Intelligenz: ein neuer Umgang mit KI-Systemen

Seite 4: Mangel an Best Practices und Neuheit des Feldes

Inhaltsverzeichnis

An dieser Stelle ist es wichtig anzumerken, dass Begriffe wie Model Governance oder Responsible AI bisher nicht konsensbasiert definiert sind, weil es sich hier um ein noch neues Feld ohne etablierte Frameworks oder Best Practices handelt. Zwar gibt es Einigkeit darüber, dass KI ethisch sein sollte. Was das aber konkret heißt, was ethische KI ausmacht und welche Anforderungen für ihre Umsetzung notwendig sind, ist noch fragmentiert.

Das Neuheit des Feldes mag erst einmal überraschen: Schließlich hat KI im Bereich von Data Science in den letzten Jahren einen Hype erlebt. Während KI selbst keine neue Wissenschaft ist, sind aber die Anwendungen und ihre Marktdurchdringung noch nicht ausgereift. Es gibt also einen Unterschied zwischen der Entwicklung eines KI-Modells in einem lokalen Python-Programm oder Jupyter-Notebook und dem Deployment dieses Modells in eine Produktivumgebung. Hier liegt ein Problem: Nur etwa 13 Prozent aller Data-Science-Projekte werden erfolgreich in eine Produktivumgebung gebracht.

Worin unterscheidet sich KI-Software von „klassischer“ Software ohneKI? Im Gegensatz zu klassischer Software mit Code als Hauptkomponente setzt sich KI-Software aus den Daten, dem Modell und dem Code zusammen. Diese drei Komponenten bedingen sich gegenseitig: Beispielsweise bewirkt eine Änderung der Daten eine Änderung des Modells (Change-Anything-Change-Everything-Prinzip). Wird ein Modell nach dem Deployment in eine Produktivumgebung mit Daten konfrontiert, die sich stark von den Trainingsdaten unterscheiden, kann sich das Modell ändern.

Potenzielle Risiken von KI-Systemen können also über die Zeit entstehen. Aufgrund der Dynamik der Wechselbeziehung zwischen Daten, Modell und Code ist es unmöglich, diese Risiken vor dem Deployment präventiv zu unterbinden. Aus diesem Grund fordert die "Regulation on a European Approach for Artificial Intelligence" ein besonderes Augenmerk auf KI-Systeme, die in der Produktivumgebung "weiterlernen" und beschreibt die Notwendigkeit eines "Post-Market-Monitoring-System" (Sektion 83). Dieses Monitoring-System sollte als Prüfungs- und Validierungsprozess im Model-Governance-Framework eingebettet sein.

Wenn es bisher schon an etablierten Praktiken zur langfristig erfolgreichen Entwicklung von KI-Software gemangelt hat, ist es nicht überraschend, dass diese auch bei der Umsetzung ethischer Richtlinien in KI-Systemen fehlen. Trotz des bislang nur schwach verbindlichen und allgemeingültigen Charakters der Richtlinien sind sie in Abwesenheit universaler Standards eine Orientierungshilfe, die bei der KI-Entwicklung als "Nordstern" genutzt werden sollte. Gibt es hier einen mehrheitlich festgelegten Kurs?

Eine Studie der ETH Zürich (Eidgenössisch-Technische Hochschule), die in der Fachzeitschrift "Nature Machine Intelligence" erschienen ist, geht dieser Frage nach und untersucht, ob ethische Prinzipien um wenige zentrale Konzepte konvergieren. Zu diesem Zweck wurden 84 ethische Richtlinien, die entweder private Unternehmen, der öffentlichen Sektor oder akademische Institutionen veröffentlicht hatten, untersucht und auf Ähnlichkeiten hin gescannt. Während kein ethisches Prinzip in allen 84 Publikationen auftauchte, fand die Arbeit Konvergenzen für Transparenz (87 %), Gerechtigkeit und Fairness (81 %), Nicht-Schädlichkeit (71 %), Verantwortung (71 %) und Datenschutz (56 %).