KI-Systeme: MLOps, Model Governance und Explainable AI sichern robusten Einsatz
Compliance und Vertrauen: Mit den richtigen Tools und Prozessen lassen sich KI-Systeme wirksam kontrollieren und im Einklang mit rechtlichen Vorgaben betreiben.
- Isabel Bär
- Kilian Kluge
Moderne KI-Systeme haben den Ruf, Black Boxes zu sein, deren Funktionsweise Anwendern und Entwicklerinnen verborgen bleibt. Auf dem Weg zur künftigen Nutzung von KI stehen Unternehmen daher vor Herausforderungen, die sich bisher in der klassischen Softwareentwicklung nicht gestellt hatten. Zum einen müssen Teams aus Daten angelernte Modelle schnell und effizient in den Produktivbetrieb bringen und anschließend fortlaufend überwachen und aktualisieren. Dabei helfen die Vorgehensmodelle und technischen Komponenten der Praxis der Machine Learning Operations (MLOps).
Explainable AI macht nachvollziehbar, wie KI-Systeme Entscheidungen treffen
Zum anderen muss sichergestellt sein, dass die KI-Systeme alle relevanten rechtlichen Auflagen erfüllen und keine unternehmerischen Fehlentscheidungen oder Reputationsschäden verursachen. Dazu braucht es Model Governance, aber auch Methoden, die die Entscheidungen von KI-Systemen für alle Stakeholder nachvollziehbar machen. Hier bietet Explainable AI (Erklärbare KI, kurz: XAI) eine Vielfalt von Ansätzen, aus den komplexen mathematischen Strukturen der eingesetzten Modelle für Menschen verständliche Erklärungen zu extrahieren.
Der Einsatz von Machine Learning bringt Verantwortung und Verpflichtungen mit sich. Um diesen Anforderungen nachzukommen, benötigt ein Unternehmen Prozesse, durch die es
- die Zugriffe auf ML-Modelle kontrolliert
- Richtlinien/gesetzliche Vorgaben umsetzt
- die Interaktionen mit den ML-Modellen und deren Ergebnisse verfolgt
- festhält, auf welcher Grundlage ein Modell erzeugt wurde
Model Governance bezeichnet diese Prozesse in ihrer Gesamtheit
Checkliste:
- Vollständige Modelldokumentation oder Berichte. Dazu gehört auch das Reporting der Metriken durch geeignete Visualisierungstechniken und Dashboards
- Versionierung aller Modelle zur Herstellung von Transparenz nach außen (Erklär- und Reproduzierbarkeit)
- Vollständige Datendokumentation zur Gewährleistung hoher Datenqualität und Einhaltung des Datenschutzes
- Management von ML-Metadaten
- Validierung von ML-Modellen (Audits)
- Laufendes Überwachen und Protokollieren von Modellmetriken
Ein nachhaltiger Erfolg von KI-Software kann sich nur für Unternehmen einstellen, die ihre KI-Systeme auf diesen drei Grundpfeilern – MLOps, Model Governance und Explainable AI – aufbauen (s. Abb. 1). Um deren Zusammenspiel greifbar zu machen, zeigt dieser Artikel anhand von Beispielen aus der Praxis, wie die Integration der drei Elemente dazu beiträgt, solide KI-Anwendungen zu bauen.
Anwendungsfall: Automatisiertes Vorfiltern von Bewerbungen
In unserem Anwendungbeispiel möchte ein Unternehmen seinen Bewerbungsprozess effizienter gestalten und plant den Einsatz einer KI-basierten, automatischen Vorfilterung von Bewerbungen: Das System soll erkennen, welche Bewerbungen vielversprechend sind und in ein Bewerbungsgespräch münden sollten. In Zeiten, in denen Personalabteilungen nach einem flüchtigen Blick in die Unterlagen entscheiden, ob sie einer Bewerbung mehr Aufmerksamkeit widmen möchten, erscheint die automatisierte Vorfilterung als lohnender Prozess. Doch auf dem Weg zur Umsetzung eines solchen Systems lauern zahlreiche Fallstricke und Risiken (Abb. 2).