KI-Systeme: MLOps, Model Governance und Explainable AI sichern robusten Einsatz

Compliance und Vertrauen: Mit den richtigen Tools und Prozessen lassen sich KI-Systeme wirksam kontrollieren und im Einklang mit rechtlichen Vorgaben betreiben.

In Pocket speichern vorlesen Druckansicht
Artificial,Intelligence,Abstract,Face,Created,By,Neural,Network,Machine,Learning

(Bild: shuttersv/Shutterstock.com)

Lesezeit: 16 Min.
Von
  • Isabel Bär
  • Kilian Kluge
Inhaltsverzeichnis

Moderne KI-Systeme haben den Ruf, Black Boxes zu sein, deren Funktionsweise Anwendern und Entwicklerinnen verborgen bleibt. Auf dem Weg zur künftigen Nutzung von KI stehen Unternehmen daher vor Herausforderungen, die sich bisher in der klassischen Softwareentwicklung nicht gestellt hatten. Zum einen müssen Teams aus Daten angelernte Modelle schnell und effizient in den Produktivbetrieb bringen und anschließend fortlaufend überwachen und aktualisieren. Dabei helfen die Vorgehensmodelle und technischen Komponenten der Praxis der Machine Learning Operations (MLOps).

Young Professionals schreiben für Young Professionals

Dieser Beitrag ist Teil einer Artikelserie, zu der die Heise-Redaktion junge Entwickler:innen einlädt – um über aktuelle Trends, Entwicklungen und persönliche Erfahrungen zu informieren. Bist du selbst ein "Young Professional" und willst einen (ersten) Artikel schreiben? Schicke deinen Vorschlag gern an die Redaktion: developer@heise.de. Wir stehen dir beim Schreiben zur Seite.

Zum anderen muss sichergestellt sein, dass die KI-Systeme alle relevanten rechtlichen Auflagen erfüllen und keine unternehmerischen Fehlentscheidungen oder Reputationsschäden verursachen. Dazu braucht es Model Governance, aber auch Methoden, die die Entscheidungen von KI-Systemen für alle Stakeholder nachvollziehbar machen. Hier bietet Explainable AI (Erklärbare KI, kurz: XAI) eine Vielfalt von Ansätzen, aus den komplexen mathematischen Strukturen der eingesetzten Modelle für Menschen verständliche Erklärungen zu extrahieren.

Checkliste Model Governance

Der Einsatz von Machine Learning bringt Verantwortung und Verpflichtungen mit sich. Um diesen Anforderungen nachzukommen, benötigt ein Unternehmen Prozesse, durch die es

  • die Zugriffe auf ML-Modelle kontrolliert
  • Richtlinien/gesetzliche Vorgaben umsetzt
  • die Interaktionen mit den ML-Modellen und deren Ergebnisse verfolgt
  • festhält, auf welcher Grundlage ein Modell erzeugt wurde

Model Governance bezeichnet diese Prozesse in ihrer Gesamtheit

Checkliste:

  • Vollständige Modelldokumentation oder Berichte. Dazu gehört auch das Reporting der Metriken durch geeignete Visualisierungstechniken und Dashboards
  • Versionierung aller Modelle zur Herstellung von Transparenz nach außen (Erklär- und Reproduzierbarkeit)
  • Vollständige Datendokumentation zur Gewährleistung hoher Datenqualität und Einhaltung des Datenschutzes
  • Management von ML-Metadaten
  • Validierung von ML-Modellen (Audits)
  • Laufendes Überwachen und Protokollieren von Modellmetriken

Ein nachhaltiger Erfolg von KI-Software kann sich nur für Unternehmen einstellen, die ihre KI-Systeme auf diesen drei Grundpfeilern – MLOps, Model Governance und Explainable AI – aufbauen (s. Abb. 1). Um deren Zusammenspiel greifbar zu machen, zeigt dieser Artikel anhand von Beispielen aus der Praxis, wie die Integration der drei Elemente dazu beiträgt, solide KI-Anwendungen zu bauen.

Erst das Zusammenspiel von Model Governance, MLOps und Explainable AI ermöglicht den zuverlässigen und gewinnbringenden Einsatz von KI-Systemen (Abb. 1).

In unserem Anwendungbeispiel möchte ein Unternehmen seinen Bewerbungsprozess effizienter gestalten und plant den Einsatz einer KI-basierten, automatischen Vorfilterung von Bewerbungen: Das System soll erkennen, welche Bewerbungen vielversprechend sind und in ein Bewerbungsgespräch münden sollten. In Zeiten, in denen Personalabteilungen nach einem flüchtigen Blick in die Unterlagen entscheiden, ob sie einer Bewerbung mehr Aufmerksamkeit widmen möchten, erscheint die automatisierte Vorfilterung als lohnender Prozess. Doch auf dem Weg zur Umsetzung eines solchen Systems lauern zahlreiche Fallstricke und Risiken (Abb. 2).