KI-Systeme: MLOps, Model Governance und Explainable AI sichern robusten Einsatz
Seite 2: Klassische Softwareentwicklung funktioniert anders als Machine Learning
Sowohl ML-basierte als auch herkömmliche Software sind Abfolgen von Anweisungen, nach denen ein Computer Daten verarbeitet. Der wesentliche Unterschied liegt in der Art und Weise, wie die Software jeweils entsteht. Traditionellerweise wird die gewünschte Funktionsweise Schritt für Schritt entwickelt. Mit Methoden wie Unit- und Integrationstests lassen sich dabei die Funktion einzelner Komponenten und ihr ordnungsgemäßes Zusammenspiel sicherstellen. Das Ineinandergreifen der einzelnen Bausteine ist also – bis hinab auf eine jeweils zweckmäßig gewählte Abstraktionsebene – geplant und sichtbar.
Machine Learning kommt in der Regel dann zum Einsatz, wenn die klassische Vorgehensweise nicht geeignet ist, weil zwar Eingabe und gewünschte Ausgabe definiert sind, der Rechenweg dazwischen jedoch unbekannt ist. Sind genügend Beispiele von Eingaben und zugehörigen Ausgaben verfügbar, lässt sich auf den Daten ein ML-Modell trainieren, das den Zusammenhang zwischen Eingabe und Ausgabe abbildet – sofern die innere Struktur des Modells und seine Komplexität dazu geeignet sind. Während die innere Struktur eines Modells in der Regel strikt von seinen Entwicklerinnen vorgegeben ist, ermittelt ein Trainingsalgorithmus die passenden Parameter.
Notwendigkeit von Model Governance und Explainable AI
Diese Eigenheiten sind die Wurzel zahlreicher Herausforderungen für Entwickler und Betreiberinnen solcher KI-Systeme. So meldet die Personalabteilung unseres Beispielunternehmens bereits im Vorfeld Zweifel an, ob sie sich auf die Auswahl der KI wird verlassen können und ob die automatisierte Entscheidungsfindung ähnlich dem bisherigen rein manuellen Auswahlprozess anhand sinnvoller Kriterien erfolgt. Gleichzeitig stellt sich das Management die Frage, wie Risiken bei der Vorfilterung der Bewerbungen begegnet und die Einhaltung rechtlicher Vorgaben sichergestellt werden kann (vgl. Abb. 2).
Rechtliche und regulatorische Anforderungen an KI-Systeme
Aus der rechtlichen Perspektive richtet sich der Blick zunächst auf gesetzliche Vorschriften. Im Personalbereich unterliegen Unternehmen mindestens dem Allgemeinen Gleichbehandlungsgesetz (AGG) und der Datenschutzgrundverordnung (DSGVO).
Videos by heise
Zukünftig werden zudem viele KI-Anwendungen den Vorgaben der KI-Verordnung der EU genügen müssen, die derzeit in Brüssel Form annimmt und bestehende Regularien ergänzen wird. Diese Verordnung teilt KI-Systeme in vier unterschiedliche Risikokategorien ein ("unzulässig", "hoch", "begrenzt", "minimal"). Die Risikokategorie definiert dabei die Art und den Umfang der Anforderungen, die an das jeweilige KI-System zu stellen sind. "KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen", gelten nach der EU-Verordnung per Definition als Hochrisiko-KI-Systeme und sind mit einer umfangreichen Liste an Vorgaben in Einklang zu bringen
Anforderungen an Hochrisiko-KI-Systeme in dem Vorschlag der EU-Kommission zur KI-Verordnung vom 21. April 2021
- Einrichtung eines Risikomanagementsystems (Artikel 9)
- Einhaltung und Dokumentation von Datenqualitätsstandards und Data-Governance-Prozessen (Artikel 10)
- Technische Dokumentation (Artikel 11)
- Umfassende Protokollierung des Systems zweck RĂĽckverfolgbarkeit (Artikel 12)
- Transparenz und Dokumentation des Systems gegenĂĽber seinen Nutzern (Artikel 13)
- Ermöglichung einer wirksamen Aufsicht und Kontrolle durch Menschen (Artikel 14)
- Einhaltung hoher Standards in Hinblick auf Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)