Erklärbare Künstliche Intelligenz: Red Hat gibt Quellcode für TrustyAI frei

TrustyAI nutzt Techniken der Explainable Artificial Intelligence, um Entscheidungsprozesse von KI-Software erklärbar zu machen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Peshkova / shutterstock.com)

Lesezeit: 2 Min.

Vertrauen ins System, darum geht es bei Red Hats Bibliothek TrustyAI, deren Code als eigenständiges Open-Source-Paket nun allgemein verfügbar ist. Die Verwendung von Machine-Learning-Algorithmen erfordert Vertrauen dahingehend, dass das System die Entscheidungen im Sinne des Unternehmens trifft. TrustyAI soll das Vertrauen in auf Basis von Künstlicher Intelligenz getroffener Entscheidungsprozesse erhöhen. Sogenannte Black-Box-Modelle, die auf Machine Learning (ML) basieren, sollen mit Techniken der Explainable Artificial Intelligence (XAI) erklärbar und nachvollziehbar werden.

Forscher bei Red Hat haben bereits im vergangenen Jahr das TrustyAI Explainability Toolkit entwickelt, eine Bibliothek, die Techniken zur Erklärung von automatisierten Entscheidungsfindungssystemen nutzt. Als Teil von Kogito, dem Cloud-nativen Business-Automatisierungs-Framework von Red Hat, reichert TrustyAI Informationen zur Ausführung von KI-Modellen durch Algorithmen an und extrahiert, sammelt und veröffentlicht Metadaten für Audits und Compliance.

Der Fokus liegt dabei auf drei Aspekten: Laufzeit, Erklärbarkeit und Nachvollziehbarkeit. Erklärbarkeit meint das Anreichern der Modellausführungsinformationen durch XAI. Metadaten sollen zur Nachverfolgung und für das Auditing und Compliance extrahiert, gesammelt und veröffentlicht werden. Die Laufzeitüberwachung erfolgt mit dem Offenlegen der Services in einem von TrustyAI bereitgestellten Dashboard (Audit UI) und dient der Bewertung von Daten aus geschäftlicher und betrieblicher Sicht.

Innerhalb von TrustyAI wolle man ML-Modelle und Entscheidungslogik kombinieren (Integration von DMN und PMML), um automatisierte Entscheidungen durch das Einbeziehen von Predictive Analytics anzureichern, schrieb Rebecca Withworth (Mitglied der TrustyAI-Initiative bei RedHat) bereits im vergangenen Jahr in einem Beitrag auf dem KIE-Blog. DMN steht für Decision Model and Notation, damit lassen sich Entscheidungstabellen definieren und technisch automatisieren. Bei Predictive Model Markup Language (PMML) handelt es sich um einen XML-Dialekt, der als Standard zum Einsatz kommt, wenn es um den Austausch von Ergebnissen zwischen unterschiedlichen Data-Mining-Programmen geht.

Durch die Überwachung des Ergebnisses der Entscheidungsfindung ließen sich Systeme auditieren, um sicherzustellen, dass sie den Vorschriften entsprechen. Die Ergebnisse ließen sich zudem durch das System verfolgen, um einen weitreichenden Überblick über die getroffenen Entscheidungen und Vorhersagen zu erhalten. TrustyAI werde sich die Kombination dieser beiden Standards zunutze machen, um eine vertrauenswürdige automatisierte Entscheidungsfindung zu erzielen. Nähere Informationen finden sich im Beitrag zur TrustyAI Initiative auf dem Kogito-Blog.

(mdo)