Interpretierbare KI: Künstliche Intelligenz verstehen können

Machine Learning erzeugt heute KI-Systeme, die Entscheidungen schneller treffen als ein Mensch. Neue Methoden machen Entscheidungswege transparenter.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Interpretierbare KI: Künstliche Intelligenz verstehen können
Lesezeit: 11 Min.
Von
  • Andreas Holzinger
Inhaltsverzeichnis

Autonomes Fahren, Gesichtserkennung, Sprachverstehen und Empfehlungssysteme werden heute als KI-Systeme verwirklicht, zumeist in Form neuronaler Netze. Diese entstehen nicht durch manuelle Programmierung, sondern durch maschinelles Lernen, indem sie automatisiert mit vorgegebenen großen Mengen an Beispieldaten trainiert werden – das sogenannte Deep Learning. Am Ende lässt sich allerdings nur sehr schwer nachvollziehen, wie neuronale Netze tatsächlich Entscheidungen treffen. Zahlreiche versteckte Ebenen zwischen Eingabe- und Ausgabeschicht und Millionen von Parametern machen sie zu äußerst schwer zu durchschauenden Black-Box-Modellen.

Der Grund, warum Deep-Learning-Verfahren trotzdem zunehmend eingesetzt werden: Abstrakte Algorithmen finden in komplexen und hochdimensionalen Datenmengen Muster, die kein Mensch jemals in der Lage wäre zu entdecken. Also wird den Algorithmen die Lösungsfindung zwangsläufig überlassen.

Hier hat das Forschungsgebiet der "explainable artificial intelligence", also einer interpretierbaren KI, seinen Ursprung. Transparente Entscheidungswege stellen eine Riesenchance für KI-Lösungen dar. Die ihnen vorgeworfene Undurchsichtigkeit könnte vermindert und die Akzeptanz bei den Nutzern gefördert werden. Denn die Angst vor einem Kontrollverlust des Menschen durch KI ist groß. Themen wie das autonome Fahren und die unklare Entscheidungsfindung des Fahrzeugs, etwa im Extremfall kurz vor einem unabwendbaren Unfall, stehen längst in der öffentlichen Diskussion. Ebenso die Frage, inwieweit KI medizinische Entscheidungen unterstützen oder sogar selbst treffen darf.

Das war die Leseprobe unseres heise-Plus-Artikels "Interpretierbare KI: Künstliche Intelligenz verstehen können". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.