KI-Entscheidungen verstehen: Wie LIME fĂĽr mehr Transparenz sorgt
Die Entscheidungen einer KI sind oft kaum nachzuvollziehen. Das LIME-Modell ermöglicht es, einzelne Ergebnisse genauer zu verstehen und zu durchschauen.
- Lea Reinhart
Der Nutzer gibt einen Prompt ein, die Künstlichen Intelligenz (KI) antwortet – etwa mit einer Chatnachricht oder einem generierten Bild. Aber wie kam die KI zu genau diesem Ergebnis? Selbst die Entwickler einer komplexen Künstlichen Intelligenz können oft nicht nachvollziehen, wie die KI zum ausgegebenen Text oder Bild kam. Die Systeme sind wie eine Blackbox, keiner kann reinschauen.
Besonders komplexe und undurchsichtige Blackbox-Systeme sind allerdings anfällig für Risiken. So könnte eine KI, die Kredite vergibt, etwa bestimmte Leute diskriminieren – weil sie schwarz sind, Frauen oder einer bestimmten Religion angehören. Mit Erklärbarer Künstlicher Intelligenz bringen Entwickler etwas Licht ins Dunkel und machen die Entscheidungen einer KI transparenter. So können sie solche Voreingenommenheiten der KI gleich entdecken und beheben. Auch der Nutzer hat mehr Sicherheit und kann etwa erfahren, nach welchem Schema eine KI entscheidet.
In diesem Artikel stellen wir eine der meistgenutzten Methoden aus dem Feld der Erklärbaren Künstlichen Intelligenz vor: LIME (Local Interpretable Model-Agnostic Explanations). Das Modell kann für einzelne KI-Entscheidungen zeigen, welche Faktoren das Ergebnis beeinflusst haben. Erst beschreiben wir, wie LIME dabei helfen kann, die Gründe für eine KI-Entscheidung ausfindig zu machen und zeigen dann, wie Entwickler mit dem Python-Code LIME direkt anwenden können.
Das war die Leseprobe unseres heise-Plus-Artikels "KI-Entscheidungen verstehen: Wie LIME für mehr Transparenz sorgt". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.