KI-Zukunft: So wollen Forscher und Praktiker die Grenzen der KI überwinden

Wohin steuert die KI in der Zukunft? Ein Überblick über neue Ansätze, die den praktischen Nutzen von KI vergrößern und sie „menschlicher“ machen sollen.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
, Andreas Martini

(Bild: Andreas Martini)

Lesezeit: 10 Min.
Inhaltsverzeichnis

Künstliche Intelligenz soll schlauer und universeller werden, Wissenschaftler experimentieren dafür auf allen Ebenen: Die einen entwickeln Algorithmen mit detektivischem Talent, die mögliche Gründe für (Fehl-)entscheidungen tiefer neuronaler Netze aufspüren und visualisieren. Andere forschen an effizienteren Lernmethoden, damit ein Kunsthirn künftig ähnlich wie der Mensch aus wenigen Eindrücken neue Erkenntnisse gewinnen kann. Und es entstehen sogar schon Multitasking-Netze, die nicht nur Bilder und Sprache beherrschen, sondern auch einen Roboterarm steuern können.

Forscher arbeiten zum Beispiel an konkreten Methoden, um das Deep Learning robuster zu machen. In bestimmten Szenarien funktioniert es zwar problemlos, wie die Beispiele in dem Artikel "KI in Unternehmen: Wie künstliche Intelligenz Firmen produktiv macht" zeigen. Wenn man Deep Learning jedoch in kritischen Bereichen wie Medizin, Justiz und Finanzen einführen möchte, muss man dringend das Problem beseitigen, dass Menschen kaum nachvollziehen können, wie die tiefen neuronalen Netze zu ihren Ergebnissen und Fehlern kommen. Der von der EU geplante AI Act stellt hohe Anforderungen an solche KI-Anwendungen, die ein großes Risiko bergen. Er verlangt sinngemäß, dass Menschen nicht Opfer automatisierter Entscheidungen werden, die irgendein magischer Algorithmus aus dem Hut zaubert.

Mehr zu Künstlicher Intelligenz

Versicherungen müssen deshalb plausibel begründen können, wie ein Tarif auf Grundlage des individuellen Risikos errechnet wird, und Mediziner wollen wissen, worauf eine algorithmisch gestellte Diagnose oder ein Therapievorschlag beruht. Aussagen wie: "Das ist so, weil das größte neuronale Netz der Welt mit ein paar Millionen Verknüpfungen zigtausend Befunde der besten Ärzte der Welt inhaliert hat" genügen nicht. Damit würde man nur den Halbgott in Weiß durch den Halbgott in Silizium ersetzen. Ein Schlüssel zu mehr Transparenz liegt in sogenannten Explainable-AI-Verfahren (XAI), wie sie das Fraunhofer Heinrich-Hertz-Institut (HHI) in Berlin entwickelt.