Was denkt sich die KI?

Seite 3: Rätselhafte KI schlecht fürs Geschäft

Inhaltsverzeichnis

Dennoch stehen die Chancen besser, als diese Einwände vermuten lassen. Denn die Unternehmen haben erkannt, dass eine rätselhafte KI nicht gut fürs Geschäft ist. Tom Gruber, der das Siri-Team bei Apple leitet, sagt, dass Erklärbarkeit eine zentrale Überlegung für sein Team ist auf dem Weg von Siri zu einem klügeren und virtuellen Assistenten. Gruber schweigt über konkrete Pläne, aber es ist naheliegend, dass man beispielsweise bei einer Restaurantempfehlung auch wissen will, wieso Siri genau dieses Lokal ausgewählt hat. Ruslan Salakhutdinov, der Direktor der KI-Forschung bei Apple und Associate Professor an der Carnegie Mellon University, sieht Erklärbarkeit als das Herz der wachsenden Beziehung zwischen Menschen und intelligenten Maschinen. "Sie wird Vertrauen vermitteln." Auch das US-Militär ist sich der Gefahr bewusst. Es investiert derzeit Milliarden, um Fahrzeuge und Flugzeuge per KI zu steuern, Ziele automatisch zu identifizieren oder Geheimdienstanalysten bei der Datenauswertung zu unterstützen. Algorithmische Irrtümer können jedoch schnell tödlich enden.

Deshalb hat das Verteidigungsministerium die Transparenz solcher Entscheidungen zu einem Schlüsselziel erklärt. David Gunning von der Darpa, die für das US-Militär Forschungsvorhaben finanziert, leitet das treffend als "Erklärbare künstliche Intelligenz" bezeichnete Programm. Der grauhaarige Veteran kennt sich mit dem Sujet besten aus. Er leitete einst das Darpa-Projekt, aus dem später eher zufällig Apples Sprachassistent Siri hervorging. "Es liegt in der Natur dieser selbstlernenden Systeme, dass sie viele Fehlalarme produzieren", sagt Gunning. "Deshalb muss verständlich sein, wie eine Empfehlung zustande kam."

Einen ersten Schritt in diese Richtung unternahmen Google-Forscher 2015. Sie kamen erstmals auf die Idee, ein tiefes neuronales Netz zur Bilderkennung so zu verändern, dass es sichtbar macht, was es erkennt. Sie brachten dem Netz bei, die von seinen verschiedenen Ebenen erkannten Strukturen zu verstärken. Das auf diese Weise veränderte Bild wurde in das Netz zurückgespeist, ein neuer Durchlauf folgte und so weiter. "DeepDream", wie sie das Netz schließlich nannten, erfüllte seinen ursprünglichen Zweck nur teilweise. Dafür verblüffte es seine Schöpfer jedoch gründlich: Die daraus entstandenen Bilder zeigen groteske, alienartige Tiere, die aus Wolken oder Pflanzen entstehen, oder Pagoden, die über Wäldern oder Bergen blühen.

Erst Forscher wie Wojciech Samek, Leiter der Forschungsgruppe für Maschinelles Lernen am Fraunhofer Heinrich-Hertz-Institut HHI in Berlin, brachten den Google-Ansatz vor Kurzem zu Ende: Samek und seine Kollegen lassen ein neuronales Netz zur Bilderkennung quasi rückwärts laufen. So können sie sehen, wie die Computerneuronen Bereiche eines Bildes gewichten – also gewissermaßen wo das Netz hinschaut, wenn es in einem Bild bestimmte Gegenstände erkennt. Ihr Ergebnis: Eine Software, die auf Fotos Züge erkennen sollte, orientierte sich hauptsächlich an Gleisen und an der Bahnsteigkante. Den Zug selbst hielt das Netz nicht für besonders wichtig. Es würde also womöglich auch dann einen Zug erkennen, wenn auf einem Bild lediglich Schienen und eine Bahnsteigkante zu sehen sind. Ähnlich erging es einem neuronalen Netz, das Fotos von Pferden erkennen sollte: Die KI stützte sich auf die Copyright-Angabe, die auf Pferdeforen verwies. Der Inhalt des Bildes spielte keine Rolle. Ohne diese Methode würden die Programme als äußerst zuverlässige Klassifikatoren gelten – bis sie einen Fehler machen, den kein Mensch nachvollziehen kann.

Was bei Pferden noch Spielerei ist, kann im Medizinbereich rasch lebensgefährdend werden. Wie dort eine Lösung aussehen könnte, hat Thomas Ertl vom Visualisierungsinstitut der Uni Stuttgart vorgestellt. Er hat sich mit Ärzten ausgetauscht, die Algorithmen bei der Analyse von Computertomografie-Bildern unterstützen. "Diese Experten wollen sich versichern, dass das Ergebnis stimmt." Die Wissenschaftler geben ihnen die Möglichkeit, die Parameter zu ändern, die der Computer anlegt und die beispielsweise definieren, wo ein Tumor aufhört und normales Gewebe anfängt. Diese Werte verschieben die Ärzte und beobachten dabei, wie sich das ausgegebene Bild verändert: Deckt sich der erkannte Tumor mit ihren eigenen Erfahrungen? So können sie überprüfen, ob die Annahmen des Programms stimmen.

In eine vergleichbare Richtung geht die Arbeit von Carlos Guestrin von der University of Washington. Mit seiner Methode findet der Computer automatisch einige Beispiele für entscheidende Parameter in einem Datensatz und präsentiert sie dem Nutzer zusammen mit einer kurzen Erklärung. Ein System, das beispielsweise Brustkrebs auf Mammografie-Aufnahmen erkennen soll, kann jene Teile eines Bildes markieren, die es für entscheidend hält. Ein Algorithmus, der eine Mail eines Terroristen erkennen soll, könnte bestimmte Schlüsselwörter aus einer Nachricht markieren, sodass Menschen überprüfen können, ob die Parameter Sinn ergeben.

Die mitgelieferte Erklärung zeigt also, ob die künstliche Intelligenz die Aufgabe richtig verstanden hat. Ein Nachteil vieler dieser Ansätze ist allerdings, dass die Erklärung immer vereinfacht sein wird, dass also wichtige Informationen auf dem Weg verloren gehen könnten. Der Traum vieler Forscher wäre daher eine KI, die eine echte Unterhaltung führen und argumentieren kann. Aber erstens "sind wir weit davon entfernt, eine wirklich interpretierbare KI zu haben", sagt Guestrin.

Und zweitens: Wäre das Problem damit wirklich gelöst? Keine KI dürfte jemals in der Lage sein, alles zu erklären, was sie tut. "Selbst wenn dir jemand eine einleuchtende Erklärung für sein Verhalten gibt, ist sie sicherlich nicht komplett – und das Gleiche könnte auch für KI gelten", sagt Jeff Clune, der an der University of Wyoming mit tiefen neuronalen Netzen forscht, die sich selbst weiterentwickeln können. "Es könnte einfach ein Teil der Natur von Intelligenz sein, dass nur ein Teil davon rational zu erklären ist. Ein anderer Teil ist einfach instinktiv, unbewusst oder unergründlich." Selbst wenn dem nicht so wäre und eine umfassende Darlegung der Gründe möglich ist: Können Menschen ihnen am Ende wirklich folgen?

Vielleicht müssen wir den Entscheidungen einer KI an einem bestimmten Punkt einfach vertrauen – oder uns in Einzelfällen entscheiden, sie nicht zu nutzen. Daniel Dennett von der Tufts University schreibt in einem Kapitel seines neuen Buches "From Bacteria to Bach and Back", dass es ein natürlicher Teil der Evolution von Intelligenz sei, Systeme zu entwickeln, die Aufgaben erledigen, von denen deren Erschaffer nicht wissen, wie sie es tun. Zur Frage der Erklärbarkeit hat er ein mahnendes Wort: "Wenn wir diese Technologien nutzen und uns auf sie verlassen, dann müssen wir so gut wie irgend möglich verstehen, wie und warum sie uns welche Antworten geben." Da es aber keine perfekte Antwort geben mag, sollten wir mit KI-Erklärungen vorsichtig umgehen – ganz egal wie clever eine Maschine zu sein scheint. "Wenn sie nicht besser als wir erklären kann, was sie tut", warnt er, "dann vertraue ihr nicht." (bsc)