An der Denkgrenze

Müssen Maschinen in der Lage sein, Rechenschaft darüber abzulegen, was sie getan haben?

In Pocket speichern vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Peter Glaser

Etwas zu wissen, kann auch auswendig gelerntes Lexikonwissen meinen. Verstehen aber ist die Erwartung, dass andere Menschen uns erklären können, wie und warum ihre Methoden funktionieren. Zwischen diesen beiden Arten von Wissen zeichnet sich nun im Zeitalter des maschinellen Lernens eine Bruchlinie ab. Auf der einen Seite steht der menschliche Geist und seine Auffassungsgabe. Auf der anderen Seite sehen wir Maschinen, deren Algorithmen erstaunliche Vorhersagekraft besitzen. Mit ihrer Hilfe – und mit Big Data – lassen sich detailtiefe, oft treffsichere Modelle von allem und jedem errechnen. Die inneren Abläufe, die dazu führen, bleiben jedoch für menschliche Beobachter radikal undurchsichtig.

Während wir danach streben, die Welt zu verstehen, produzieren die Maschinen messbare, praktische Prognosen, welche die Grenzen des menschlichen Denkens auf eigene Art zu überschreiten scheinen. Welche Art von Wissen ist wichtiger, das verstandene oder das pragmatische? Man muss nicht verstehen, wie ein Fernseher funktioniert, um ihn zu benutzen. Und auch ein quelloffenes Betriebssystem wie Linux ändert nichts daran, dass immer noch mehr Nutzer den Computer als Black Box bevorzugen, ohne dessen innere Vorgänge im Einzelnen verstanden haben zu müssen.

Bis dato galten Verständnis und Modellentwürfe als Verbündete der Wissenschaft gegen Unwissenheit. Schon der britische Philosoph Francis Bacon (1561-1626) war an der Verbesserung der Möglichkeiten zur Wissenserzeugung interessiert und schlug vor, Wahrnehmung und Vernunft durch Werkzeuge zu ergänzen. Teleskope, Mikroskope, mathematische Formalismen – ein Füllhorn solcher Techniken beschleunigte in der Folge das Tempo wissenschaftlicher Entdeckungen. In dieser wachsenden Abhängigkeit von Instrumenten schlummert der Keim des unbehaglich anwachsenden Unterschieds zwischen dem, was der menschliche Verstand über die Mechanismen der Welt erkennen konnte und dem, was Instrumente messen und modellieren konnten. Heute droht diese Kluft die Wissenschaft insgesamt zu gefährden.

Die erfolgreichsten Ansätze zur Spracherkennung in den 80er- und 90er-Jahren verwendeten mathematische Modelle, die auf der Struktur der menschlichen Sprache basierten. Dann tauchten die tiefen neuronalen Netze auf. Diese Algorithmen ignorieren linguistisches Vorwissen und lassen stattdessen durch Training auf rein akustischer Ebene Wörter entstehen. Das Verstehen von Sprache war nun nicht mehr das Ziel, sondern die Vorhersage der richtigen Übersetzung. Jeder kann sich heute bei DeepL oder Google Translate davon überzeugen, wie immens erfolgreich der Strategiewechsel war.

Nachdem die Wissenschaftsgemeinde sich mit der algorithmischen Undurchsichtigkeit abgefunden hatte, ist die pragmatische Lösung nun salonfähig – für alles, das unter "maschinelles Lernen" läuft. Neuronale Netze fangen das größte Hindernis ein, mit dem die zeitgenössische Wissenschaft konfrontiert ist: Komplexität. Könnte es sein, dass die menschliche Auffassung von Verständnis den weiteren Erfolg der Wissenschaft behindert?

Genom-Studien etwa können Hunderte von Parametern erfassen und den Ursprung von Krankheiten mit Tausenden von potenziell wichtigen Faktoren in Verbindung bringen. Aber diese "hochdimensionalen" Datensätze und die Vorhersagen, die sie liefern, entziehen sich unserer Fähigkeit, sie zu interpretieren. Verstehen ist offenbar weniger gut verstanden, als es scheint.

(bsc)