KI: Noch dumm trotz viel Übung

Maschinelles Lernen macht in letzter Zeit spektakuläre Fortschritte. Doch für einen bedeutenden Forscher ist all das nur Schein-Intelligenz – weshalb er einen ganz neuen Maßstab zur Bewertung vorschlägt.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
KI: Wer nicht übt bleibt dumm

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Sascha Mattke
Inhaltsverzeichnis

Als Geburtsstunde des Forschungsgebiets Künstliche Intelligenz gilt eine sechswöchige Konferenz im Sommer 1956 in Dartmouth im US-Bundesstaat New Hampshire. Seit dieser Zeit wird emsig versucht, mit Maschinen menschliche Intelligenz zu erreichen, scheinbar mit immer besseren Ergebnissen. In Wirklichkeit aber ist KI Menschen in den mehr als 60 Jahren seit Dartmouth kaum näher gekommen, argumentiert Francois Chollet, ein wichtiger KI-Forscher bei Google.

Chollet hat in der aktuellen Maschinenlern-Szene große Bedeutung. Er steht hinter der Bibliothek Keras, die den Zugriff auf Deep-Learning-Plattformen wie das ebenfalls von Google stammende TensorFlow erleichtert. Die Kritik am bisher Erreichten kommt also von einem echten Insider. Aber Chollet kritisiert nicht nur, er macht in seinem Fachaufsatz auch einen Vorschlag für neue Testverfahren, die KI ihren ursprünglichen Zielen näher bringen sollen.

„Wir können zwar Systeme entwickeln, die extrem gute Leistungen bei bestimmten Aufgaben zeigen, aber sie haben immer noch massive Einschränkungen. Sie sind instabil, datenhungrig, nicht in der Lage, Situationen zu verstehen, die leicht von ihren Trainingsdaten oder den Annahmen ihrer Entwickler abweichen, und nicht in der Lage, sich auf die Handhabung von neuartigen Aufgaben umzustellen“, fasst Chollet in der Einleitung die aktuelle Lage zusammen.

Zuletzt hatten Erfolge von Computer-Netzen bei schwierigen Strategie-Spielen wie Go, StarCraft oder Dota 2 für Aufsehen gesorgt und wurden laut Chollet als Entwicklungen in die Richtung von menschenähnlicher KI dargestellt. OpenAI etwa, die Organisation hinter der Dota-spielenden KI Five, schrieb dazu, das System sei „ein Schritt zu fortschrittlichen KI-Systemen, die mit der Komplexität und Unsicherheit der realen Welt zurechtkommen“.

Chollet aber beeindrucken solche vermeintlichen Erfolge überhaupt nicht. Five zum Beispiel habe erst nach rechnerisch 45.000 Jahren Training die besten menschlichen Spieler bezwungen – und später hätten selbst nicht professionelle Spieler innerhalb von Tagen Strategien gefunden, mit denen sich die fleißige Maschine schlagen ließ.

Und dieses Problem ist laut Chollet ein allgemeines: Es gebe in der KI-Szene auf der einen Seite eine Fokussierung darauf, Menschen bei bestimmten Aufgaben zu übertreffen, ohne aber darauf zu achten, ob die dafür eingesetzten Methoden generalisierbar sind. Auf der anderen Seite bestehe trotzdem das offenkundige Interesse, „breite“, also allgemeine, Fähigkeiten zu entwickeln – was fast ein direkter Gegensatz zu den Bemühungen um Meisterschaft bei Einzelaufgaben sei.

Für Chollet zeigt das, dass das Feld der Künstlichen Intelligenz im Grunde seit Jahren auf einem Holzweg ist. Noch in den 1970er Jahren sei man davon ausgegangen, dass für das Spielen von Schach die gesamte Bandbreite von menschlichem rationalem Denken benötigt werde. Doch nach dem Sieg von IBMs Deep Blue über einen menschlichen Schach-Großmeister im Jahr 1997 hätten die Forscher dahinter rasch festgestellt, dass sie „mit dem Bau eines künstlichen Schach-Champions nichts über menschliche Kognition gelernt“ hätten.

Aus heutiger Sicht, so Chollet weiter, mag offensichtlich sein, dass ein statisches Schach-Programm keine neuen Erkenntnisse über menschliche Intelligenz liefern würde. Doch auch modernste Systeme, die mit Maschinenlernen weitaus komplexere Spiele meistern, würden immer noch demselben Muster folgen. Das Grundmissverständnis dabei: Um Spiele wie Schach oder auch StarCraft in den Griff zu bekommen, kann allgemeine menschliche Intelligenz tatsächlich helfen – mit Planung, Bewertung, Analysen, Strategiebildung und einer Kombination verschiedener natürlicher Lernformen lösen Menschen eine ganze Reihe von Problemen. Dabei bewegen sie sich, wie Chollet erklärt, vom Allgemeinen (ihrer Intelligenz) zum Speziellen (hier das zu erlernende Spiel).

Andersherum gebe es aber für Maschinen, die beim Speziellen anfangen, keinen klar erkennbaren Weg zum Allgemeinen, also zu generalisierbarer Intelligenz. Wenn Computer mit bestimmten Fertigkeiten den Eindruck von Intelligenz erwecken, dann versteckt sich für Chollet dahinter üblicherweise nichts als die Intelligenz ihrer Programmierer, codiertes Vorwissen und Training im massiven Umfang.

Aber Chollet begnügt sich nicht damit, die bisherigen Bemühungen seiner KI-Forscherkollegen als fehlgeleitet abzukanzeln: Er macht auch einen Vorschlag dazu, wie man dem Feld eine produktivere Richtung geben könnte. Dazu entwickelte der Forscher zunächst eine formale Definition von Intelligenz – nicht die einzig denkbare, wie er betont, aber eine Arbeitsgrundlage.

Außerdem schlägt der Google-Experte darauf aufbauend einen neuen Intelligenz-Maßstab für KI-Systeme vor: einen frei zugänglichen Abstraction and Reasoning Corpus (ARC), vergleichbar mit einem psychometrischen Intelligenztest für Menschen, den man mit schlichtem Üben nicht bestehen kann und der auch einprogrammiertes vorhandene Vorwissen berücksichtigt. Keine bekannte Maschinenlern-Technik würde derzeit mit dem ARC zurechtkommen, schreibt Chollet. Aber die Orientierung daran biete die Chance, das Feld der KI in eine Richtung zu bringen, die es näher an sein Ziel von echter Intelligenz führt.

(sma)