KI: Warum Menschen schneller sind

Computer zeigen bei immer mehr Aufgaben bessere Leistungen als Menschen, doch sie brauchen viel länger, um sie zu erlernen. Wie eine wissenschaftliche Studie zeigt, liegt das an fehlendem Vorwissen der Maschinen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 7 Min.
Von
  • TR Online
Inhaltsverzeichnis

Im Jahr 2013 veröffentlichte das damals noch kaum bekannte Unternehmen DeepMind Technologies einen bahnbrechenden Fachaufsatz, der zeigte, dass ein neuronales Netz auf dieselbe Weise lernen konnte, alte Videospiele zu spielen wie Menschen – durch Beobachten des Bildschirms. Bald waren diese Netze in der Lage, die besten menschlichen Spieler problemlos zu schlagen.

Mehr Infos

Ein paar Monate später wurde DeepMind für 400 Millionen Dollar von Google übernommen. Seitdem hat das Unternehmen das Prinzip Deep Learning in unterschiedlichen Feldern zur Anwendung gebracht. Am meisten Aufmerksamkeit erregte, dass ein Computer Menschen dadurch sogar bei dem alten Brettspiel Go besiegen konnte.

Das ist beeindruckend, zeigt aber zugleich eine bedeutende Einschränkung von Deep Learning. Im Vergleich zu Menschen brauchen Maschinen mit dieser Technologie enorm viel Zeit für ihren Lernprozess. Was also beim menschlichen Lernen sorgt dafür, dass wir es mit relativ wenig Erfahrung so gut können?

An einer Antwort auf diese Frage haben sich Rachit Dubey und Kollegen an der University of California in Berkeley versucht. Die Forscher untersuchten, wie Menschen mit Videospielen interagieren, um herauszufinden, welches Vorwissen wir nutzen, um sie zu verstehen.

Wie sich zeigte, nutzen Menschen einen großen Bestand an Hintergrundwissen, wenn sie sich mit einem neuen Spiel beschäftigen, und das macht das Spielen deutlich einfacher. Wenn sie allerdings auf Spiele treffen, bei denen dieses Wissen nichts nützt, tun sie sich schwerer, während Maschinen ungerührt weitermachen.

Das von den Forschern eingesetzte Computerspiel oben basiert auf einem Klassiker namens Montezuma's Revenge, der im Jahr 1984 für 8-Bit-Computer von Atari veröffentlicht wurde. Es gibt weder ein Handbuch noch eine Anleitung dafür, und man weiß nicht einmal, welchen „Kobold“ man steuert. Feedback bekommt nur, wer das Spiel mit Erfolg zu Ende bringt.

Würden Sie das schaffen? Auf dieser Website können Sie es (und die anderen im Aufsatz erwähnten Spiele) ausprobieren.

Aller Wahrscheinlichkeit nach werden Sie dafür ungefähr eine Minute brauchen und dabei ungefähr 3000 Tastatur-Befehle geben. Das haben Dubey und Kollegen herausgefunden, indem sie das Spiel 40 Helfern auf der Plattform Amazon Mechanical Turk vorsetzten; ihnen wurde 1 Dollar bezahlt, wenn sie das Spiel durchspielen.

„Das ist nicht sehr überraschend, weil man leicht erraten kann, dass das Ziel des Spiels darin besteht, den Roboter-Kobold in Richtung der Prinzessin zu bewegen, indem man auf Ziegelstein-ähnliche Objekte und Leitern steigt, um die höheren Plattformen zu erreichen, und gleichzeitig den wütenden rosa und Feuer-Objekten entgeht“, schreiben die Forscher.

Für Maschinen dagegen ist das Spiel schwierig. Viele Standard-Algorithmen für Deep Learning bekamen es gar nicht in den Griff. Denn es gibt für einen Algorithmus keine Möglichkeit, den Fortschritt im Spiel zu bewerten, wenn es erst nach dem erfolgreichen Abschluss ein Feedback gibt.

Am besten unter den Maschinen schlug sich ein auf Neugier basierender Algorithmus für Verstärkungslernen; er brauchte ungefähr 4 Millionen Tastatur-Befehle, um das Spiel zu Ende zu bringen. Das entspricht ungefähr 37 Stunden durchgängigem Spielen.

Warum also sind Menschen hier so viel besser? Wie sich zeigte, gehen wir dieses Spiel nicht völlig ahnungslos an. Ein Mensch wird erkennen, dass er den Roboter steuern kann und dass der Roboter sich von Feuer fernhalten, auf Leitern steigen, über Lücken springen und einem finsteren Feind entgehen muss, um zur Prinzessin zu kommen. All das beruht auf Vorwissen darüber, dass bestimmte Objekte gut sind und andere (wie Flammen) schlecht, dass man auf Plattformen stehen und auf Leitern steigern kann, dass Dinge, die gleich aussehen, sich auch gleich verhalten, dass die Schwerkraft Objekte nach unten zieht und sogar, was „Objekte“ eigentlich sind: Dinge, die von anderen Dingen getrennt sind und andere Eigenschaften haben.

Eine Maschine dagegen weiß nichts von all dem.

Also haben Dubey und ihre Kollegen das Spiel überarbeitet, um dieses Vorwissen irrelevant zu machen, und dann erneut gemessen, wie lange die Testspieler dafür brauchen. Dabei ging das Team davon aus, dass ein höherer Zeitaufwand erkennen lässt, wie wichtig die jeweiligen Informationen waren.

„Wir haben unterschiedliche Versionen des Spiels entwickelt, bei denen wir verschiedene Objekte wie Leitern, Feinde, Schlüssel, Plattformen etc. mit anderen Oberflächen darstellten“, erklären die Forscher. Die Oberflächen wurden so gewählt, dass sie verschiedene Arten von Vorwissen entwerteten. Außerdem veränderten die Forscher die physischen Gesetze für das Spiel, etwa die Wirkung der Schwerkraft und Interaktionen der Figuren mit ihrem Umfeld. Die grundsätzlichen Regeln des Spiels waren aber bei allen Versionen unverändert.

Die Ergebnisse sind überaus interessant. „Wir stellen fest, dass die Entfernung von bestimmtem Vorwissen zu einer drastischen Verlangsamung des Tempos führt, in dem menschliche Spieler das Spiel zu Ende bringen“, schreiben die Forscher. Tatsächlich brauchten die Spieler statt einer Minute mehr als 20 Minuten, wenn verschiedene Arten von Vorinformationen fehlten.

Für das Tempo, in dem Maschinen-Algorithmen lernen, machte das Weglassen dieser Informationen dagegen meist keinen Unterschied.

Nach seinen Experimenten konnte das Team sogar angeben, wie wichtig bestimmte Arten von Informationen sind. So brauchen menschliche Spieler schon länger, wenn die Objekt-Semantik weggelassen wird, also beispielsweise das böse schauende Gesicht oder das Feuer-Symbol. Und wenn das Konzept von „Objekten“ nicht mehr klar ist, wird das Spiel sogar so schwierig, dass sich die Test-Spieler weigerten, sich daran zu versuchen: „Wir mussten die Bezahlung auf 2,25 Dollar erhöhen, um die Teilnehmer dazu zu bringen, weiterzumachen.“

Bei dieser Abfolge gibt es eine interessante Verbindung zu der Art und Weise, wie Menschen lernen. Psychologen haben herausgefunden, dass Babys ab dem Alter von zwei Monaten eine primitive Vorstellung von Objekten haben und erwarten, dass sie sich als verbundene Gesamtheiten bewegen. Allerdings erkennen sie in diesem Alter noch keine Objekt-Kategorien.

Im Alter von drei bis fünf Monaten dann lernen Säuglinge, Objekt-Kategorien zu erkennen, mit 18 bis 24 Monaten auch einzelne Objekte. Ungefähr zu dieser Zeit lernen sie zudem die Eigenschaften von Objekten und damit auch den Unterschied zwischen einem problemlosen Schritt auf ebener Oberfläche und einem Schritt über eine Klippe, den man lieber unterlassen sollte. Die von Dubey und Kollegen aufgestellte Rangfolge für die Bedeutung der einzelnen Arten von Informationen entspricht interessanterweise genau der Reihenfolge, in der Babys sie erlernen.

Damit tut sich eine interessante Möglichkeit für Informatiker auf, die an Maschinen-Intelligenz arbeiten: Sie könnten Computer mit demselben Grundwissen programmieren, das Menschen in jungem Alter aufnehmen. Auf diese Weise müssten Maschinen beim Lerntempo zu den Menschen aufschließen und vielleicht sogar besser werden können.

()