Lernen in virtuellen Welten

Damit ein System mit künstlicher Intelligenz gesprochene Anweisungen ausführen kann, muss es sie erst einmal verstehen. Zwei Forschergruppen schicken sie dazu in ein virtuelles Trainingscamp.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Edd Gent
Inhaltsverzeichnis

Dienste wie Alexa von Amazon oder Google Home haben sprachgesteuerte Technologien in den Mainstream gebracht, kommen bislang aber nur mit sehr einfachen Anweisungen zurecht. Maschinen so intelligent zu machen, dass sie ein normales Gespräch führen können, ist nach wie vor eine Herausforderung. Um sie zu meistern, wird es möglicherweise erforderlich sein, Maschinen mit der physischen Welt vertraut zu machen.

Um dieses Problem mit fest vorgegebenen Beziehungen zwischen Worten und Objekten und Aktionen zu lösen, sind unzählig viele Regeln erforderlich, und Maschinen könnten sich auf diese Weise nicht an neue Situationen anpassen. Auf der anderen Seite ist bei Versuchen, Maschinen Sprache selbst erlernen zu lassen, normalerweise erhebliche Unterstützung durch Menschen erforderlich.

Mehr Infos

Jetzt aber haben Teams bei DeepMind, der KI-Tochter von Alphabet, und an der Carnegie Mellon University (CMU) getrennt voneinander einen neuen Ansatz entwickelt: Maschinen sollen die einfachsten Grundsätze von Sprache in 3D-Umgebungen erlernen, die auf Computerspielen in der Erste-Person-Perspektive basieren.

"Das in 3D zu machen, ist definitiv ein großer Schritt in die Richtung, dass es auch in der echten Welt funktioniert", sagt Devendra Chaplot, ein Master-Student an der CMU, der beim Jahrestreffen der Association for Computational Linguistics einen Fachaufsatz zu dem Thema präsentieren soll. Das letztliche Ziel, so sagt er, sei die Schaffung einer Simulation, die der Realität so ähnlich ist, dass eine darin trainierte künstliche Intelligenz das im Virtuellen Gelernte auf die echte Welt übertragen kann.

Sowohl DeepMind als auch die CMU setzen auf tiefes Verstärkungslernen, wie es durch die Atari-spielende KI von DeepMind bekannt geworden ist. Dabei wird ein neuronales Netz mit rohen Pixel-Daten aus einer virtuellen Umgebung gefüttert und bekommt – ähnlich wie bei Punkten in einem Computerspiel – Belohnungen, damit es über Versuch und Irrtum lernt.

Normalerweise könnte das Ziel darin bestehen, eine hohe Punktzahl in einem Spiel zu erreichen. Bei den Forschungsprojekten bekamen die zwei KI-Programme jedoch Anweisungen wie "gehe zu dem grünen Pfeiler" und dann die Belohnung, wenn sie sich korrekt dorthin bewegten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Indem sie in erhöhtem Tempo Millionen von Trainingsszenarien durchliefen, lernten beide Programme, Worte mit bestimmten Objekten und Eigenschaften zu verbinden, sodass sie Anweisungen befolgen konnten. Sogar relative Ausdrücke wie "größer" oder "kleiner" zur Unterscheidung zwischen Objekten lernten sie zu verstehen.

Am wichtigsten dabei: Beide Programme konnten das, was sie gelernt hatten, für noch nicht erlebte Situationen "generalisieren". Wenn Trainingsszenarien Pfeiler und zugleich rote Objekte enthielten, konnten sie also die Anweisung "gehe zum roten Pfeiler" ausführen, ohne im Training je einen gesehen zu haben.

Dies macht sie laut Chaplot weitaus flexibler als bisherige regelbasierte Systeme. Das CMU-Team hat visuelle und verbale Eingaben so gemischt, dass sich seine KI auf die relevantesten Informationen konzentrierte. DeepMind wiederum gab seinem System zusätzliche Lernziele. Zum Beispiel sollte es schätzen, wie sich seine Ansicht bei Bewegungen verändern dürfte, was ebenfalls die Gesamtleistung steigerte. Beide Ansätze gehen das Problem aus unterschiedlichen Richtungen an. Sie zu kombinieren, könnte deshalb noch bessere Ergebnisse bringen, sagt Chaplot.

"Diese Beiträge sind nur vorläufig, aber der Fortschritt, den sie zeigen, ist ziemlich spannend", sagt Pedro Domingos, Professor an der University of Washington und Autor von "The Master Algorithm", einem Buch über Maschinenlern-Methoden.

Die beiden Arbeiten passen zu dem neueren KI-Trend, schwierige Probleme wie Sprache und Roboter-Steuerung gleichzeitig anzugehen. Überraschenderweise werden dadurch beide Aspekte einfacher, sagt Domingos. Der Grund: Sprache zu verstehen, wird leichter, wenn man Zugriff auf die physische Welt hat, auf die sie sich bezieht, und die lässt sich leichter verstehen, wenn man Hinweise dazu bekommt.

Allerdings brauchten die Systeme Millionen von Trainingsläufen. Aus diesem Grund ist Domingos noch nicht überzeugt, dass tiefes Verstärkungslernen allein ausreichen wird, um die reale Welt zu knacken. AlphaGo von DeepMind, das oft als die Messlatte für den Fortschritt bei künstlicher Intelligenz angesehen wird, zeige, wie wichtig es ist, mit unterschiedlichen Ansätzen zu arbeiten.

(sma)