Künstlich intelligent durch Computerspiele

Die realistischen 3D-Grafiken von modernen Videospielen lassen sich auch zum Lernen nutzen: Anhand von virtuellen Objekten und Szenen können Algorithmen für Aufgaben in der echten Welt trainiert werden.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Will Knight

Die realistischen 3D-Grafiken von modernen Videospielen lassen sich auch zum Lernen nutzen: Anhand von virtuellen Objekten und Szenen können Algorithmen für Aufgaben in der echten Welt trainiert werden.

Moderne Computerspiele können unglaublich realistisch sein. Überraschenderweise haben diese lebensnahen virtuellen Welten außerdem einen Lerneffekt – jedenfalls bei neuen Algorithmen für Künstliche Intelligenz (KI).

Mit dieser Idee beschäftigt sich Adrien Gaiden, ein Informatiker am Xerox Research Center Europe im französischen Grenoble. Er habe zugesehen, wie jemand das Videospiel Assassins Creed gepielt habe, berichtet er. Dabei sei ihm eingefallen, dass die fotorealistischen Landschaften in dem Spiel nützlich dafür sein könnten, KI-Algorithmen etwas über die reale Welt lernen zu lassen. Seitdem entwickelt Gaidens Gruppe hoch realistische 3D-Umgebungen, um Algorithmen beizubringen, wie sie bestimmte reale Objekte oder Szenarien erkennen können.

Um zu lernen, wie sie eine bestimmte Aufgabe erledigen sollen, benötigen hochmoderne KI-Algorithmen riesige Mengen an Daten. Manchmal ist das kein Problem. So verfügt Facebook über Millionen bereits gekennzeichneter Bilder, mit denen Algorithmen trainieren können, Freunde der Nutzer auch beim Upload von neuen Fotos zu markieren. Ähnlich sammelt Google mit seinen autonomen Autos enorme Datenmengen, die dann dafür genutzt werden, die Algorithmen zur Steuerung dieser Fahrzeuge zu verbessern.

Die meisten Unternehmen aber haben nicht so leichten Zugriff auf derartige Datensammlungen und können sie auch nicht einfach selbst erstellen.

Um diese Lücken zu schließen, nutzten Gaiden und Kollegen die beliebte Spiele-Entwicklungsumgebung Unity und entwarfen damit virtuelle Szenen, mit denen Deep-Learning-Algorithmen lernen sollen, Objekte und Situationen auf echten Bildern zu erkennen. Unity wird gern zur Produktion von 3D-Videospielen eingesetzt, und Entwickler können darin auf viele vorgefertigte Elemente zurückgreifen.

Durch das Erstellen einer virtuellen Szenerie, die aus vielen unterschiedlichen Blickwinkeln und mit vielen unterschiedlichen Lichtverhältnissen präsentiert werden kann, kann man einem Algorithmus beibringen, wie er dieselben Objekte auf realen Fotos oder Videoaufzeichnungen erkennt. „Das Schöne an virtuellen Welten ist, dass man jedes beliebige Szenario erzeugen kann“, sagt Gaiden.

Außerdem hat sich seine Gruppe eine Möglichkeit ausgedacht, um aus realen Szenen virtuelle zu machen: Sie werden mit einem Laserscanner abgetastet und dann als 3D-Informationen in die virtuelle Welt importiert. Überprüft haben die Forscher die Genauigkeit ihres Ansatzes, indem sie in virtuellen Umgebungen trainierte Algorithmen gegen andere antreten ließen, die mit von Menschen ausgezeichneten realen Bildern geschult wurden. „Die Vorteile von Simulationen sind weithin bekannt“, sagt Gaiden. „Aber wir haben uns gefragt, ob man KI mit virtueller Realität auch in die Irre führen kann.“

Vor allem für zwei Anwendungen wollen die Xerox-Forscher ihre Technik bald einsetzen. Als Erstes wollen sie damit leere Parkplätze auf Straßen finden, die von Kameras an Bussen gefilmt werden. Normalerweise müssten sie dazu erst reichlich Videomaterial sammeln und jemand müsste darin manuell kennzeichnen, wo sich Parklücken befinden. Mit der virtuellen Umgebung dagegen lassen sich massenhaft Trainingsdaten automatisch generieren. Zweitens wollen die Forscher herausfinden, ob virtuelle Krankenhäuser und Patienten KIs beim Erkennen medizinischer Probleme helfen können.

Das Problem, genügend Daten für das künstliche Lernen heranzuschaffen, ist unter Informatikern gut bekannt und bringt viele Forscher dazu, mit neuen Ansätzen zu experimentieren. „Ich halte die Idee für sehr gut“, sagt Josh Tenenbaum, Professor für Kognitionswissenschaft und Informatik am MIT, über das Xerox-Projekt. Auch seine eigene Gruppe und andere würden schon an Varianten davon arbeiten.

(sma)