DeepMind: Nach Go lernt Googles KI Starcraft II

Google-Tochter DeepMind und Blizzard wollen eine Künstliche-Intelligenz-API für Starcraft II veröffentlichen. Google erhofft sich, mit der dort gewonnenen Erfahrung Probleme in der echten Welt zu lösen, Blizzard will damit das Spiel verbessern.

In Pocket speichern vorlesen Druckansicht 175 Kommentare lesen
DeepMind: Nach Go ist Starcraft II dran
Lesezeit: 5 Min.
Von
  • Achim Barczok
Inhaltsverzeichnis

Das zu Google gehörende Start-up DeepMind hat angekündigt, eine gemeinsam mit Spiele-Hersteller Blizzard entwickelte KI-API für Starcraft II auch anderen Forschern und Entwicklern zugänglich zu machen. Auf der in den USA stattfindenden Blizzard-Hausmesse Blizzcon führte DeepMind-Mitarbeiter Oriol Vinyals in einem Panel die Starcraft II API genannte Plattform vor.

Die Schnittstelle stellt KI-Forschern ein Interface bereit, um einerseits mit künstlichen neuronalen Netzen mit Zusatzinformationen angereicherte Starcraft-II-Kartenausschnitte auszuwerten und Steuerbefehle auszuführen. Andererseits bietet sie Zugriff auf eine Datenbank mit von Menschen gespielten Partien ("Replays"), anhand denen die KI vom Spielverhalten lernen kann. Veröffentlichen will Blizzard die Schnittstelle im ersten Quartal 2017.

Vinyals warnte aber vor überzogenen Erwartungen. Man stehe noch ganz am Anfang und es sei noch ein langer Weg, bis man vielleicht irgendwann einmal eine KI gegen einen Starcraft-II-Champion antreten lassen könne.

Ziel bei DeepMind sei es, künstliche Intelligenz zu schaffen, die nicht bloß einzelne Problemstellungen, sondern möglichst unterschiedliche Aufgaben löst. Computerspiele seien dabei die perfekte Plattform, um KI-Algorithmen zu entwickeln und testen, so Vinyals.

Dafür bekommt ein "Software-Agent" Zugriff auf die Steuerung und wird mit der rohen Bildausgabe des Computerspiels gefüttert. So kann er auswerten, welche Eingabe in welcher Situation zu einem positiven oder negativen Spielergebnis führt. Die Software skriptet also nicht wie bei üblichen computergesteuerten Gegnern einfach nur die Game-Engine, sondern entwickelt ganz eigene Strategien.

Starcraft II API (12 Bilder)

DeepMind: "Spiele sind die perfekte Plattform, um KI-Algorithmen zu entwickeln und testen."

Zu Beginn habe DeepMind beispielsweise seine Software-Agents trainiert, Atari-2600-Spiele aus den 80ern wie Pong oder Battlezone zu spielen. Später habe man sich an komplexeren Inhalten wie der Rennspielsimulation Torcs und an einem Labyrinth-Spiel versucht.

Aufmerksamkeit erlangte DeepMind aber mit einem Brettspiel. Im März 2016 konnte die Google-KI AlphaGo den Profispieler Lee Sedol in Go besiegen, das aufgrund verschiedener Faktoren – unter anderem durch den großen Suchbaum bei den Zugmöglichkeiten – für einen Computer sehr schwer zu spielen ist.

Als nächster Schritt sei Starcraft II eine interessante Testumgebung für die KI-Forschung, so Vinyals, und eine große Herausforderung für Künstliche Intelligenz. Viele Faktoren erschweren die Programmierung einer Starcraft-KI. So sieht man beispielsweise nicht die gesamte Karte, sondern muss sie erst erforschen ("Fog of War"). Strategien sind ziemlich kompliziert und müssen langfristig geplant sein: Schon um nur eine bestimmte Einheit zu bauen, muss man erst Rohstoffe sammeln und verschiedene Gebäude bauen. Dazu kommen drei unterschiedliche Rassen, die jeweils eigene Stärken und Schwächen haben.

Diese Umgebung stellt Künstliche Intelligenz vor bisher nicht gelöste Probleme in der Forschung: für ein gutes Spiel muss man sich an den bisherigen Spielverlauf erinnern und es erfordert komplexe, langfristige Planung.

DeepMind erhoffe sich, mit Hilfe von Starcraft II Algorithmen zu entwickeln, die auch in der realen Welt helfen können. So habe man laut Vinyals beispielsweise aus der bisherigen KI-Erfahrung Googles Server-Kühlsysteme optimieren können.

Kevin Calderone, Entwickler aus dem Starcraft-II-Team von Blizzard, machte klar, dass es sich hierbei um "Cutting-Edge-Research" handle und keiner wisse, was dabei am Ende herauskomme. Man hoffe aber, mit der API auch Starcraft II selbst verbessern zu können. Ergebnisse aus der Kooperation mit Google und anderen KI-Forschern könnten dann beispielsweise zu interessanteren Gegnern oder Trainings-KIs für Spieler führen. Auch beim Balancing der verschiedenen Starcraft-Rassen könnte KI helfen, wenn man etwa tausende KIs gegeneinander antreten ließe und danach überprüfe, ob eine Rasse besonders häufig gegen die anderen gewinnt.

Bei den aktuellen Computergegnern in Starcraft 2 handle es sich um geskriptete KI-Agenten mit Strategien, die von Entwicklern vorgegeben wurden: Die Gegner seien deshalb nur so schlau wie die Entwickler dahinter. Mit den Deep-Learning-Ansätzen von DeepMind verhalte es sich komplett anders: Die KI muss sich auf Basis des rohen Bildmaterials selbst das Spiel und seine Regeln beibringen und eigene Strategien entwickeln.

Über die Anfang 2017 bereitgestellte Schnittstelle erhalten Programmierer ein Interface, über das sie mit neuronalen Netzen ans Spiel "andocken" können. Sie erhalten Zugriff auf die Spielsteuerung, die Auswertung des Spiels und auf zusätzliche optische Ebenen (zum Beispiel: welchen Bereich sehe ich?, welcher Pixel gehört zu welchem Team?, wie gesund sind die Einheiten?). Das folgende von DeepMind veröffentlichte Video soll visualisieren, welche Informationen solche zusätzlichen Ebenen enthalten können.

Über die Schnittstelle kann die KI außerdem auf eine Datenbank gespielter Starcraft-Partien zugreifen, mit der Entwickler ihre Agenten trainieren können.

Um nicht nur KI-Forscher, sondern auch die Starcraft-II-Community an dem Projekt teilhaben zu lassen, wird es zusätzlich zu der API für bildbasiertes Deep Learning auch eine Schnittstelle geben, mit der Spieler skriptgesteuerte Gegner entwickeln können – wie das auch schon im früheren Starcraft-Titel Broodwar der Fall war. (acb)