Wie Googles KI Schach veränderte

Googles KI-Tochter DeepMind veröffentlicht Details über ihr Projekt AlphaZero, das die besten Go-, Shogi- und Schachprogramme schlug.

In Pocket speichern vorlesen Druckansicht 84 Kommentare lesen
Wie Googles KI Schach veränderte

(Bild: whiteMocca/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Herbert Braun
Inhaltsverzeichnis

Vor genau einem Jahr verblüffte Googles (beziehungsweise Alphabets) KI-Firma DeepMind mit der Nachricht, dass die Künstliche Intelligenz AlphaZero die stärkste Schach-Engine der Welt deutlich geschlagen hat – ohne jedes externe Wissen über die Strategie und nach gerade einmal vier Stunden Lernen. Dabei war AlphaZero ursprünglich für Go entworfen worden und hatte darin ebenso wie im Schach-ähnlichen Shogi sowohl Mensch als auch Maschine bezwungen. Ziel des Projekts ist es, eine KI zu entwickeln, die jedes Spiel meistert.

In das Staunen mischte sich damals auch ein wenig Skepsis: So hatte DeepMind nur wenige Partien publiziert; auch die Hardware-Leistung und die Bedenkzeitregelung soll zu Lasten des Gegners Stockfish gewesen sein. Jetzt veröffentlicht DeepMind die Ergebnisse ihrer Arbeit in "Science" und rückt mit etwas mehr Details heraus.

AlphaZero kombiniert eine Monte-Carlo-Baumsuche mit einem neuronalen Netzwerk, während ihr Gegner Stockfish 8 ihre Spielstärke auf Alpha-Beta-Suche und Fachwissen stützt. Dieser Ansatz war bisher beim Schach der bei weitem erfolgreichste. Auf handelsüblicher Hardware erreicht das Programm eine inoffizielle Rating-Zahl von 3430 – fast 600 Punkte mehr als Weltmeister Carlsen und nur übertroffen vom inzwischen erschienenen Nachfolger Stockfish 9.

Stockfish lief auf einem Rechner mit 44 Broadwell-Kernen, AlphaZero auf Spezial-Hardware auf Grundlage von TPUs. Letzeres sind von Google entwickelte Prozessoren für Tensor-Berechnungen. Die Hardware-Fähigkeiten lassen sich schwer miteinander vergleichen – auch, weil DeepMind sich hier mit Informationen zurückhält. Ungleich ist jedenfalls die Zahl der berechneten Stellungen: Während Stockfish 60 Millionen Stellungen pro Sekunde analysiert, schafft AlphaZero gerade mal ein Tausendstel davon.

Die beiden Computer duellierten sich Anfang dieses Jahres in tausend Partien ohne Eröffnungsbuch und mit langer Bedenkzeit (drei Stunden pro Partie plus Inkrement). Zusätzliche Matches über mehrere tausend Partien basierten auf vorgegebenen Eröffnungsstellungen, die aus der Eröffnungstheorie oder aus dem Computerschach stammten. Schließlich experimentierte man mit verringerter Bedenkzeit für AlphaZero, mit der damals noch experimentellen Version 9 von Stockfish und mit angeschaltetem Eröffnungsbuch.

Im Haupt-Match fällt das Ergebnis etwas weniger fulminant aus als das zuvor veröffentlichte (57,5% statt 64%), aber 155 Siege und 839 Remis bei nur 6 Niederlagen sprechen eine eindeutige Sprache. Selbst mit einem Zehntel der Bedenkzeit seines Gegners dominierte AlphaZero Stockfish, erst bei weiterer Reduktion kehrte sich das Verhältnis um. Während sich die Ergebnisse der beiden Stockfish-Versionen nicht groß unterschieden, unterlag Stockfish mit Eröffnungsbuch knapper als ohne.

Merkwürdigerweise wollte DeepMind auch diesmal nicht alle Partien publizieren, aber 210 davon können Interessierte nachspielen. Einige davon sind sehr beeindruckend und demonstrieren das überlegene Spielverständnis der KI. Während Computer-Partien oft sehr zäh und rätselhaft wirken, machen die AlphaZero-Partien einen sehr menschlichen Eindruck. Die KI scheut auch vor langfristigen spekulativen Opfern nicht zurück und vermag unscheinbare Stellungen auszubauen, die Stockfish noch im Gleichgewicht wähnt.

Dass die Erfolgsmeldungen von AlphaZero nicht aus der Luft gegriffen sind, beweist das Projekt LCZero: Dieses Open-Source-Projekt basiert auf den Forschungsergebnissen von DeepMind und erreichte kürzlich bei einem Computer-Turnier den dritten Platz.

(bme)