Technology Review Special 2017
S. 8
Top des Jahres

Ohne Beispiel

Der nächste Schritt bei künstlicher Intelligenz: Software lernt, indem sie gegen sich selbst spielt.

Dass neuronale Netze in der Lage sind, erstaunlich viele Dinge zu lernen, daran haben wir uns schon beinahe gewöhnt. Und so erregte die Nachricht, dass US-Forscher der KI Libratus beigebracht hatten, professionelle Pokerspieler zu schlagen, vergleichsweise wenig Aufsehen. Das Gleiche galt für die Meldung, dass die Google-Tochter DeepMind eine noch stärkere Go-Software geschrieben hat. AlphaGo Zero, so ihr Name, ist in der Lage, ihren Vorgänger AlphaGo zu schlagen, der 2015 die stärksten menschlichen Spieler vom Brett gefegt hatte.

Bemerkenswert sind diese Erfolge dennoch. Denn beide Systeme haben ihre Fähigkeiten nicht, wie sonst üblich, anhand von Hunderttausenden oder Millionen von Beispielen erlernt, sondern allein dadurch, dass sie immer und immer wieder gegen sich selbst antraten.