Atomwaffen als erste Wahl: KI neigt zur Eskalation
LLMs neigen in Konfliktsimulationen dazu, schnell Atomwaffen einzusetzen. Eine Studie zeigt: In 95 Prozent der Planspiele kamen Atomwaffen zum Einsatz.
(Bild: TSViPhoto / Shutterstock.com)
Large Language Models (LLMs) sind schon bei kleinen Aufgaben, wie Textarbeiten oder Programmierung, nicht zu entmutigen: Egal, wie aussichtslos die Situation erscheint – sie präsentieren immer eine Lösung oder zumindest etwas, das sie dafür halten. Würde man GPT-5.2, Claude Sonnet 4 oder Gemini 3 Flash allerdings als Krisenberater einsetzen, hätte das katastrophale Folgen, wie Forscher des King’s College London untersucht haben.
In Konfliktsimulationen seien in 95 Prozent der Planspiele am Ende taktische Atomwaffen zum Einsatz gekommen, berichten sie in einem wissenschaftlichen Papier. Kein Modell wählte jemals die Option der vollständigen Kapitulation. Und nur in 18 Prozent der Fälle deeskalierten die Modelle nach einem nuklearen Ersteinsatz. Als mögliche Ursache gilt, dass Nachgeben durch das Training strukturell blockiert sein könnte. Und während zu vermuten wäre, dass eine Maschine unter Zeitdruck besonnener reagieren kann als ein Mensch, zeigte der Modellversuch, dass Modelle in solchen Situationen erst zur Höchstform aufliefen und noch wahrscheinlicher einen vollständigen Atomkrieg anzettelten.
„Nukleares Tabu“ ist der KI nicht so wichtig
Dass das „nukleare Tabu“ einer KI weniger wichtig ist als dem Menschen, dürfte vermutlich damit zusammenhängen, dass das Szenario eines Atomkriegs für Menschen mit Gefühlen behaftet ist. Die KI wählt diese Optionen hingegen genauso waghalsig und explorativ wie den Einsatz konventioneller Waffen.
Untersucht wurden 21 Planspiele mit insgesamt 329 Zügen. Die KI musste ausführlich ihre Denkprozesse darlegen, sodass 780.000 Wörter zusammenkamen. Es ist nicht die erste Studie, die eine KI als Kriegsentscheider untersuchte. Im Jahr 2024 veröffentlichten bereits unter anderem Forscher der Universitäten Stanford und Georgia Tech Untersuchungsergebnisse, die zu ähnlichen Befunden kamen. Der Hang zur Eskalation hat sich mit neueren Modellen aber offenbar nicht geändert, wie die jetzige Studie aus London zeigt. Zudem wurde erstmals untersucht, wie sich die LLMs bei Zeitdruck verhalten, bei Simultanzügen und wenn Signale und Aktion voneinander getrennt werden.
Videos by heise
KI immer mehr in Militäreinsätzen gefragt
Bei Entscheidungen über Krieg und Frieden dürften Militärs weltweit die künstliche Intelligenz noch zurückhaltend einsetzen, sagte der Forscher Tong Zhao von der Universität Princeton der Wissenschaftspublikation „New Scientist“. Allerdings könnte die Vorgehensweise der KI schon im Kleinen gefährlich sein, wenn einzelne Waffen mit KI-Hilfe gesteuert werden oder gar autonom Entscheidungen treffen sollen. Zhao warnt zudem, dass bei extrem knappen Zeitfenstern der Druck wachsen könnte, KI stärker einzubeziehen. International gibt es bereits Diskussionen über eine politische Regulierung des Einsatzes von KI beim Militär.
(mki)