WTF

"Falsch ausgedrückt": US-Drohne "tötete" virtuell keinen Operator für Punkte

Die Quelle für die Behauptung, in einer Simulation der US Air Force sei der Operator von einer KI für Punkte eliminiert worden, hat sich "falsch ausgedrückt".

In Pocket speichern vorlesen Druckansicht 399 Kommentare lesen
Eine unbemannte Drohne in der Luft

Die US-Luftwaffe forscht bereits an KI-Drohnen

(Bild: US Air Force)

Update
Lesezeit: 3 Min.

Die US Air Fore hat eine Schilderung zurückgewiesen, der zufolge bei einem simulierten Test einer KI-gesteuerten Drohne die Software zu dem Schluss gekommen war, dass das effektivste Mittel zur Erreichung des vorgegebenen Ziels die Eliminierung des eigenen Operators gewesen ist. Dieses unerwartete Vorgehen hatte Tucker Hamilton von der US Air Force vor wenigen Tagen auf einer Konferenz der Royal Aeronautical Society zur Zukunft öffentlich gemacht, inzwischen aber eingeräumt, dass er sich "falsch ausgedrückt" hat. Beschrieben hatte er demnach eine Simulation, in der eine KI-Drohne Luftabwehrstellungen identifizieren und ausschalten sollte. Für jede gab es demnach Punkte, schießen durfte sie aber erst nach einer Bestätigung durch den Operator. Weil der aber auch Abschüsse – und damit Punkte – verhinderte, habe sie einfach ihn abgeschossen.

"Das System hat zu realisieren begonnen, dass der Operator gelegentlich den Abschuss identifizierter Bedrohungen verhinderte und ihm damit Punkte versagte", erklärte Hamilton mit den typischen Begrifflichkeiten, die KI-Entscheidungen vermenschlichen. "Was hat es getan? Es hat den Operator getötet", erklärte er weiter. Denn diese Person habe es verhindert, dass sie die Vorgabe der Punktmaximierung erreicht. Als Reaktion habe man der KI beigebracht, dass es schlecht sei, den Operator zu eliminieren und dass das Punktabzüge bringt. Daraufhin habe sie den Funkturm zerstört, über den die Kommunikation mit dem Operator gelaufen ist, um ungestört Luftabwehrstellungen abschießen zu können.

Hamilton schließt aus der Begebenheit, dass man nicht über Künstliche Intelligenz, Intelligenz, maschinelles Lernen und Autonomie diskutieren könne, ohne dass man auch über Ethik spreche. Die Royal Aeronautical Society, die sich mit vielen Aspekten der Luft- und Raumfahrt beschäftigt, sprach von einem Szenario, welches aus einem Science-Fiction-Thriller zu kommen scheint. Gleichzeitig blieben nach der Schilderung aber bereits ein paar Fragen offen. So hat Hamilton ja eigentlich behauptet, dass das von der KI gesteuerte Kampfflugzeug in der Simulation nur Raketen abschießen durfte, wenn der Operator dem zustimmt. Das sollte eigentlich so implementiert sein, dass die KI das nicht umgehen kann, denn seiner eigenen Eliminierung hat der sicher nicht zugestimmt.

Künstliche Intelligenz und ChatGPT waren ein bestimmendes Thema der Konferenz zur Zukunft der Kriegsführung in der Luft und im Weltraum, die vergangene Woche in London durchgeführt wurde. Dass die Abgabe von immer mehr Verantwortung an KI keine Zukunftsmusik ist, hat erst vor wenigen Monaten der US-Luftfahrtkonzern Lockheed Martin deutlich gemacht. Der hatte publik gemacht, dass eine KI mehr als 17 Stunden lang die Flugkontrolle über ein US-Experimentalflugzeug hatte; weitere Flüge sollen folgen. Airbus testet derweil ein System, das in Notfällen autonom ohne menschlichen Piloten einen nahen Flughafen ansteuern und landen können soll. Die US Air Force wiederum arbeitet schon seit Jahren an einer autonomen KI-Drohne.

Update

Gegenüber Business Insider hat eine Sprecherin den Bericht inzwischen zurückgewiesen und versichert, dass die US Air Force keine derartigen Drohnensimulationen durchgeführt hat. Es habe den Anschein, als seien die Aussagen des Colonels aus dem Kontext gerissen und anekdotisch gemeint gewesen, sagte sie demnach, ohne das aber weiter zu erläutern.

Update

Nach einer großen Zahl von Medienberichten hat die Royal Aeronautical Society inzwischen eine Klarstellung veröffentlicht und zitiert Hamilton mit dem Eingeständnis, sich "falsch ausgedrückt" zu haben. Bei der "Simulation einer außer Kontrolle geratenen KI-Drohne" habe es sich lediglich um ein "hypothetisches Gedankenexperiment" gehandelt, das von außerhalb der Basis stammte. Das habe aber auf "plausiblen Szenarien" und "wahrscheinlichen Resultaten" beruht: "Wir haben das Experiment nicht durchgeführt und müssten es auch nicht, um zum Schluss zu kommen, dass es plausibel ist", meint Hamilton demnach. Die US-Luftwaffe habe solch eine bewaffnete KI weder in der Realität noch in einer Simulation getestet. Trotzdem habe er darauf bestanden, dass das hypothetische Beispiele reale Gefahren aufzeige. Der Anfang der Meldung wurde entsprechend korrigiert, der Rest weitgehend beibehalten.

(mho)