Maschinenlernen: Google unterstützt das Pentagon mit KI-Technik für Drohnen

Das US-Verteidigungsministerium erhält von Google spezielle Schnittstellen für die KI-Plattform TensorFlow, um das Pentagon-Projekt Maven voranzubringen. Dieses ist unter anderem auf die Analyse von Bildern von Drohnen ausgerichtet.

In Pocket speichern vorlesen Druckansicht 37 Kommentare lesen
Maschinenlernen: Google unterstützt das Pentagon mit KI-Technik für Drohnen
Lesezeit: 4 Min.
Inhaltsverzeichnis

Google ist ein Partner des Pentagon-Projekts Maven, mit dem das US-Verteidigungsministerium eine führende Position bei der "algorithmischen Kriegsführung" einnehmen will. Im Rahmen der Initiative für den Einsatz von Künstlicher Intelligenz (KI) auf dem Schlachtfeld habe der US-Konzern dem Ressort spezielle Schnittstellen für die Maschinenlernsoftware TensorFlow zur Verfügung gestellt, erklärte eine Sprecherin des Suchmaschinenriesen gegenüber US-Medien. Das KI-Programm an sich ist Open Source und sollte es ursprünglich bei Google einfacher machen, neue Ideen von Mitarbeitern in konkreten Code umzusetzen.

Die heikle Kooperation, über die Gizmodo zuerst berichtete, läuft laut The Intercept über die auf den Technologiesektor spezialisierte, im Bundesstaat Virginia unweit von Washington angesiedelte Jobvermittlungsfirma ESC Federal. Dieser Schritt sei gewählt worden, um die Zusammenarbeit vor der Öffentlichkeit zu verschleiern. Letztlich gehe es bei dem Pilotprojekt darum, KI-Lösungen für die Identifizierung von Zielen im US-Drohnenkrieg zu entwickeln.

Maven gilt als eines der wichtigsten KI-Projekte des Pentagons. Es war ursprünglich darauf ausgerichtet, Autos, Gebäude, Menschen und andere Objekte in den Videoströmen aus Drohnen auszumachen, Bewegungen zu verfolgen und die Analysten so zu entlasten. Mittlerweile sind die Ziele weiter gefasst. Das Verteidigungsressort kündigte die Initiative voriges Jahr im April offiziell an, nur sechs Monate später soll Maven bereits für Aufklärungszwecke und Drohnenschläge gegen die Islamistengruppe ISIS an mehreren, nicht näher spezifizierten Orten im Mittleren Osten eingesetzt worden sein.

Laut Gizmodo machten Informationen über die Kooperation vergangene Woche auf einer internen Mailingliste bei Google die Runde, was zu umfangreichen Debatten über den Kurs des Unternehmens geführt habe. Einige Mitarbeiter sollen empört darauf reagiert haben, dass die "Don't be evil"-Firma dem US-Militär Ressourcen für Überwachungstechnologien an die Hand gebe, die bei Drohnenangriffen genutzt werden könnten. Andere verwiesen auf allgemeine wichtige ethische Fragen rund um die Entwicklung von Maschinenlernen.

Der frühere Vorstandsvorsitzende der Google-Mutter Alphabet, Eric Schmidt, hatte im Herbst die Bedenken der IT-Industrie gegenüber einer Zusammenarbeit mit dem Pentagon mit folgenden Worten zusammengefasst: "Es gibt eine allgemeine Besorgnis in der Tech-Community, dass der militärisch-industrielle Komplex ihre Sachen einsetzt, um Menschen inkorrekt zu töten." Schmidt, der Google nach wie vor berät, leitet mit dem "Defense Innovation Board" (DIB) des US-Verteidigungsministeriums ein Gremium, das das US-Militär auf Innovationskurs bringen soll.

Laut dem Beirat ist eine technologische Überlegenheit mit KI heute genauso wichtig wie es die mit "Atomwaffen in den 1940ern und später mit präzisionsgeleiteten Waffen und Stealth-Technologie" gewesen sei. Der DIB empfahl daher schon vor einiger Zeit ein "Austauschprogramm und die Kooperation mit der Industrie und akademischen Experten in diesem Bereich". Neben Schmidt sitzt auch der Google-Manager Milo Medin in dem Beirat; dieser warnte das Pentagon jüngst, dass jedes Flugzeug oder jeder Zerstörer, dessen Daten nicht gesammelt und analysiert würden, einer verlorenen Möglichkeit im Bereich Maschinenlernen und Truppentraining gleichkomme.

Die Google-Sprecherin unterstrich, dass die übermittelte TensorFlow-Technik nicht für "Angriffszwecke" verwendet werde. Sie sortiere vielmehr aus nicht-klassifizierten Daten wie Drohnenaufnahmen automatisch Bilder heraus, auf die ein Mensch einen Blick werfen sollte. Die Konzernvertreterin räumte ein, dass der "militärische Einsatz von Maschinenlernen natürlich legitime Bedenken hervorruft". Bei Google werde dieses wichtige Thema derzeit intern und mit Dritten diskutiert, "während wir weiterhin Leitlinien und Schutzmechanismen entwerfen rund um die Entwicklung und die Verwendung unserer Maschinenlern-Technologien".

Nachdem der Konzern 2014 die KI-Schmiede DeepMind gekauft hatte, richtete er eine Ethik-Kommission ein, um den Missbrauch der Technologie zu verhindern. Anders als Rivalen im Cloud-Geschäft wie Amazon oder Microsoft hat Google bislang keine regierungsspezifischen Angebote entwickelt, mit denen als geheim oder anderweitig vertraulich eingestufte Informationen in den Rechnerwolken besonders geschützt werden sollen. (axk)