KI beim US-Militär: Warum man auf Schaden und mögliche Geschädigte achten soll

Entwickler, die Software mit Künstlicher Intelligenz nutzen oder anbieten, müssen künftig neue Richtlinien einhalten. Skandale sollen so vermieden werden.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen

Das Pentagon in Washington.

(Bild: US-Regierung / PD)

Lesezeit: 7 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

2018 erfuhren Mitarbeiter des Suchkonzerns Google davon, dass ihre Firma am "Project Maven" beteiligt war, einem umstrittenen Versuch des US-Militärs, KI zur Analyse von militärischem Videomaterial zu entwickeln. Viele waren unglücklich darüber, Tausende protestierten. "Wir sind der Meinung, dass Google nicht im Kriegsgeschäft tätig sein sollte", schrieben sie in einem Brief an die Unternehmensführung. Rund ein Dutzend Mitarbeiter kündigte gar. Und Google verlängerte den Vertrag mit dem Pentagon im Jahr 2019 nicht.

Project Maven gibt es immer noch, doch andere Technologieunternehmen, darunter Amazon und Microsoft, haben inzwischen den Platz von Google eingenommen. Und das US-Verteidigungsministerium weiß, dass es ein Vertrauensproblem hat. Es muss dieses Problem lösen, um den Zugang zu den neuesten Verfahren, insbesondere in der KI, aufrechtzuerhalten – was Partnerschaften mit Big Tech und anderen nichtmilitärischen Organisationen erfordert.

Um die Transparenz zu fördern, hat die "Defense Innovation Unit" (DIU), die Aufträge des Verteidigungsministeriums an solche Unternehmen vergibt, nun sogenannte Richtlinien für den verantwortungsvollen Umgang mit Künstlicher Intelligenz veröffentlicht, die Entwickler von Drittanbietern beachten müssen, wenn sie KI für das Militär entwickeln – unabhängig davon, ob es sich um ein System für die Personalverwaltung oder Waffentechnik zur Zielerkennung handelt.

Die Leitlinien enthalten dazu ein schrittweises Verfahren, das die Unternehmen bei der Planung, Entwicklung und dem Einsatz von KI befolgen müssen. Sie umfassen Verfahren, mit denen festgestellt werden kann, wer die Technik nutzen und wer durch sie geschädigt werden könnte, wie diese Schäden aussehen könnten und wie sie vermieden werden – und zwar sowohl vor der Entwicklung des jeweiligen Systems als auch nach dessen Inbetriebnahme.

"Es gibt keine anderen Richtlinien, weder im Verteidigungsministerium noch in der US-Regierung, die so ins Detail gehen", sagt Bryce Goodman von der Defense Innovation Unit, die sie mitverfasst hat. Die Regelung könnte die Art und Weise, wie KI von der US-Regierung vorangetrieben wird, verändern, sofern die Richtlinien des Verteidigungsministeriums von anderen Ministerien übernommen oder angepasst werden. Goodman sagt, dass er und seine Kollegen sie an die Wetterbehörde NOAA und das Verkehrsministerium weitergegeben haben und mit den Ethikgruppen des Justizministeriums, der General Services Administration und der Steuerbehörde IRS im Gespräch sind.

Mit den neuen Richtlinien soll sichergestellt werden, dass die Auftragnehmer die bestehenden ethischen Grundsätze des Verteidigungsministeriums für KI einhalten, so Goodman. Das Verteidigungsministerium hat diese Grundsätze im vergangenen Jahr im Anschluss an eine zweijährige Studie bekannt gegeben, die vom Defense Innovation Board in Auftrag gegeben wurde, einem Beratungsgremium aus führenden Technologieforschern und Industrievertretern, das 2016 gegründet wurde, um "den Funken des Silicon Valley auf das US-Militär überspringen" zu lassen. Den Vorsitz des Gremiums hatte bis September 2020 der ehemalige Google-CEO Eric Schmidt inne. Zu den derzeitigen Mitgliedern gehört Daniela Rus, die Direktorin des MIT-Labors für Computerwissenschaften und künstliche Intelligenz.

Einige Kritiker bezweifeln jedoch, dass die Arbeit eine sinnvolle Reform verspricht. Während der Studie konsultierte das Gremium eine Reihe von Experten, darunter lautstarke Kritiker des militärischen Einsatzes von KI, wie Mitglieder der "Campaign to Stop Killer Robots" und Meredith Whittaker, eine ehemalige Google-Forscherin, die bei der Organisation der Project-Maven-Proteste mitwirkte.

Whittaker, die jetzt Fakultätsleiterin am "AI Now"-Institut der New York University ist, war für eine Stellungnahme nicht zu erreichen. Laut Courtney Holsworth, einer Sprecherin des Instituts, nahm sie jedoch an einer Sitzung teil, bei der sie mit hochrangigen Mitgliedern des Vorstands, darunter Schmidt, über die Richtung des Vorhabens stritt. "Sie wurde nie ernsthaft konsultiert", sagt Holsworth. "Die Behauptung, sie sei konsultiert worden, könnte als eine Form von Ethik-Reinwaschung verstanden werden, bei der die Anwesenheit von Gegenstimmen während eines kleinen Teils eines langen Prozesses dazu benutzt wird, zu behaupten, dass ein bestimmtes Ergebnis die breite Zustimmung der relevanten Interessensgruppen hat."

Wenn das Verteidigungsministerium jedoch keine breite Zustimmung erfährt, können seine Richtlinien dann noch zur Vertrauensbildung beitragen? "Es wird Leute geben, die mit den Ethikrichtlinien des Verteidigungsministeriums nie zufrieden sein werden, weil sie die Idee paradox finden", sagt Goodman. "Es ist wichtig, realistisch zu bleiben, was diese Richtlinien leisten können und was nicht."

So sagen die Richtlinien beispielsweise nichts über den Einsatz von tödlichen autonomen Waffen aus, einer Technologie, die nach Ansicht einiger Aktivisten verboten werden sollte. Goodman weist jedoch darauf hin, dass die Vorschriften für solche Systeme auf höherer Ebene beschlossen werden. Das Ziel der Leitlinien ist es, die Entwicklung von KI zu erleichtern, die diesen Vorschriften entspricht. Und ein Teil dieses Prozesses besteht darin, alle Bedenken, die Drittentwickler haben, deutlich zu machen. "Die Anwendung dieser Leitlinien besteht auch in der Entscheidung, ein bestimmtes System nicht weiterzuverfolgen", sagt Jared Dunnmon vom DIU, der sie mitverfasst hat. "Man kann sich entscheiden, dass es keine gute Idee ist."

Margaret Mitchell, eine KI-Forscherin bei der Gruppe Hugging Face, die gemeinsam mit Timnit Gebru das Team für ethische KI bei Google leitete, bevor beide das Unternehmen verlassen mussten, stimmt zu, dass Ethikrichtlinien dazu beitragen können, ein Projekt für die daran arbeitenden Personen transparenter zu machen – zumindest in der Theorie. Mitchell saß während der Proteste bei Google in der ersten Reihe. Einer der Hauptkritikpunkte der Angestellten war, dass das Unternehmen dem Militär mächtige Verfahren ohne jede Leitplanken überließ, sagt sie: "Die Leute verließen das Unternehmen vor allem deshalb, weil es keine klaren Richtlinien oder Transparenz gab."

Für Mitchell sind die Probleme nicht klar umrissen. "Ich denke, dass einige Leute bei Google definitiv der Meinung sind, dass jede Zusammenarbeit mit dem Militär schlecht ist", sagt sie. "Ich gehöre nicht zu diesen Leuten." Sie hat deshalb mit dem Verteidigungsministerium darüber gesprochen, wie es mit Unternehmen auf eine Art und Weise zusammenarbeiten kann, die deren ethische Grundsätze wahrt.

Sie ist allerdings auch der Meinung, dass es noch ein weiter Weg ist, bis das Verteidigungsministerium das nötige Vertrauen genießt. Ein Problem besteht darin, dass einige Formulierungen in den Richtlinien auslegungsfähig sind. Zum Beispiel heißt es dort: "Das Ministerium wird bewusste Schritte unternehmen, um den unbeabsichtigten Bias bei KI-Verfahren zu minimieren." Was ist mit einem beabsichtigten Bias? Das mag nach Erbsenzählerei klingen, aber die unterschiedlichen Auslegungen hängen von dieser Art von Details ab.

(bsc)