Googler wehren sich gegen geheime Militär-KI
Über 600 Google-Mitarbeiter fordern den Verzicht auf geheime Militär-Aufträge. Denn dort ließen sich auch die Reste von Googles KI-Ethik nicht überprüfen.
Wie entscheidet sich Googles KonzernfĂĽhrung?
(Bild: Daniel AJ Sokolov)
„Wir sind Google-Mitarbeiter, die sich große Sorgen machen angesichts der laufenden Verhandlungen zwischen Google und dem US-Verteidigungsministerium”, schreiben bei Google angestellte KI-Experten an Konzernchef Sundar Pichai. Die über 600 Unterzeichner fordern laut US-Medienberichten, dass Google den Einsatz seiner Künstlichen Intelligenz (KI) für geheime Militär-Aufgaben ablehnt. „Da wir an KI arbeiten, wissen wir, dass diese Systeme Macht zentralisieren und dass sie Fehler machen können.”
Weil die großen KI-Projekte schwer defizitär sind, möchten Betreiber gerne mit Militärs und Spionen ins Geschäft kommen. Solche Verträge sind tendenziell lukrativ. Dafür werden ursprüngliche Vorsätze über Bord geworfen. Das verunsichert die Googler; zu den über 600 Unterzeichnern gehören mehr als 20 Manager bis hinauf zu Vizepräsidenten des Datenkonzerns.
Mitbewerber Anthropic wollte dieses Jahr den Einsatz seiner Technik für Massenüberwachung im Inland sowie vollautonome Waffen ablehnen. Das hat den US-Verteidigungsminister so erzürnt, dass er Anthropic auf eine Sperrliste gesetzt hat. Seither dürfen auch andere Lieferanten des Militärs nicht mehr bei Anthropic einkaufen. Ein Gerichtsprozess gegen diese Sperre ist anhängig.
Googles KI-Experten, darunter viele des Forschungslabors DeepMind AI, wollen nun jegliche geheime Nutzung verhindern. Denn bei geheimer Nutzung könne selbst Google nicht verhindern, dass seine Technik vertragswidrig eingesetzt wird. „Wir möchten, dass KI der Menschheit zum Vorteil gereicht, sie nicht in unmenschlicher oder extrem schädlicher Weise eingesetzt sehen”, schreiben die besorgten Googler. „Das umfasst tödliche autonome Waffen und Massenüberwachung, geht aber darüber hinaus.”
Googles KI-Ethik gilt nicht mehr
Bereits 2018 hat es in Googles Belegschaft rumort. Über 4.000 Mitarbeiter unterschrieben eine Petition gegen einen von Google angenommenen Auftrag, Künstliche Intelligenz für die Auswahl von Zielen für Militärschläge zu erstellen. Tatsächlich ließ Google den Vertrag auslaufen; er wurde von Palantir übernommen.
Außerdem führte Google damals eigene Ethik-Regeln für Künstliche Intelligenz ein, bestehend aus sieben allgemeinen Grundsätzen und vier konkreten Ausschlusskriterien: Keine Technik, die wahrscheinlich schadet, keine Waffen oder andere Technik, die Verletzungen auslöst, keine Überwachung und Spionage jenseits international anerkannter Normen, keine Verletzung internationalen Rechts oder der Menschenrechte.
Videos by heise
Allein, diese Selbstbeschränkung hat Google im Vorjahr aufgegeben. Stattdessen gelten drei schwammig formulierte KI-Prinzipien: erstens Kühne Innovation, zweitens verantwortungsvolle Entwicklung und Verbreitung sowie, drittens, Zusammenarbeit. Vom Ausschluss tödlicher Waffen ist keine Rede mehr.
„Der einzige Weg, zu garantieren, dass Google nicht mit solchen schädlichen (Anwendungen) assoziiert wird, ist, jegliche geheime Nutzung abzulehnen”, hält der aktuelle Brief der Werktätigen fest. „Andernfalls könnte solche Nutzung ohne unser Wissen und ohne unsere Macht, das hintanzuhalten, erfolgen.”
Militär: „Legale Zwecke”
Das US-Verteidigungsministerium hingegen möchte zugekaufte KI für „alle legalen Einsatzzwecke” verwenden dürfen. Was das Ministerium als legal einstuft, wandelt sich. In jüngster Vergangenheit haben die USA wiederholt zivile Boote vor der Küste Venezuelas bombardiert, mit dem ungeprüften Vorwurf, an Bord seien Drogen. Überlebende Schiffbrüchige wurden nicht gerettet und vor Gericht gestellt, sondern umgebracht.
Sogar der illegitime Präsident Venezuelas, Nicolás Maduro Moros, wurde gewaltsam entführt, Dutzende seiner Leibwächter erschossen. Dem Vernehmen nach soll KI diesen Angriff unterstützt haben.
Im Iran-Krieg soll Palantirs KI „Maven Smart System” für die Auswahl der Ziele für Militärschläge genutzt worden sein. Am 28. Februar, dem ersten Tag des Angriffs auf den Iran, traf eine US-Rakete eine Schule in Minab. Über 100 Schulkinder und viele weitere Zivilisten starben. Das Gebäude wurde zwar einst von der Islamischen Revolutionsgarde genutzt, war seit mindestens zehn Jahren aber eine zivile Schule. Diese Umwidmung dürfte Palantirs Maven nicht mitbekommen haben.
(ds)