Nach sechs Jahren: Google gibt die ausdrückliche Ablehnung von KI-Waffen auf

Lange hat Google sich verpflichtet, KI-Technologie nicht für die Waffenentwicklung bereitzustellen und dafür sogar auf Geld verzichtet. Jetzt ist damit Schluss.

vorlesen Druckansicht 38 Kommentare lesen
Bunt leuchtendes Neon-Zeichen von Google

(Bild: YueStock/Shutterstock.com)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Google verabschiedet sich nach mehr als sechs Jahren von selbst auferlegten Ethik-Regeln, in denen der Konzern zugesagt hat, KI-Technologien für Waffensysteme oder zur überwachung weder entwickeln noch bereitstellen zu wollen. Das geht aus einem Blogeintrag hervor, in dem die Überarbeitung der eigenen KI-Prinzipien unter anderem mit dem raschen Fortschritt bei der Entwicklung der Technologie begründet wird. Darin schreiben die Chefs der Abteilung "Technik und Gesellschaft" und der Google-Tochter DeepMind, dass KI-Firmen, Regierungen und Organisationen stattdessen nun zusammenarbeiten sollten, um unter anderem die nationale Sicherheit zu schützen.

Google hatte sich die Ethik-Richtlinien für die Entwicklung von KI-Systemen Mitte 2018 auferlegt, lange vor dem jüngsten Hype um generative KI. Damals hat Google-Chef Sundar Pichai Ziele für die hauseigenen KI-Bestrebungen aufgelistet und erklärt, dass man mit den Beschränkungen der Verantwortung als führendem Unternehmen der Branche nachkomme. Inzwischen ist die deutlich größer geworden und die Konkurrenzsituation eine andere. Wegen der Ethik-Regeln hatte sich Google 2018 entschieden, kein Gebot auf eine 10 Milliarden US-Dollar schwere Ausschreibung für den Betrieb eines Cloud-Systems für das US-Verteidigungsministerium abzugeben. Auf so viel Geld würde man nun wohl nicht mehr verzichten.

Videos by heise

Googles Kehrtwende in Bezug auf die Entwicklung von KI-Systemen für Waffen folgt etwa ein Jahr auf eine ähnliche Kehrtwende bei OpenAI. Damals haben die ChatGPT-Entwickler einen Passus in den Nutzungsbedingungen gelöscht, der es verboten hatte, die Sprachmodelle für "Militär und Kriegsführung" zu nutzen. Vor wenigen Tagen hat das KI-Unternehmen dann eine Partnerschaft mit US-Forschungseinrichtungen bekannt gegeben, in deren Rahmen unter anderem an der Sicherheit von Atomwaffen gearbeitet werden soll. Es liegt nahe, dass die jüngsten Schritte auch als Entgegenkommen in Richtung des neuen US-Präsidenten gesehen werden können, der die großen IT-Konzerne lange scharf kritisiert hat.

(mho)