Google stellt Ethik-Regeln für die Entwicklung künstlicher Intelligenz auf

Die Kritik an der Entwicklung von KI-Algorithmen für das Militär-Projekt Maven hat Google wachgerüttelt und sich für KI-Projekte Verhaltensregeln auferlegt.

In Pocket speichern vorlesen Druckansicht 58 Kommentare lesen
Google stellt Ethik-Regeln für die Entwicklung künstlicher Intelligenz auf
Lesezeit: 3 Min.
Inhaltsverzeichnis

Google will künftig bei der Entwicklung von Systemen mit künstlicher Intelligenz (KI) selbst auferlegte Ethik-Regeln befolgen, um seiner Verantwortung als führendes Unternehmen in der KI-Entwicklung nachzukommen. Das gab Google-Chef Sundar Pichai in einem Blog-Beitrag am Donnerstag bekannt.

Ein Kernpunkt dieser Regeln ist der Verzicht, KI-Technologien für Waffensysteme zu entwickeln und bereitzustellen, wie es derzeit noch beim Militär-Projekt Maven in Kooperation mit dem US-Verteidigungsministerium der Fall ist. Google wolle aber weiterhin mit Regierungsstellen zusammenarbeiten – auch mit dem Militär, sofern es sich beispielsweise um humanitäre Projekte wie "Search an Rescue" oder die Gesundheitsversorgung von Veteranen handle.

Sundar Pichai gibt bei seiner Vorstellung der Ethik-Regeln Ziele für KI-Anwendungen aus und nennt Bereiche, die nicht unterstützt werden sollen. Zu den sieben Regeln für die KI-Anwendungsentwicklung gehört, dass sie einen sozialen Nutzen haben müssen, etwa in den Bereichen Gesundheitsversorgung, Sicherheit, Energie, Verkehr, Produktion oder Entertainment. Dabei wolle Google die kulturellen, sozialen Gegebenheiten und Rechtsnormen der Länder beachten, in denen die Technologien eingesetzt werden.

KI-Algorithmen und daraus resultierende Datensätze können möglicherweise Vorurteile hinsichtlich Rasse, Geschlecht, Ethnie oder sexueller Orientierung widerspiegeln. Bei der Entwicklung der Algorithmen solle das vermieden werden. Dies sei allerdings nicht einfach, da es in unterschiedlichen Ländern verschiedene kulturelle und gesellschaftliche Ansichten gäbe, schreibt Pichai.

Die Sicherheit spiele bei KI-Anwendungen eine große Rolle. Entsprechend würden bei Google strenge Sicherheitsvorkehrungen während des Entwicklungsprozesses getroffen, um Schadensrisiken zu minimieren. Die Anwendungen sollen ausführlich in abgeschotteten Umgebungen vorab getestet werden. Dabei sollen die KI-Systeme von Menschen kontrolliert werden und Möglichkeiten zum Feedback enthalten.

Die Systeme künstlicher Intelligenz werten häufig große Datenmengen aus. Google verpflichtet sich deshalb, die Datenschutzgrundsätze zu beachten und die Verwendung von Daten transparent darzustellen und zu kontrollieren.

Um zu vermeiden, dass KI-Algorithmen in einer schädlichen Weise eingesetzt werden, sollen sie vorher Prüfungen durchlaufen, wie mögliche Auswirkungen aussehen könnten und gegebenenfalls angepasst werden. Die Entwicklung von KI-Algorithmen solle nach strengen wissenschaftlichen Grundsätzen erfolgen.

Risikobehaftete KI-Systeme will Google nur dann mitentwickeln, wenn der Nutzen größer als der mögliche Schaden ist und das System "angemessene Sicherheitsbeschränkungen" enthält.

Pichai schließt die Beteiligung Googles an der Entwicklung von KI-Algorithmen für militärische Waffensysteme grundsätzlich aus. Das gilt auch für Technologien, die dazu geeignet wären, eine großflächige Überwachung von Menschen zu ermöglichen. Insgesamt beteilige sich Google nicht daran, KI-Technologie zu entwickeln, die den Prinzipien des Völkerrechts und der Menschenrechte widersprechen.

Der KI-Codex dürfte als Reaktion auf die Beteiligung Googles am Militär-Projekt Maven des US-Verteidigungsministeriums zu werten sein. Mitarbeiter hatten mit Unterstützung mehrerer hundert namhafter Wissenschaftler gegen die Verwendung von Google-KI in dem Aufklärungs- und Kampfdrohnen-Projekt Maven protestiert und an das Gründungsmotto Googles "Don‘t be evil!" erinnert.

Einige Mitarbeiter hatten aus ethischen Gründen gekündigt und das Unternehmen verlassen. Google hatte daraufhin letzte Woche angekündigt, den Vertrag mit dem Pentagon nicht mehr verlängern zu wollen. Er läuft 2019 aus.

Google-Chef Sundar Pichai sieht die aufgestellten Ethik-Regeln für die KI-Entwicklung im Einklang mit den ursprünglichen Werten, die bei der Firmengründung festgelegt wurden. (olb)