Ethik-Debatte: EU-Experten warnen vor "verdeckter KI"

Sachverständige haben im Auftrag der EU-Kommission Ethik-Leitlinien für Künstliche Intelligenz entworfen mit Punkten wie Gesichtserkennung oder Killer-Robotern.

In Pocket speichern vorlesen Druckansicht 24 Kommentare lesen
Ethik-Debatte: EU-Experten warnen vor "verdeckter KI"
Lesezeit: 3 Min.
Inhaltsverzeichnis

Die von der EU-Kommission im Juni eingesetzte "hochrangige Expertengruppe für Künstliche Intelligenz (KI)" hat einen ersten Entwurf ihrer geplanten Ethik-Leitlinien veröffentlicht. Nach ihnen sollen in der EU Techniken wie Maschinenlernen oder neuronale Netze "vertrauenswürdig" entwickelt und eingesetzt werden. Ziel ist es, dass dabei von Programmierern und Nutzern die Grundrechte, die geltenden rechtlichen Vorschriften sowie ethische Werte respektiert ein eingehalten werden.

Die 52 Experten aus Wissenschaft, Wirtschaft und Zivilgesellschaft haben in ihrem vorläufigen Bericht bereits einige besonders kritische Aspekte rund um KI hervorgehoben. So warnen sie etwa vor "verdeckten" Systemen Künstlicher Intelligenz und fordern, dass ein Mensch immer wissen müsse, ob er mit einem Artgenossen oder einer Maschine interagiere. KI-Entwickler seien dafür verantwortlich, dass diese Vorgabe immer eingehalten werde. Andererseits könnten Leute mit der Macht, die Technik zu kontrollieren, "Menschen in nie gekannter Art und Weise manipulieren".

Es müsse sichergestellt sein, dass Nutzer zumindest die Tatsache überprüfen können, ob sie es mit einer "KI-Identität" zu tun haben. Grenzfälle wie eine maschinell gefilterte menschliche Stimme verkomplizierten die Sache.

Um Social Bots auf Facebook oder Twitter, die hierzulande die politischen Gemüter erhitzen, sorgen sich die Experten weniger. Sie verweisen vielmehr etwa auf Androiden. Diese Zwitterfiguren könnten "die Wahrnehmung des Menschen und der Menschheit" verändern, schreiben sie. Wer nicht mehr zwischen seinen Artgenossen und Maschinen unterscheiden könne, habe ein ganz anderes Zugehörigkeitsgefühl und andere Wertvorstellungen des eigenen Seins. Die Entwicklung humanoider Roboter erfordere daher besondere ethische Folgenabschätzungen.

Wenn Scoring in speziellen Bereichen wie Schulsystemen oder bei der Führerscheinprüfung eingesetzt werde, müsse dies zumindest "voll transparent" mit Verweisen auch auf die verwendete Methodik geschehen und bestenfalls eine Opt-out-Möglichkeit enthalten. Auf die Initiativen Chinas, ein umfassendes "Social Credit"-System mit einem "Citizen Score" einzuführen, gehen die Autoren nicht konkret ein.

Schwer bedenklich scheint den Experten der Einsatz von KI-Verfahren zur Identifizierung von Personen ohne deren Einwilligung. Sie beziehen sich dabei etwa auf Technik zur automatisierten Gesichtserkennung oder vergleichbarer Methoden mithilfe biometrischer Daten wie die Lügendetektion oder die Personeneinschätzung anhand von Gesichtsausdrücken, der Gangart oder der Stimmanalyse. Teils sei es legitim, solche Verfahren zu nutzen, um etwa Betrug, Geldwäsche oder die Finanzierung von Terroristen aufzudecken. Dafür müssten aber gesetzliche Grundlagen bestehen und "Grundwerte" beachtet werden.

Ebenfalls überaus heikel werten die Experten die Nutzung vermeintlich "anonymer" Daten, mit deren Hilfe oft vergleichsweise einfach wieder ein persönlicher Bezug hergestellt werden könne, für Identifizierungszwecke. Zugleich lehnen sie die Entwicklung "tödlicher autonomer Waffensysteme" größtenteils ab beziehungsweise wollen diese an strikte Vorgaben geknüpft sehen, wenn dadurch "Kollateralschäden" vermieden werden könnten. Sie unterstützen damit den Ruf des EU-Parlaments nach einem Aus für "Killer-Roboter" und einem verbindlichen Regelwerk mit ethischen und rechtlichen Vorgaben etwa zur menschlichen Kontrolle über autonome Waffensysteme.

Interessierte können den Berichtsentwurf in einer öffentlichen Konsultation bis zum 18. Januar online kommentieren und so der Gruppe helfen, den Entwurf fertigzustellen. Die endgültigen Leitlinien sollen im März stehen und Teil der KI-Strategie der Kommission werden. (anw)