EU-Experten: KI nicht für Überwachung und Scoring von Massen einsetzen

Sachverständige haben der EU-Kommission neue Empfehlungen für eine "vertrauenswürdige Künstliche Intelligenz" an die Hand gegeben, die rote Linien aufzeigen.

In Pocket speichern vorlesen Druckansicht 41 Kommentare lesen
EU-Experten: KI nicht für Überwachung und Scoring von Massen einsetzen

(Bild: sdecoret / shutterstock.com)

Lesezeit: 4 Min.

Die EU-Kommission hat am Mittwoch 33 konkrete Politik- und Investitionsratschläge ihrer vor einem Jahr eingesetzten "hochrangigen Expertengruppe" für Künstliche Intelligenz (KI) veröffentlicht. Die beteiligten 52 Vertreter aus Industrie und Forschung empfehlen darin im Interesse einer "vertrauenswürdigen KI", die Technologie nicht für die "unverhältnismäßige Massenüberwachung von Individuen" zu verwenden. Die Politik müsse zudem der "kommerziellen Überwachung" von Verbrauchern und der Gesellschaft entgegentreten und den Datenschutz auch bei vermeintlichen Gratisdiensten im Netz gewährleisten. Firmen sollten hier "alternative Geschäftsmodelle" in Betracht ziehen.

Regierungen könnten zwar versucht sein, die Gesellschaft über ein massives Überwachungssystem im Big-Brother-Stil auf der Basis von KI-Systemen "abzusichern", konstatiert die Gruppe. Dies wäre aber im letzten Ausmaß "extrem gefährlich". Eingesetzt werden dürften nur Algorithmen, die das Recht und die Menschenrechte im Einklang mit klaren ethischen Prinzipien achteten. Ein KI-gestütztes massenhaftes Scoring, wie es etwa China mit dem geplanten sozialen Kreditbewertungssystem entwickelt, sollte verboten werden. Auch Nutzungsszenarien im Bereich öffentliche Sicherheit müssten "strengen Regeln" entsprechen, wenn sie an sich rechtlich verankert, erforderlich und verhältnismäßig seien.

Generell sollte fortwährend etwa mit Folgenabschätzungen analysiert werden, welche Gefahren KI-Systeme erzeugen könnten, die von der bestehenden Gesetzgebung noch nicht hinreichend erfasst sind, heißt es in dem Papier. Personen sollten vor allem nicht Gegenstand ungerechtfertigter Beobachtung und Identifizierung etwa durch Tracking-Methoden werden. Es müsse verhindert werden, dass durch KI-getriebene Techniken wie biometrische Erkennungsmethoden persönliche Profile erstellt oder Menschen zu gewissem Handeln per "Nudging" überredet würden. Die Experten erwähnen hier etwa die automatisierte Stimm-, Iris-, DNA-, Emotions- oder Gesichtserkennung.

Die Gruppe fordert auch, die Entwicklung automatisierter tödlicher Waffen alias Killer-Roboter zu kontrollieren und einzuschränken. Für Angriffswaffen in diesem Bereich sollten die EU-Mitgliedsstaaten ein internationales Moratorium unterstützen. Die Sachverständigen warnen, dass auch Instrumente für Cyberangriffe bei einem Einsatz tödliche Folgen haben könnten. Die vom EU-Parlament geforderte Anerkennung von KI-Systemen als Rechtsperson lehnen sie ab, da ein solcher Schritt mit dem Prinzip der menschlichen Handlungsfähigkeit unvereinbar sei.

Zudem sollte es unabhängige Auditsysteme für die Technik geben, um illegale oder schädliche Folgen wie Voreingenommenheit oder Diskriminierung zu verhindern. Wichtig seien menschliche Kontrollsysteme, um effektiv falsche Entscheidungen einer vermeintlich "perfekt" funktionierenden Maschinerie auszumachen. Alle betroffenen Interessensgruppen sollten an einem institutionalisierten runden Tisch weitere "rote Linien" definieren und KI-Anwendungen diskutieren, die inakzeptable Auswirkungen haben könnten.

Die EU müsse ihre Investitionen in Künstliche Intelligenz dringend deutlich ausweiten und einen Binnenmarkt für Trainingsdaten schaffen, unterstreichen die Sachverständigen. Die Kommission sollte an ihrem Ziel festhalten, in den nächsten zehn Jahren dafür 20 Milliarden Euro aus Staat und Wirtschaft zu mobilisieren. Generell müsse der Mensch im Zentrum der KI stehen. Ins Spiel bringt die Gruppe regulatorische "Sandkästen", um Innovationen zu fördern und in begrenzten Test die Gesellschaft vor unvertretbaren Nachteilen zu schützen.

Die Empfehlungen fallen deutlich schärfer aus als die allgemeinen ethischen KI-Leitlinien, die das Gremium Anfang April vorlegte. Auch darin waren zwar Grundsätze etwa der Fairness und Nachvollziehbarkeit angelegt sowie das Prinzip, dass Roboter keinen Schaden anrichten und niemanden verletzen dürfen. Kritiker beklagten aber, dass die von der Industrie dominierte Gruppe keine klaren Grenzen für KI aufgezeigt und den Bürgern eine Beruhigungspille verabreicht habe.

Die für die digitale Wirtschaft und Gesellschaft zuständige EU-Kommissarin Mariya Gabriel kündigte an, dass die Ratschläge nun zunächst in konkreten "Fallstudien" erprobt werden sollten. Danach gehe es ans Finetuning. Organisationen in der EU könnten sich anhand einer Bewertungsliste für vertrauenswürdige KI an den Test beteiligen. Mehr als 300 Betriebe und Behörden haben dazu bereits ihr Interesse bekundet. Eine zugehörige Online-Konsultation läuft bis zum 1. Dezember, das Ergebnis soll Anfang 2020 publiziert werden. (axk)