KI-Stratege: EU muss bei Künstlicher Intelligenz auf einigen Gebieten passen

Europa kann bei KI nur mit Anwendungen rund um professionelle und spezielle Daten punkten, meint der französische Abgeordnete Cédric Villani.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Künstliche Intelligenz

(Bild: agsandrew / shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Im Wettrennen um die besten Produkte und Dienste mit Künstlicher Intelligenz (KI) für Verbraucher müssen sich europäische Firmen vielfach bereits US-Internetkonzernen wie Google, Apple, Facebook oder Amazon geschlagen geben. Einige der KI-Anwendungen in diesem Markt "sind die besten, vor allem beim Nutzerdesign", anerkannte Cédric Villani, Autor der französischen KI-Strategie, bei einem Fachgespräch der Grünen im Bundestag zum Thema "AI made in Europe: Egological, fair, inclusive".

Ein Abgesandter einer Vereinigung von Blinden und Sehbehinderten hatte zuvor zu bedenken gegeben, dass die von ihm vertretene Klientel vor allem auf hilfreiche KI-Dienste etwa für Sprachassistenten aus Übersee setze. Das "beste Übersetzungswerkzeug" komme mit DeepL aber aus Deutschland, das beste Instrument zur Überwachung von Umweltverschmutzung aus Frankreich, brachte Villani zwei Beispiele in die andere Richtung. Europäische Unternehmen hinkten beim Marketing und bei der PR jedoch ihren US-amerikanischen Pendants weit hinterher.

Trotz dieser zumindest in Expertenkreisen bekannten Erfolge hält der Mathematiker und Physiker Villani nichts davon, den US-Internetriesen bei KI-Diensten Paroli bieten zu wollen, die auf dem Sammeln und Auswerten personenbezogener Daten beruhen. Hier sei der Zug weitgehend abgefahren und die US-Konkurrenz meist besser. In Europa müsse es dagegen darum gehen, KI-Anwendungen auf Basis "professioneller und spezieller Daten" etwa im Business-to-Business-Bereich zu entwickeln und dort führend zu werden.

Die Datenschutz-Grundverordnung (DSGVO) hält Villani im Gegensatz zu anderen Beobachtern für kein Hindernis auf dem Weg zu einer "europäischen KI". Die darin enthaltenen Regeln stünden einer Arbeit mit großen Datenmengen nicht entgegen, man müsse aber sorgfältig damit umgehen.

Bei personenbezogenen Informationen sei zudem vorab die Einwilligung der Betroffenen einzuholen. Ohne Datenschutz gehe Vertrauen verloren. Die DSGVO diene so als "Sicherheitsnetz" auch für die KI-Forschung, dank dem Wissenschaftler wie Akrobaten arbeiten können.

Im Gegensatz zur KI-Strategie der Bundesregierung enthält das französische Pendant eigene Kapitel zu KI und Umweltschutz sowie gesellschaftlicher Inklusion. Es gehe nicht nur darum, Künstliche Intelligenz für die "ökologische Wende" einzusetzen, heißt es in dem Papier. Genauso wichtig sei es, eine "an sich ökologische KI" zu entwerfen und diese zu nutzen, um den Einfluss des Menschen auf die Umwelt zu reduzieren.

Die gesamte elektronische Informationsverarbeitung einschließlich KI verbrauche derzeit aufgrund der erforderlichen rechenstarken Hardware und zusätzlicher Infrastruktur wie der Cloud enorm viel Energie, erläuterte Villani. Da dies "nicht nachhaltig" sei, müsse Künstliche Intelligenz eingesetzt werden, um die Energieeffizienz zu erhöhen und etwa die besten Gegenden für Solaranlagen oder den Ackerbau auszumachen. Oft gebe es dafür in den zuständigen Institutionen aber noch keine entsprechende Kultur.

Mit dem Gedanken, über KI Menschen zu einem umweltbewussteren Verhalten anzuregen, kann sich der französische Abgeordnete prinzipiell anfreunden. Künstliche Intelligenz könne Nutzer recht gut beeinflussen. Facebooks Newsfeed etwa stimme Mitglieder häufig fröhlich oder traurig oder rege sie zu gewissen Tätigkeiten an. Ethisch seien solche Formen des "Nudging" aber nur, wenn sie für ein "öffentlich anerkanntes Gut" würben. Die Betroffenen müssten zudem über die Technik aufgeklärt werden.

Etwa mit Social Bots sei es bereits machbar, Menschen zu manipulieren oder zu kontrollieren, ergänzte Bernhard Schölkopf, Direktor des Max-Planck-Instituts für Intelligente Systeme. Vieles hänge davon ab, wie und auf welcher Datenbasis die Systeme trainiert würden. Oft würden menschliche Entscheidungen von der Maschine auch schon in einem Maße vorbereitet, dass der Mensch nicht mehr wirklich frei sei, den Knopf letztlich zu drücken oder nicht. Dem Informatiker wäre es daher am liebsten, wenn die Maschinen in der EU "von Leuten programmiert werden, die unsere Werte teilen".

Für einen ethischen KI-Einsatz "brauchen wir Antennen in der Community", betonte der Mitinitiator der Tübinger Forschungsinitiative Cyber Valley, die protestierende Studenten mit Militarisierung zusammenbringt.

Von solchen Vorwürfen hält Schölkopf nichts. Er verweist auf den Fall des Korea Advanced Institute of Science and Technology (KAIST), das mit dem südkoreanischen Rüstungsunternehmen Hanwah System habe kooperieren wollen. Nach einem gemeinsam mit zahlreichen Kollegen verfassten offenen Brief mit einem angedrohten Stopp der Zusammenarbeit mit dem Forschungsinstitut sei das Vorhaben rasch beerdigt worden. Auf solche Formen der verantwortungsvollen Selbstregulierung sei die KI-Wissenschaftsgemeinde angewiesen. (olb)