KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen

Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren. Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: kb-photodesign/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Eike Kühl

Wo Regulierung droht, ist Lobbyismus nicht weit. Das gilt auch für die Entwicklungen auf dem Gebiet der künstlichen Intelligenz. Seit April 2021 finden auf EU-Ebene Beratungen über ein neues KI-Gesetz statt, den AI Act. Er soll den Einsatz von KI-Anwendungen in der Europäischen Union regulieren und deren Anbieter in die Pflicht nehmen. Deshalb versuchen schon jetzt Vertreterinnen und Vertreter der großen Techfirmen das geplante Gesetz aufzuweichen. Das geht aus einer neuen Untersuchung der Lobbying-Transparenzgruppe Corporate Europe Observatory (COE) hervor.

Im Fokus steht dabei die sogenannte "general purpose AI" (GPAI), was sich mit "allgemein anwendbarer KI" oder schlicht Allzweck-KI übersetzen lässt. Das umfasst KI-Anwendungen, die nicht nur einen spezifischen Nutzen haben, sondern verschiedenste Aufgaben, von Bild- und Musterkennung über Videoerzeugung hin zu Übersetzungen, erledigen können. Im ersten Entwurf des AI Acts kam GPAI nicht vor, doch im Frühjahr vergangenes Jahr kam in den Verhandlungen die Idee auf, allgemein anwendbare KI explizit aufzunehmen.

Das rief die Lobbyisten der großen Technologiefirmen auf den Plan. Denn gemäß der Definition fielen auch KI-Chatbots wie ChatGPT von OpenAI, Microsofts Bing Chat und Googles Bard in die GPAI-Kategorie und wären somit womöglich künftig von stärkerer Regulierung betroffen. Der AI Act sieht vor, dass KI-Anwendungen auf ihr Risiko hin bewertet werden: KI für biometrische Gesichtserkennung in Echtzeit oder Social Scoring würde als nicht hinnehmbares Risiko verboten. KI-Anwendungen etwa in der Medizin, der Justiz der Ausbildung oder in kritischer Infrastruktur gelten als „Hochrisiko-Anwendungen“, die stark reguliert werden. KI in Spamfiltern oder in Videospielen dagegen stellten ein niedriges Risiko dar und müssten lediglich einen selbst auferlegten Verhaltenskodex befolgen.

GPAI fiele möglicherweise irgendwo dazwischen. Den Plänen des AI Acts zufolge könnte das bedeuten, dass die Anbieter sowohl Transparenz über ihre Algorithmen schaffen als auch einer Konformitätsprüfung standhalten müssten. Die Anbieter müssten stärkere Vorgaben bei der Entwicklung der KI-Anwendungen befolgen, um etwa Diskriminierung und Bias in Trainingsdaten zu vermeiden, und könnten bei nachweislichen Verstößen verklagt werden.

Damit es gar nicht so erst weit kommt, versuchen Lobbyisten die Allzweck-KI wieder aus dem Entwurf zu entfernen oder zumindest die Verantwortung von den Entwicklern der KI-Modelle auf die Anbieter der Anwendungen weiter unten in der Wertschöpfungskette abzuwälzen, heißt es in der Untersuchung von Corporate Europe.

So habe Microsoft im Herbst 2022 in einem Brief an den Vorsitz im EU-Rat dafür plädiert, dass es "nicht erforderlich sei, dass das KI-Gesetz einen speziellen Abschnitt über allgemeine KI enthält". In einem Schreiben von Google zeige sich das Unternehmen besorgt darüber, "dass Mitgesetzgeber zu viele neue Kriterien für die Gefährdungsbeurteilung" hinzufügen könnten und die GPAI-Anbieter in diesem Fall die größte Last tragen würden.

Auch auf indirektem Wege üben die Techfirmen Druck auf die EU-Abgeordneten aus. Der Lobbyverband BusinessEurope etwa warnte davor, dass eine harte Regulierung von Allzweck-KI der "Logik des risikobasierten Ansatzes" trotze. Der Interessenverband Business Software Alliance (BSA), der 1988 von Microsoft gegründet wurde und zu dessen Mitgliedern zahlreiche Techfirmen gehören, argumentierte, das die Pläne für GPAI die KI-Entwicklung in Europa und Innovation gefährde. Dem Brief schloss sich der Verband Allied for Start-ups an, zu dessen Sponsoren unter anderem Microsoft, Google und Meta gehören. Wie Corporate Europe schreibt, hätten die Branchenführer zudem versucht, kleinere europäische Techfirmen dazu zu bringen, den Brief zu unterstützen.

Unterstützung erhalten die Lobbyisten offenbar auch von der US-Regierung. Dort versuchen die Lobbyverbände schon länger, mögliche staatliche Regulierung abzuwenden und stattdessen auf Selbstverpflichtung der Unternehmen zu pochen. In einem "non-paper" wandte sich die US-Regierung im September 2022, etwa zur gleichen Zeit wie Microsoft und Google, an den EU-Rat und äußerte Bedenken über eine "über-inklusive" Definition von KI und fehlende Klarheit über Kriterien für Anwendungen mit hohem Risiko und die Probleme von Allzweck-KI. Die vorgeschlagenen Pflichten für GPAI-Anbieter "wären sehr aufwendig, technisch schwierig, und in manchen Fällen unmöglich", hieß es weiter.

Die Vertreter von Corporate Europe warnen indes: Eine Ausgliederung für GPAI würde nicht nur ein "riesiges Loch" in der KI-Regulierung öffnen, schreiben sie. Es würde auch die US-Technologiegiganten davor schützen, Probleme wie Voreingenommenheit und Toxizität anzugehen und gleichzeitig die Verantwortung und strengere Compliance-Verpflichtungen auf europäische Anbieter abwälzen.

Obwohl der AI Act wohl noch einige Jahre in der Zukunft liegt, zeigen die Bemühungen hinter den Kulissen, wie wichtig das Thema für die Techbranche ist und wie diese versucht, drohende Regulierung zu umschiffen, weil sie diese als Gefahr für ihr Geschäftsmodell der Zukunft sehen. Parallel haben einige US-Techfirmen, darunter aber auch die chinesische Videoapp TikTok, kürzlich für sich ein neues Regelwerk bezüglich generativer KI unterzeichnet. In dem verpflichten sie sich zu Richtlinien, wie KI-generierte Inhalte künftig verantwortungsvoll entwickelt, erstellt und verbreitet werden könnten.

(jle)