Was Anbieter großer Sprachmodelle künftig in der EU beachten müssen

Laut AI Act greifen ab kommendem Jahr Offenlegungs- und Sicherheitspflichten der Anbieter, aber geltende Datenschutzvorschriften verursachen Rechtsunklarheit.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
, KI, Collage c’t

(Bild: KI, Collage c’t)

Lesezeit: 16 Min.
Von
  • Holger Bleich
Inhaltsverzeichnis

Niemand hat die kalifornische Ideologie so gut auf den Punkt gebracht wie Facebook-Gründer Mark Zuckerberg: Sein 2012 zum Börsengang formuliertes Motto "move fast and break things" beschreibt rückblickend treffend die Geschichte des Weltkonzerns Meta. Im Silicon Valley und in San Francisco behauptet man oft, besser als Regierungen und Gerichte zu wissen, was gut für die Menschen ist; und maximiert nebenbei den eigenen Profit. Facebook stieg in den Nullerjahren auch deshalb zum marktbeherrschenden sozialen Netzwerk auf, weil das Unternehmen jede Menge Regeln gebrochen hat, beispielsweise Datenschutzvorschriften. Viele dieser Verstöße blieben ohne negative Folgen für das Unternehmen.

Im Jahr 2022 ereignete sich ein ähnlicher kalifornischer Moment wie einstmals die Vorstellung des iPhones 2007: Das Unternehmen OpenAI in San Francisco gab die Webversion seines KI-Bots ChatGPT frei, und die Welt staunte ob der Fähigkeiten des zugrundeliegenden Sprachmodells GPT. Das Wettrennen um die leistungsfähigsten Modelle war eröffnet. Google und Meta sprangen umgehend auf den KI-Hypetrain auf, während Skeptiker erste Fragen nach Ethik und Datenschutz stellten.

c't kompakt
  • Die neue KI-Verordnung der EU enthält jede Menge Pflichten für Anbieter und gewerbliche Nutzer von Sprachmodellen, die im August 2025 wirksam werden.
  • KI-Modelle mit allgemeinem Verwendungszweck stellen für Gesellschaft und Nutzer "systemische Risiken" dar, die der Gesetzgeber minimieren will.
  • Wie das Datenschutzrecht auf KI-Modelle anzuwenden ist, ist derzeit unklarer den je.
Mehr zu Recht, Verbraucher- und Datenschutz

Diesmal, so viel scheint klar, will die europäische Politik beim Tempo der potenziellen Kaputtmacher mithalten und ihnen Grenzen setzen, bevor allzu viel zu Bruch geht. Doch wie soll das funktionieren, ohne Innovationen abzuwürgen? Eine erste Antwort auf diese Frage glaubt die EU mit dem AI Act (KI-Verordnung, KI-VO) gefunden zu haben, dem weltweit ersten Gesetz zur Regulierung von Entwicklern und Anbietern künstlicher Intelligenz. Man stelle mit der Verordnung sicher, "dass KI-Systeme die Grundrechte, die Sicherheit und die ethischen Grundsätze achten", behindere aber nicht "die Investitionen und die Innovation im Bereich KI in der gesamten EU". So stellt es die EU-Kommission dar.

Das war die Leseprobe unseres heise-Plus-Artikels "Was Anbieter großer Sprachmodelle künftig in der EU beachten müssen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.