Warum Gerichte die amerikanischen KI-Regeln diktieren könnten

Die US-Politik scheint sich nicht darauf einigen zu können, Künstliche Intelligenz zu regulieren. Zeit für die Tech-Juristen?

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Generiert mit Midjourney durch MIT Technology Review)

Lesezeit: 11 Min.
Von
  • Melissa Heikkilä
Inhaltsverzeichnis

Nach und nach wird deutlich, dass in den USA wohl nicht die Politik die Künstliche Intelligenz regulieren wird, sondern die Gerichte. Kürzlich hat die Handelsaufsicht Federal Trade Commission (FTC) zwar eine Untersuchung eingeleitet, ob OpenAI gegen Verbraucherschutzgesetze verstoßen hat, indem es die Online-Daten von Menschen auswertete, um seinen beliebten KI-Chatbot ChatGPT zu trainieren. Doch dieses Verfahren wird wohl vor einem Richter enden. Bereits klar ist, dass Künstler, Autoren und Bildagenturen wie Getty Anwälte bemühen. Diese Gruppe geht nun gegen KI-Firmen wie OpenAI, Stability AI und Meta vor, weil sie angeblich beim Training ihrer Modelle gegen das Urheberrecht verstoßen haben.

Sollten sich diese Klagen als erfolgreich erweisen, könnten sie OpenAI, Meta, Microsoft und Co. dazu zwingen, die Art und Weise, wie KI programmiert, trainiert und eingesetzt wird, so zu ändern, dass sie fairer und gerechter ist – so zumindest die Hoffnung. Gerichte könnten zudem neue Wege für Künstler, Autoren und andere Kreative schaffen, Lizenzen oder Tantiemen zu erhalten, wenn ihre Werke für das Training zum Einsatz kommen.

Eigentlich hatte der Boom der generativen KI-Systeme den Enthusiasmus der amerikanischen Politik für die Verabschiedung von KI-spezifischen Gesetzen wiederbelebt. Angesichts eines gespaltenen US-Kongresses und der intensiven Lobbyarbeit der Technologiekonzerne gilt es jedoch als unwahrscheinlich, dass bereits im nächsten Jahr reguliert wird, meint Ben Winters, Senior Counsel beim Netzbürgerrechts-NGO Electronic Privacy Information Center (EPIC). Selbst der prominenteste Versuch, neue KI-Gesetze zu schaffen, das "SAFE Innovation Framework" von Senator Chuck Schumer, enthalte keine konkreten politischen Vorschläge.

"Es scheint, dass der einfachere Weg [zu einem KI-Regelwerk] darin besteht, mit den bestehenden Gesetzen zu starten", sagt auch Sarah Myers West, die Geschäftsführerin des AI Now Institute, einer KI-Forschungseinrichtung. Und das bedeutet Rechtsstreitigkeiten – in allen Bereichen. Und die bestehenden Gesetze liefern denjenigen, die behaupten, ihre Rechte seien durch KI-Unternehmen verletzt worden, tatsächlich reichlich Munition.

Im vergangenen Jahr wurden erste KI-Firmen von einer Welle von Klagen getroffen, zuletzt von Comedian und Autorin Sarah Silverman, die behauptet, OpenAI und Meta hätten ihr urheberrechtlich geschütztes Material illegal aus dem Internet entnommen, um ihre Modelle zu trainieren. Ihr Vorgehen ähnelt dem von Künstlern in einer anderen Sammelklage, die behaupten, dass beliebte KI-Software ihre urheberrechtlich geschützten Bilder ohne Zustimmung verwendet habe. Microsoft, OpenAI und das KI-gestützte Programmiertool Copilot von GitHub sehen sich ebenfalls mit einer Sammelklage konfrontiert, in der behauptet wird, dass das Produkt auf "Softwarepiraterie in einem noch nie dagewesenen Ausmaß" beruht, da sie auf vorhandenem, von bestehenden Websites abgeschöpftem Programmcode trainiert wird.

In der Zwischenzeit untersucht die FTC, ob die Datensicherheits- und Datenschutzpraktiken von OpenAI "unlauter und irreführend" sind und ob das Unternehmen den Verbrauchern beim Training seiner KI-Modelle womöglich Schaden zugefügt hat – einschließlich Rufschädigung. Sie habe echte Beweise, um ihre Bedenken zu untermauern, schreibt die FTC: OpenAI hatte Anfang des Jahres eine Sicherheitslücke, bei der ein Fehler im System dazu geführt hatte, dass Chatverläufe und sogar einzelne Zahlungsinformationen der Nutzer entfleucht waren. Hinzu kommt: KI-Sprachmodelle spucken oft ungenaue und erfundene Inhalte aus, manchmal auch über konkrete Menschen.

OpenAI steht der FTC-Untersuchung unaufgeregt gegenüber – zumindest in der Öffentlichkeit. Als das Unternehmen um einen Kommentar gebeten wurde, teilte es nur einen Twitter-Thread von CEO Sam Altman, in dem er sagte, das Unternehmen sei "zuversichtlich, dass wir den gesetzlichen Regeln entsprechen". Eine Behörde wie die FTC kann Unternehmen vor Gericht bringen, um Standards für eine Branche durchsetzen und bessere Geschäftspraktiken zu erreichen, sagt Marc Rotenberg, Präsident und Gründer des Center for AI and Digital Policy (CAIDP), einer gemeinnützigen Organisation zur KI-Politik. CAIDP reichte im März selbst eine Beschwerde bei der FTC ein und forderte sie auf, gegen OpenAI zu ermitteln. Die Behörde hat die Macht, neue Regeln ("Leitplanken") zu schaffen, die KI-Unternehmen vorschreiben, was sie tun dürfen und was nicht, sagt Myers West von AI Now.

Die FTC könnte OpenAI dazu verdonnern, Bußgelder zu zahlen, illegal erhobene Daten zu löschen und sogar die Algorithmen abschalten, die die illegal erhobenen Daten verwendet haben, sagt Rotenberg. Im extremsten Fall könnte ChatGPT sogar vom Netz genommen werden. Dafür gibt es sogar einen Präzedenzfall: Die Behörde zwang das Diätunternehmen Weight Watchers im Jahr 2022, Daten und Algorithmen zu löschen, nachdem es illegal Informationen von Kindern erhoben hatte.

Auch andere staatliche Stellen in den USA könnten durchaus Untersuchungen einleiten. Die auf den Bereich Finanzen spezialisierte Verbraucherschutzbehörde Consumer Financial Protection Bureau (CFPB) hat beispielsweise signalisiert, dass sie den Einsatz von KI-Chatbots im Bankwesen untersuchen will. Und sollte generative KI bei den bevorstehenden US-Präsidentschaftswahlen 2024 eine (entscheidende) Rolle spielen, könnte auch die Bundeswahlkommission Federal Election Commission (FEC) Untersuchungen anstellen, so Winters. In der Zwischenzeit dürften die Entscheidungen erster Klagen eintreffen, auch wenn es mindestens ein paar Jahre dauern wird, bis Sammelklagen und FTC-Untersuchung vor Gericht landen.

Viele der in diesem Jahr eingereichten Klagen könnten vor dem Richter als "zu weit gefasst" abgewiesen werden, fürchtet Mehtab Khan, Resident Fellow an der Yale Law School, der sich auf geistiges Eigentum, Data Governance und KI-Ethik spezialisiert hat. Aber sie dienten dennoch einem wichtigen Zweck. Die Anwälte werfen ein weites Netz aus und schauen, was sie fangen. Dies ermöglicht dann genauere Gerichtsverfahren, die Unternehmen dazu veranlassen könnten, die Art und Weise, wie sie ihre KI-Modelle entwickeln und nutzen, zu ändern, fügt die Expertin hinzu.

Die Klagen könnten Unternehmen auch dazu zwingen, ihre Praktiken bei der Dokumentation der verwendeten Daten zu verbessern, sagt Khan. Bislang haben die Technologieunternehmen nur eine sehr rudimentäre Vorstellung davon, welche Daten tatsächlich in ihre KI-Modelle einfließen. Mehr Transparenz könnte illegale Praktiken aufdecken, aber auch helfen, sich vor Gericht zu verteidigen.