Wettbewerb gefährdet: US-Handelsaufsicht nimmt KI-Sprachmodelle ins Visier

OpenAI, Google & Co., die ihre KI-Modelle mit Daten von Nachrichtenseiten und anderen geschützten Werken trainieren, könnten gegen das Kartellrecht verstoßen.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen

(Bild: JINOLD/Shutterstock.com)

Lesezeit: 3 Min.

Die Federal Trade Commission (FTC) untersucht die Art und Weise, wie Unternehmen wie OpenAI, Google, Meta & Co. ihre großen Sprachmodelle ertüchtigen. Firmen, die ihre Systeme für generative Künstliche Intelligenz (KI) wie ChatGPT, Gemini oder LLaMA mit Daten etwa von Nachrichten-Webseiten, Schöpfungen von Künstlern und anderen geschützten Werken oder persönlichen Informationen von Online-Nutzern trainieren, könnten gegen das Kartellrecht verstoßen, erklärte die Vorsitzende der US-Handelsaufsicht, Lina Khan, am Mittwoch auf dem "Future of Everything Festival" des Wall Street Journals in New York City. Die große Frage sei, ob die dafür übliche massive Datenextraktion ("Data Scraping") den Wettbewerb behindere oder die Privatsphäre der Menschen verletze.

Die Hauptsatzung der Behörde, der FTC Act, verbiete unlautere Wettbewerbsmethoden und unfaire oder irreführende Handlungen sowie Praktiken allgemein, konstatierte Khan auf der Konferenz, über die unter anderem das Portal The Hill berichtet hat. Jeder könne sich einfach ausmalen, "dass es in manchen Fällen ein Problem sein dürfte", wenn Inhalte oder Informationen einer Person oder eines Betriebs "ausgenutzt und dann dazu verwendet werden, mit ihnen zu konkurrieren, sie vom Markt zu verdrängen und ihre Geschäfte zu untergraben". Das wäre eine ungerechtfertigte Wettbewerbsmethode. Anlass zur Sorge sei auch, dass Unternehmen die Daten von Personen ohne deren Wissen oder Zustimmung verwendeten. Dies werfe ebenfalls rechtliche Probleme auf.

Es gibt Khan zufolge zudem massive Bedenken aufgrund von Täuschung und unlauterem Verhalten, wenn KI-Diensteanbieter bei der Anmeldung zahlreiche Zusicherungen machten, "dann aber heimlich oder stillschweigend die Daten verwenden, die Sie ihnen zur Verfügung stellen". Dabei könnte es sich um sensible persönliche Informationen genauso handeln wie Geschäftsgeheimnisse oder andere wettbewerbsrelevanten Daten. Diese würden dann teils verwendet, um die Sprachmodelle zu füttern und dann wieder "mit Ihnen zu konkurrieren oder ihre Privatsphäre zu missbrauchen". User beschwerten sich ferner darüber, dass einschlägige Unternehmen ihre Geschäftsbedingungen rückwirkend änderten, um sich selbst "die Nutzung von Kundeninhalten –einschließlich persönlicher Fotos oder Familienvideos – zur Einspeisung in ihre KI-Modelle zu gestatten".

Das ist für die FTC-Leiterin der Punkt, an dem die Leute ihre Grundrechte verletzt sähen, da sie nicht mehr um Zustimmung gebeten würden. Dazu komme das Gefühl, es gebe kein Zurück und keine Handhabe mehr dagegen. "Einige dieser Dienste sind für die Bewältigung des Alltags unerlässlich", betonte Khan. Die Leute würden quasi vor die "Wahl" gestellt, sich "endlos" überwachen zu lassen im Dienste der KI oder solche Services gar nicht mehr verwenden zu können. Das sei "eine wirklich schwierige Situation" für die Verbraucher.

Khan geht so davon aus, dass viele Behörden bei der weiteren Entwicklung der KI eine wichtige Rolle übernehmen müssten. Auch in Washington werde zunehmend anerkannt, "dass wir uns als Regierung nicht einfach völlig zurückhalten und aus dem Weg gehen können". Die EU ist mit dem AI Act bei der Regulierung von KI bereits viel weiter vorangeschritten. Bislang galt die Datenextraktion für große Sprachmodelle vor allem als Fall für das Urheberrecht. So haben etwa die New York Times und andere US-Medien OpenAI wegen Copyright-Verletzungen verklagt. Nun geraten die Betreiber zusätzlich zunehmend ins Blickfeld der Kartellbehörden.

(bme)