OpenAI: US-Verbraucherschutzbehörde soll ermitteln, Italien sperrt ChatGPT
Die Federal Trade Commission wurde aufgefordert, wegen GPT-4 gegen OpenAI zu ermitteln. Italien lässt ChatGPT aufgrund von Datenschutzbedenken sperren.
- Silke Hahn
Eine gemeinnützige Forschungsorganisation hat die in den USA für Wettbewerbsrecht und Verbraucherschutz zuständige Federal Trade Commission (FTC) aufgefordert, gegen OpenAI Ermittlungen einzuleiten. Das Center for AI and Digital Policy (zu Deutsch etwa "Zentrum für KI und Digitalpolitik", kurz Policy Center) reichte diese Woche eine offizielle Beschwerde ein. Der zentrale Vorwurf darin lautet, dass OpenAIs Markteinführung von GPT-4 gegen US-amerikanisches Handelsrecht verstoße. Das Produkt täusche und gefährde Menschen, sei voreingenommen und stelle ein Risiko für das Privatleben sowie die öffentliche Sicherheit dar.
US-Bundesbehörde tritt wettbewerbsfeindlicher Praxis entgegen
In dem 46-seitigen Dokument fordert das Policy Center die Beamten der Bundesbehörde auf, die von OpenAI erstellten generativen KI-Systeme zu untersuchen und nötigenfalls einer Regulierung zu unterwerfen, das Schreiben ist öffentlich einsehbar. Die darin adressierte Federal Trade Commission ist eine unabhängig arbeitende Bundesbehörde mit Sitz in Washington, D.C. Ihre Befugnisse gehen über die Aufgaben einer Wettbewerbsbehörde hinaus, indem sie in den USA auch den Verbraucherschutz regelt.
Bei direkten Beschwerden von Konsumenten, Organisationen oder Firmen wird die Behörde gegen einzelne Unternehmen tätig. Auch auf Anfragen des Kongresses oder nach Veröffentlichungen in den Medien kann sie einschreiten. Ziel der Behörde ist, das Funktionieren eines von Konkurrenz bestimmten Marktes sicherzustellen und unfairen oder täuschenden, wettbewerbsfeindlichen Praktiken entgegenzutreten.
OpenAI warnt vor Risiken – ohne Haftung zu übernehmen
Desinformation und Manipulationskampagnen, die Verbreitung konventioneller und unkonventioneller Waffen sowie Cybersicherheit gelten als spezifische Gefahren, die OpenAI selbst anerkannt habe. Das KI-Unternehmen selbst warnte davor, dass KI-Systeme erhebliches Potenzial zum Verbreiten und Verfestigen von Ideologien, Weltanschauungen, Wahrheiten und Unwahrheiten besitzen. Besonders kritisch sieht das Policy Center, dass das OpenAI jegliche Haftung für Folgen und Schäden durch den Einsatz seines KI-Systems ausschließt.
Die US-Behörde hat den Einsatz künstlicher Intelligenz in Produkten an mehrere Bedingungen geknüpft: Transparenz, Erklärbarkeit, Fairness, ein empirisches Fundament und Nachvollziehbarkeit sowie klare Verantwortlichkeit (responsible accountability), wodurch sich sowohl eine Rechenschaftspflicht als auch Haftbarkeit im Schadensfall ergeben. Laut der Beschwerde erfülle GPT-4 keine dieser Bedingungen, daher sei es an der Zeit, dass die Behörde eingreife. Das Policy Center schlägt eine unabhängige Aufsicht und das Evaluieren kommerzieller KI-Produkte vor, die in den Vereinigten Staaten auf den Markt kommen. Zum Schutz von Verbrauchern, Unternehmen und dem Handel insgesamt seien Maßnahmen erforderlich, weitere Veröffentlichungen von KI-Produkten durch OpenAI seien zu unterbinden.
Das Center for AI and Digital Policy ist eine in Washington, D.C. ansässige nicht gewinnorientierte Forschungsorganisation, die ein weltweites Netzwerk von KI-Regulierungsexperten und Juristen aus 60 Ländern umfasst. Das Policy Center bietet fachliche Fortbildung für Entscheidungsträger im Bereich KI-Regulierung (future AI policy leaders). Die Organisation berät Regierungen der US-Bundesstaaten und internationale Organisationen bei Regulierungsentscheidungen zu KI und aufstrebenden (emerging) Technologien.
Lesen Sie auch
ChatGPT, Predictive Policing & Co.: Streit ĂĽber rote Linien in EU-KI-Verordnung
ChatGPT: Wie KI-Regulierungen der EU Grundrechtsverletzungen verhindern sollen
Kommentar zum AI Act: Es droht das Aus fĂĽr ChatGPT in der EU
Debatte um KI: Billige Polemik hilft nicht weiter
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
Gegen algorithmische Diskriminierung
Die US-Behörde hatte im Februar bereits vor Werbelügen mit KI gewarnt und Marktauftritte von Anbietern kritisch unter die Lupe genommen. Damals ermahnte sie Unternehmen, die in den USA Geschäfte treiben, die behördlichen KI-Leitlinien aus April 2023 ("Aiming for truth, fairness, and equity in your company's use of AI") zu beherzigen – und zwar bereits vor der Markteinführung neuer Produkte. Die US-Regierung hatte im Oktober 2022 die Blaupause für einen "US Bill of AI Rights" auf den Weg gebracht – perspektivisch eine Grundrechtecharta für das KI-Zeitalter, die Diskriminierung durch Algorithmen verhindern soll. Datenschutz und Erklärbarkeit gehören zu den darin festgelegten Prinzipien.
Beiden Dokumenten ist gemein, dass sie keine unmittelbare Gesetzeskraft haben, aber Vorbildwirkung entfalten sollen. Seit 2021 erarbeitet die Federal Trade Commission neue Vorgaben für Produkte und Dienstleistungen im IT-Sektor ("FTC Explores Rules Cracking Down on Commercial Surveillance and Lax Data Security Practices"). Ähnlich wie bei den gesetzgeberischen Verfahren in der EU rings um den bevorstehenden AI Act steht die Einschätzung und Klassifizierung von Risiken im Zentrum der entstehenden Gesetzgebung. Ein mögliches Verbot von KI-Anwendungen wie ChatGPT steht dabei im Raum.
Lesen Sie auch
Datenschutzbedenken: Italien will ChatGPT sperren
Italienische Datenschutzbehörde suspendiert ChatGPT
Italien hat ChatGPT "bis auf Weiteres" sperren lassen und OpenAI droht dort eine Millionenstrafe – aus Datenschutzgründen. Die italienische Datenschutzaufsicht Garante per la Protezione dei Dati Personali (kurz "Garante della privacy") ist weltweit die erste Behörde, die den Einsatz eines generativen KI-Chatbots unterbindet. Anlass für die restriktive Maßnahme war ein Sicherheitsproblem seitens OpenAI, wodurch am 20. März Chatverläufe und Zahlungsinformationen anderer Nutzer sichtbar wurden. Die massenhafte Speicherung und Nutzung personenbezogener Daten zu "Trainingszwecken" sei intransparent und stehe nicht in Einklang mit dem Schutz personenbezogener Daten in der EU. Auch fehle ein Altersfilter, um Minderjährige vor verstörendem Inhalt zu schützen. OpenAI hat nun offenbar drei Wochen Zeit, Schutzmaßnahmen zu implementieren und "das Problem in den Griff zu bekommen", hatte der Jurist und Datenschutzsachverständige Guido Scorza von der Behörde zweisprachig im eigenen Blog und gegenüber dem IT-Portal Wired mitgeteilt.
Wie Scorza gegenüber Wired erklärt, handelt es sich bei der Sperre um eine vorübergehende Maßnahme. Diese betrifft die Verarbeitung von personenbezogenen Daten. Sofern ChatGPT ohne personenbezogene Daten funktioniert, sei die weitere Verwendung kein Problem. Tatsächlich werde OpenAI den Zugang aus Italien zu seiner Software sperren oder zumindest auf Funktionen beschränken müssen, die keine personenbezogenen Daten enthalten. Wie lange es nach der Veröffentlichung des Beschlusses vom 30. März dauern kann, ist unbekannt – OpenAI ist der Aufforderung bereits nachgekommen und hat den Länderzugang Italiens zu ChatGPT gesperrt. Betroffene Nutzer erhalten zu viel bezahlte Beiträge für ChatGPT Plus zurückerstattet, und die Abbuchung von Folgelastschriften werde pausiert, heißt es in einem Schreiben an betroffene Nutzer in Italien. Allerdinngs ist es dem italienischen Staat nicht möglich, in Verbindungen über virtuelle private Netze (VPN) einzugreifen, die es ermöglichen, die Verbindung in andere Netze außerhalb Italiens zu leiten und so per Proxy die mögliche Sperrung zu umgehen. Der Beschluss ist zweisprachig (Italienisch und Englisch) im Dokumentenbereich der Garante della Privacy abrufbar.
Reale Risiken und Science-Fiktion-Szenarien
Ein Offener Brief schlägt in diesem Zusammenhang Wellen: Das vom Future of Life Institute veröffentlichte Manifest wirft die Frage nach den Risiken großer KI-Systeme auf und fordert ein Moratorium für mindestens sechs Monate. Über 1700 teils prominente Köpfe aus der KI- und Technikwelt unterstützen den Aufruf öffentlich. Die Fachwelt reagiert gespalten: Während manchen sechs Monate Unterbrechung der Arbeit an großen KI-Modellen nicht weit genug gingen, fordern andere statt einer Zwangspause Beschleunigung, um der Risiken Herr zu werden und den Vorsprung von OpenAI und GPT-4 aufzuholen.
In einem TIME-Kommentar zum Open Letter ging ein für KI-Kritik bekannter Alignment-Forscher so weit, dramatische Zustände auf die Zukunft zu projizieren, zur Zerstörung von KI-Rechenzentren durch Bombenabwürfe aufzurufen und das Tracking aller verkauften KI-tauglichen Grafikprozessoren vorzuschlagen – Eliezer Yudkowskys Ausführungen sind Science-Fiction-reif.
Gemäßigtere Stimmen, denen sowohl an Sicherheit als auch an Forschung und Wettbewerb liegt, finden sich vielleicht in einer Petition von LAION wieder, dem Large-scale Artificial Intelligence Open Network: Dessen Mitglieder schlagen ein CERN für KI-Forschung und das Training großer Open-Source-Modelle vor. Die Petition enthält eine lesenswerte forschungsgetriebene Begründung sowie Standpunkte und Gegenstandpunkte zur laufenden Diskussion über KI-Risiken. Die Auseinandersetzung mit den Argumenten beider Seiten könnte behilflich sein, selbst zu einer sachlichen Einschätzung zu kommen.
Lesen Sie auch
Kommentar: Wes Geistes KI? GroĂźe Sprachmodelle und das MachtgefĂĽge dahinter
GPT-4: "In einer Welt rasender KI-Entwicklung" – Fakten auf einen Blick
Kommentar von Kristian Kersting: Zeitenwende in der KĂĽnstlichen Intelligenz
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
Daten von ChatGPT zum Training von Bard genutzt – Google dementiert
OpenAI ist zwischenzeitlich der Aufforderung nachgekommen und hat ChatGPT für Italien gesperrt. Abschnitt zur Suspendierung von ChatGPT in Italien anhand italienischer Quellen erweitert. – CAIDP-Aufforderung an die Federal Trade Commission, wegen OpenAI zu ermitteln: Tweet des Policy Center mit neuen Hintergrundinformationen ergänzt.
(sih)