Section 230: KI löst neuen Streit über US-Norm für Meinungsfreiheit aus​

Google startet mit KI-generierten Antworten auf Suchen. Damit könnte die Haftungsfreistellung aus Abschnitt 230 Communications Decency Act verloren gehen.​

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Eine Lupe vor der Google-Suche auf einem Bildschirm

(Bild: Shutterstock)

Lesezeit: 4 Min.

Vorige Woche hat Google angekündigt, die eigene elementare Suchfunktion mit Funktionen auf Basis von Künstlicher Intelligenz (KI) zu erweitern. Mit "AI Overview" sollen gegebenenfalls KI-generierte Antworten zu den gängigen Trefferlisten dazukommen. Damit geht der US-Konzern eine riskante Wette ein, geben Experten zu bedenken. Denn wie viele andere Unternehmen ist Google ist seit Jahren durch Abschnitt 230 des Communications Decency Act (CDA) vor der Haftung geschützt, wenn Nutzer in den Ergebnissen auf Links zu schlechten, schädlichen oder illegalen Informationen stoßen. Juristen warnen nun, dass dieser Schutzschild wegfallen dürfte, wenn Googles KI-Modell Gemini Suchfragen direkt beantwortet.

"Wie wir alle wissen, halluzinieren generative KIs", erklärte James Grimmelmann, Professor für Digital- und Informationsrecht an der Cornell Law School, mit Blick auf erfundene Informationen gegenüber der Washington Post. "Wenn Google also eine generative KI verwendet, um zusammenzufassen, was Webseiten sagen, und die KI etwas falsch macht, ist Google nun die Quelle der schädlichen Informationen" – und nicht nur deren Verbreiter. Der Suchmaschinenriese habe sich traditionell der rechtlichen Verantwortung entzogen, indem er Antworten auf bestimmte Quellen zurückführte. Das Problem dürfte aber auch anderen Betreibern Sorgen machen. So liefert etwa Microsofts Suchmaschine Bing über Copilot ebenfalls KI-generierte Antworten, was die EU-Kommission auf den Plan gerufen hat. Meta ist dabei, die Suchleiste in Facebook, Instagram und WhatsApp durch einen eigenen KI-Chatbot zu ersetzen.

Adam Thierer von der liberalen Denkfabrik R Street befürchtet, dass Innovationen gedrosselt werden könnten, wenn der US-Kongress Section 230 nicht auf KI-Instrumente erweitert. "Da KI zunehmend in verbraucherorientierte Produkte integriert wird", werde parallel die Unklarheit über die Haftung für Entwickler und Investoren steigen, prognostizierte er gegenüber der Zeitung. Besonders problematisch sei das für kleine Firmen und Open-Source-Entwickler, die unter leichtfertig vorgebrachten Rechtsansprüche besonders litten.

John Bergmayer von der Bürgerrechtsorganisation Public Knowledge betonte dagegen, dass KI-Antworten viele Verlage und Kreative, die zum Überleben auf Suchverkehr angewiesen sind, ins Verderben führen könnte. Dies wäre wiederum schlecht für generative KI, da diese glaubwürdige Informationen brauche. Daher könnte eine Haftungsregelung, die Suchmaschinen dazu bringe, weiterhin Nutzer auf Websites Dritter zu führen, vorteilhaft sein.

Abschnitt 230 CDA gilt als grundlegende Norm für die Meinungsfreiheit im Netz weltweit. Er schützt Online-Plattformen allgemein davor, wegen schädlicher Inhalte verklagt zu werden, die Nutzer auf ihren Seiten veröffentlichen. Der Paragraf gibt ihnen auch weitreichende Möglichkeiten zum eigenständigen Filtern und Löschen von Content, ohne dass sie dafür haftbar gemacht werden können. In den vergangenen Jahren unternahm die US-Regierung insbesondere unter Ex-Präsident Donald Trump mehrfach Anläufe, die Klausel umzuformulieren. Nun haben mit Cathy McMorris Rodgers und Frank Pallone Jr. führende Politiker von den Republikanern und Demokraten einen Gesetzentwurf in den Energie- und Handelsausschuss des Repräsentantenhauses eingebracht, der Abschnitt 230 binnen 18 Monaten außer Kraft setzen würde. In dieser Zeit soll der Kongress einen neuen Haftungsrahmen erarbeiten und damit auch die Big-Tech-Macht eindämmen.

Die Bestimmung habe dazu beigetragen, den Weg für soziale Medien und das moderne Internet zu ebnen, argumentieren die Drahtzieher der Initiative, zu der es am Mittwoch eine Anhörung im federführenden Ausschuss geben wird. Inzwischen habe sich die Nützlichkeit der Klausel aber "überlebt". Das Vorhaben basiere auf "einer Reihe falscher Annahmen und grundlegender Missverständnisse", hält die Electronic Frontier Foundation (EFF) dagegen. Abschnitt 230 schütze weniger große Internetkonzerne als vielmehr "einzelne Blogger, jeden, der eine E-Mail weiterleitet, und Social-Media-Nutzer, die jemals den Inhalt einer anderen Person online erneut geteilt" haben. Ferner biete das aktuelle Gesetz großen und kleinen Webseiten und Apps einen starken Anreiz, "ihre sich am schlechtesten verhaltenden Nutzer rauszuschmeißen, anstößige Inhalte zu entfernen und im Falle illegalen Verhaltens mit den Strafverfolgungsbehörden zusammenzuarbeiten". Auch der Digitalverband NetChoice, dem Google, Meta und X gehören, warnt: Die Abschaffung von Section 230 würde "kleine Technologieunternehmen dezimieren" und die freie Meinungsäußerung im Internet untergraben.

(are)