Tiktoks Algorithmus könnte Haftung für gefährliche Videos auslösen

Tiktok empfahl einer 10-Jährigen eine gefährliche "Challenge". Das Kind starb. Der Haftungsschutz für fremde Inhalte schützt Tiktok nicht, sagt ein US-Gericht.​

In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen
Sechs Personen mit jeweils einem Smartphone stehen im Kreis, so dass sich die Smarpthones der Kreismitte annähern

(Bild: Shutterstock.com/ View Apart)

Lesezeit: 9 Min.
Inhaltsverzeichnis

Tiktok kann grundsätzlich für Entscheidungen seiner Algorithmen zur Verantwortung gezogen werden. Das sagt das US-Bundesberufungsgericht für den dritten Bundesgerichtsbezirk, und bezieht sich dabei auf eine Zensur-Entscheidung des US Supreme Court vom 1. Juli. Der Tenor: Stellt ein Algorithmus fremde Inhalte so zusammen, dass die Zusammenstellung zu einer eigenständigen Äußerung wird, ist diese Äußerung dem Betreiber des Algorithmus zuzurechnen, auch wenn die Inhalte selbst nicht von ihm stammen. Ein anderes US-Bundesberufungsgericht (9. Bezirk) hat einen weiteren Weg gefunden, Betreiber von Online-Diensten für fremde Inhalte haftbar zu machen.

Update

Gerichtsdokumente am Ende des Artikels zum Download bereitgestellt

Der Anlass für den Fall im dritten Bundesgerichtsbezirk ist ein trauriger: Der Tod eines zehnjährigen Kindes. Obwohl Tiktok ein Mindestalter von dreizehn Jahren vorsieht, nutzte das Kind die chinesische Videoapp. Deren Algorithmus empfahl auf der "For You Page" ein Video, das eine lebensgefährliche Aufforderung ("Blackout Challenge") enthielt: Nutzer mögen sich doch bitte dabei filmen, wie sie sich so lange selbst strangulieren, bis sie das Bewusstsein verlieren. Das Kind folgte leider der Aufforderung und überlebte nicht. Nun möchten Nachlass des Kindes sowie seine Mutter Tiktok und dessen Mutterfirma Bytedance vor einem US-Bundesbezirksgericht verklagen. Das Bezirksgericht lehnte das ab, doch das Bundesberufungsgericht legt das Recht anders aus und schickt den Fall zurück an die erste Instanz.

Knackpunkt ist wieder einmal die berühmte Section 230, Teil des US-Bundesgesetzes Telecommunications Act of 1996. Sie verleiht Immunität für Inhalte, die Betreiber interaktiver Kommunikationsdienste nicht selbst bereitstellen, sondern die von Dritten gepostet werden (mit Ausnahmen, die hier nichts zur Sache tun). Das Lehrbuchbeispiel ist ein Webhoster, der nicht für jede Dummheit zur Verantwortung gezogen werden soll, die seine Kunden auf ihren eigenen, gehosteten Webseiten verbreiten.

Section 230(c)(1)​

No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.

Einen Zwang, fremde Inhalte zu verbreiten, gibt es im US-Bundesrecht nicht. Dieses Problem war sogar der Auslöser für Section 230: Ein Forenbetreiber entfernte grundsätzlich Postings, die nicht jugendfrei waren; ein Richter erblickte darin die Grundlage dafür, den Betreiber für alle nicht gelöschten Postings haften zu lassen. Der Gesetzgeber reagierte mit Section 230, um Hostingdienste verfügbar und leistbar zu halten und nicht dazu zu zwingen, Zensurpolizei zu spielen.

Undeutlich ist allerdings die Grenze zwischen Verbreitung fremder Inhalte und dem Dienstbetreiber selbst zuzurechnender Äußerungen. Für eigene Aussagen muss man natürlich einstehen. Die US-Staaten Texas und Florida möchten große Onlinedienste per Gesetz dazu zwingen, auch solche Inhalte zu verbreiten, die sie nicht verbreiten wollen. Löschungen von Postings wären genauso illegal, wie deren reduzierte Verbreitung. Selbst Maßnahmen zum Schutz von Kindern wären den Betreibern aus eigener Veranlassung untersagt. Verboten wäre zudem die Belohnung oder Bevorzugung bestimmter Postings.

Aus Sicht des US Supreme Court dürften diese Staatengesetze gegen Zensur selbst Zensur sein. Demnach haben Betreiber von Onlinediensten das Recht, zu entscheiden, was sie wie anzeigen und was nicht, selbst wenn die Beiträge selbst von Dritten stammen. Denn diese Auswahlentscheidungen seien für sich genommen Ausdruck einer Meinung, selbst wenn nur ganz wenige Beiträge gesperrt würden. Der Betreiber bringe dann eben zum Ausdruck, welche Inhalte er ablehne, erläuterte das Höchstgericht am 1. Juli. Und der erste Zusatzartikel der US-Verfassung verbrieft das Recht auf Meinungsäußerungen, in das Staatengesetze so wohl nicht eingreifen dürfen.

Darauf bezieht sich nun das US-Bundesberufungsgericht für den neunten Bundesgerichtsbezirk: Setzt ein Betreiber Algorithmen ein, die selbst etwas Aussagen ("expressive algorithms"), muss der Betreiber für diese Entscheidungen haften. Section 230 schützt nämlich nur vor der Haftung für fremde Aussagen. Anders verhält es sich demnach bei Algorithmen, die auf Grundlage von Nutzereingaben oder früherem Nutzverhalten Auswahlentscheidungen treffen; klassisches Beispiel sind Suchfunktionen, bei denen der Nutzer selbst gewählte Suchbegriffe eingibt. Für daraus folgende Ausgaben verleiht Section 230 aus Sicht des Gerichts durchaus Schutz.

Da die Klägerin behauptet, dass Tiktoks Algorithmen zu ersterer Sorte zählen, darf das Bundesbezirksgericht die Klage nicht zurückweisen, sagt das Bundesberufungsgericht. Also schickt es den Fall zurück; das Bezirksgericht muss also klären, ob der Vorschlag des gefährlichen Videos auf der For You Page Ausfluss früherer Eingaben des Kindes war, oder einem wertenden Algorithmus entspringt, für den Tiktok haften könnte. Erst dann kann das Bezirksgericht entscheiden, ob Section 230 die Klage tatsächlich ausschließt. Das Bundesberufungsgericht gesteht dabei zu, dass viele andere US-Gerichte Section 230 deutlich weiter ausgelegt haben, zugunsten des Haftungsschutzes für Onlinedienste.