Kindesmissbrauch: 'Stop CSAM Act' in USA würde E2E-Verschlüsselung untergraben

In den USA ist nun ebenfalls ein Gesetz zum schärferen Kampf gegen Darstellungen sexuellen Kindesmissbrauchs geplant. Kritiker fürchten um die Privatsphäre.

In Pocket speichern vorlesen Druckansicht 50 Kommentare lesen
Women's,Hand,Typing,On,Mobile,Smartphone,,Live,Chat,Chatting,On

(Bild: oatawa/Shutterstock.com)

Lesezeit: 4 Min.

Der Mehrheitsführer im US-Senat, Dick Durbin von den Demokraten, will den Kampf gegen Darstellungen sexuellen Kindesmissbrauchs verschärfen. Er hat dazu unter der Woche einen Entwurf für einen Strengthening Transparency and Obligation to Protect Children Suffering from Abuse and Mistreatment Act in die Kammer des US-Kongresses eingebracht. Der Stop CSAM Act aus der Regierungsfraktion zielt darauf ab, "Child Sexual Abuse Material" (CSAM) effektiver aus dem Internet zu entfernen. Anbieter von Online-Diensten würden sich damit strafbar machen, wenn sie Missbrauchsdarstellungen "wissentlich hosten oder speichern" oder die "sexuelle Ausbeutung von Kindern, einschließlich der Erstellung von CSAM, auf ihren Plattformen wissentlich fördern oder erleichtern".

Die Initiative geht zwar nicht so weit wie die Vorschläge zur Chatkontrolle in der EU und für das Online Safety Bill in Großbritannien. Damit sollen Provider dazu verdonnert werden, die Durchsuchung privater Nachrichten auch bei Ende-zu-Ende-verschlüsselter Kommunikation wie bei WhatsApp, Signal und Threema zu ermöglichen. Der US-Gesetzesentwurf öffnet aber die Tür für zivilrechtliche Klagen gegen Dienstleister wegen fahrlässiger "Förderung oder Erleichterung" von Handlungen im Zusammenhang mit der Ausbeutung von Kindern, dem "Hosten oder Speichern von Kinderpornografie" oder der "Bereitstellung" solchen Materials für Dritte. Die US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) moniert, diese Fassung sei so breit und vage, dass sie ebenfalls Ende-zu-Ende-Verschlüsselung unterliefe.

Neue straf- und zivilrechtliche Ansprüche gegen Anbieter, die auf weit gefassten Begriffen und niedrigen Standards beruhen, "wird die digitale Sicherheit für alle Internetnutzer untergraben", führt die EFF aus. Da die Verbreitung von Missbrauchsdarstellungen schon gesetzlich verboten sei, könnte der Stop CSAM Act so ausgelegt werden, dass er auch "passives Verhalten wie die bloße Bereitstellung einer verschlüsselten App" erfasse. Anbieter kryptografisch abgesicherter Dienste, die eine Abmahnung erhalten, hätten im Sinne des Strafrechts "Kenntnis" von einer potenziellen Straftat, selbst wenn sie eine solche Löschaufforderung nicht überprüfen und daraufhin reagieren könnten. Anwälte von Klägern dürften so argumentieren, dass die bloße Bereitstellung eines verschlüsselten Dienstes, der zur Speicherung beliebiger Bilder - nicht notwendigerweise CSAM - verwendet werden kann, die Weitergabe illegaler Inhalte fördert.

Schon nach geltendem US-Recht müssen Dienstleister, die tatsächliche Kenntnis von potenziellen Missbrauchsdarstellungen auf ihren Plattformen haben, diese an das National Center for Missing and Exploited Children (NCMEC) melden. Dieses leitet dann einschlägige Untersuchungsberichte an Strafverfolgungsbehörden etwa auch in Europa weiter. Der Stop CSAM Act geht noch deutlicher weiter. Er soll für "interaktive Computerdienste" gelten, was etwa private Messaging- und E-Mail-Apps, Social-Media-Plattformen wie Facebook, Instagram und Twitter, Cloud-Speicheranbieter und viele andere Internetvermittler und Online-Dienstleister einschließt.

Der enthaltene neue zivilrechtliche Anspruch sieht auch eine Ausnahme von Abschnitt 230 des Communication Decency Act (CDA) vor, der als grundlegende Norm für die Meinungsfreiheit im Netz gilt. "Section 230" bietet Providern teilweise Immunität für nutzergenerierte Inhalte. Wenn Anbieter künftig wegen "Erleichterung" der sexuellen Ausbeutung von Kindern verklagt werden könnten, nur weil sie eine Plattform zum Teilen von Inhalten zur Verfügung stellen, gefährde dies laut der EFF "die freie Meinungsäußerung im Internet". Zudem soll ein "Notice-and-Takedown"-System eingeführt werden, das von einem neu geschaffenen Gremium für den Schutz von Kindern im Netz überwacht wird. Dieses könnte Anbieter dazu verpflichten, Inhalte zu entfernen oder zu deaktivieren, bevor eine unabhängige Behörde oder ein Gericht darüber entschieden hätten.

(tiw)