Wie die EU beim Vorgehen gegen Kindesmissbrauch den Datenschutz aushebelt

Vertrauliche Kommunikation gilt in der EU als Grundrecht. Gegen Kindesmissbrauch erlaubt die EU Anbietern sogar die automatische Kontrolle von Inhalten.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht

(Bild: Composing | Quellen: Nichizhenova Elena, WALL-E | stock.adobe.com)

Lesezeit: 11 Min.
Von
  • Holger Bleich
  • Joerg Heidrich
Inhaltsverzeichnis

Eigentlich ist es kaum zu glauben: Betreiber von Cloudspeicher- oder Kommunikationsdiensten dürfen vorauseilend alle Inhalte ihrer Kunden automatisiert daraufhin untersuchen, ob sich darunter Darstellungen von Kindesmissbrauch (CSAM, Child Sexual Abuse Material) befinden könnten. Und nicht nur das: Es ist ihnen sogar gestattet, vermeintliche oder tatsächliche Treffer an Dritte zu melden, ohne ihre Kunden darüber zu informieren. Diese Rechtslage gilt derzeit in allen Staaten der Europäischen Union.

Das steht im Gegensatz zu allem, was der EU nach eigener Darstellung heilig ist. Denn kaum zu bestreiten handelt es sich bei der Erlaubnis für Inhalte-Scans um einen massiven Eingriff in das Fernmeldegeheimnis und die Kommunikationsfreiheit der EU-Bürger, deren Rechte sowohl in Art. 10 des deutschen Grundgesetzes als auch europaweit in Art. 7 der EU-Grundrechtecharta festgeschrieben sind. An diesen elementaren Rechten orientiert sich die gesamte deutsche und EU-Gesetzgebung auch im datenschutzrechtlichen Bereich. Ein besonderes Augenmerk galt dabei zuletzt automatisierten Datenverarbeitungen, bei denen der Betreiber Algorithmen und KI einsetzt.

Nachlesen kann man dies beispielsweise in der 2016 verabschiedeten EU-Datenschutz-Grundverordnung (2016/679, DSGVO). Im Artikel 22 heißt es sehr deutlich: "Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt."