Darstellungen von Kindesmissbrauch bei Mastodon gefunden

Wissenschaftler haben in zwei Tagen mehr als 600 Missbrauchsdarstellungen von Kindern auf Mastodon gefunden. Sie stellen den dezentralen Ansatz in Frage.

In Pocket speichern vorlesen Druckansicht 161 Kommentare lesen
Portland,,Or,,Usa,-,Nov,8,,2022:,Mastodon,Logo,Is

(Bild: Tada Images/Shutterstock.com)

Lesezeit: 2 Min.

"Wir haben in zwei Tagen mehr PhotoDNA-Treffer gefunden als jemals zuvor in der Geschichte unserer Organisation in einer solchen Zeitspanne." Das hat David Thiel der Washington Post gesagt. Der Wissenschaftler war an einer Studie beteiligt, bei der nach Darstellungen von sexuellem Missbrauch von Kindern auf Mastodon gesucht wurde. PhotoDNA ist eine Art Technik, um solche Fotos zu identifizieren und zu finden. Die Ergebnisse würden infrage stellen, wie und ob man Sicherheit auf einem dezentralen Netzwerk herstellen kann.

Nur fünf Minuten soll es gedauert haben, bis die Forscher des Stanford Internet Observatory die ersten strafbaren Daten gefunden haben. Zudem seien insgesamt 2000 benutzte Hashtags, die mit CSAM (Child Sexual Abuse Material) zusammenhingen, sowie fast 600 Teile bekanntes oder verdächtiges Material aufgefallen. Neben PhotoDNA, das unter anderem von Microsoft mitentwickelt wurde, ist auch Googles SafeSearch-API zum Einsatz gekommen. Mit ihnen habe man die 25 beliebtesten Mastodon-Instanzen untersucht.

Die 20 am häufigsten genutzten Hashtags, die mit CSAM zusammenhängen, wurden insgesamt 713 Mal in Beiträgen gefunden, die Medien enthielten. 1217 Beiträge mit diesen Hashtags beinhalteten nur Text, der allerdings auch zu anderen Seiten führte, auf denen mit den strafbaren Daten gehandelt wird. Thiel erklärt in der Washington Post: "Vieles davon ist nur das Ergebnis eines Mangels an Tools, das zentralisierte Social-Media-Plattformen verwenden können, um Bedenken hinsichtlich der Sicherheit von Kindern aus dem Weg zu räumen." Allerdings müssen sich auch Facebook, Tiktok und zuletzt vermehrt Twitter mit Vorwürfen auseinandersetzen, nicht genug gegen CSAM zu tun.

Der Vorteil einer dezentralen Plattform ist dabei zugleich ein Nachteil: Jede Instanz ist selbst für die Moderation der Inhalte verantwortlich. Manche Instanzbetreiber machen das in ihrer Freizeit. Sie kommen gegebenenfalls bei Missbrauch kaum hinterher oder entdecken diesen gar nicht erst. Die Autoren der Studie schlagen deshalb vor, Netzwerke wie Mastodon sollten den Moderatoren mehr Tools wie PhotoDNA an die Hand geben. Laut Washington Post hat Mastodon nicht auf eine Anfrage zu den Vorwürfen reagiert – wen genau sie kontaktiert haben, ist unklar.

(emw)