Nach Missbrauchsvideos: Pornhub schränkt Uploads und Downloads ein

Pornhub will stärker gegen illegale Inhalte auf seiner Videoplattform vorgehen. So sollen nur verifizierte Nutzer künftig Videos hochladen dürfen.

In Pocket speichern vorlesen Druckansicht 55 Kommentare lesen

(Bild: Shutterstock/Empirephotostock)

Lesezeit: 3 Min.

Der Betreiber der Pornovideo-Portale wie Pornhub und Youporn, MindGeek, hat Maßnahmen ergriffen, um auszuschließen, dass künftig illegale Inhalte auf der Pornhub-Plattform landen. Damit reagiert das Unternehmen auf die Vorwürfe in einem Bericht der New York Times, es seien Kindesmissbrauchsvideos und Videos mit sexueller Gewalt gegen Minderjährige auf Pornhub veröffentlicht worden. Die Zahlungsdienstleister Visa und Mastercard hatten daraufhin eine Prüfung der weiteren Zusammenarbeit mit Pornhub begonnen.

Wie Pornhub in seinem "Commitment to Trust and Safety" mitteilte, sollen künftig nur noch verifizierte Content-Partner und Teilnehmer des Model-Programmes Video-Uploads durchführen dürfen. Ab 2021 sollen dann auch andere Nutzer des Portals wieder Videos hochladen dürfen, sofern sie sich erfolgreich einem Verifizierungsprozess unterworfen haben. Wie dieser genau aussieht, ließ Pornhub allerdings offen.

Zusätzlich will Pornhub die Downloads vom Portal einschränken, ausgenommen davon seien lediglich die Bezahl-Inhalte verifizierter Teilnehmer des Model-Programms, also von Nutzern, die selbst Videos für Pornhub produzieren. Mit der Einschränkung der Downloads soll verhindert werden, dass Nutzer, die illegales Material heruntergeladen hatten, das mittlerweile aber von der Plattform entfernt wurde, erneut hochladen. Bisher hatte Pornhub darauf gesetzt, solches Material mit einem Fingerprint zu versehen, um einen erneuten Upload einzuschränken. Nach Informationen des Tech-Magazins Motherboard hätte das Verfahren aber nicht ausreichend funktioniert.

Um illegale Inhalte schnellstmöglich zu identifizieren und von der Plattform zu entfernen, hat Pornhub das "Red Team" gegründet. Es soll proaktiv hochgeladene Inhalte wegen möglicher Verstöße gegen die Nutzungsbedingungen überprüfen. Zusätzlich sollen Keywords und Suchbegriffe überwacht und ausgeschlossen werden, die zu illegalem Material führen könnten. Pornhub setzt zusätzlich auf automatische Verfahren zur Erkennung illegaler Bilder und Videos wie beispielsweise CSAI-Match von YouTube, das Content mit Kindesmissbrauchsdarstellungen erkennen soll. Daneben würde Pornhub weitere ähnliche Systeme wie die Content Safety API von Google und PhotoDNA von Microsoft einsetzen.

Nutzer, die auf Inhalte stoßen, die möglicherweise gegen Nutzungsrichtlinien verstoßen, können die Videos melden. Dazu sei ein entsprechender Link auf jeder Seite verfügbar. Die Meldung würde dann überprüft und illegaler Content entfernt werden, heißt es von Pornhub.

Auf die eigenen Prüfer und die Community allein will sich MindGeek aber wohl nicht verlassen. Über das Trusted-Flagger-Programm von Pornhub hätten weltweit rund 40 Non-Profit-Organisationen, darunter der deutsche Eco Verband der Internetwirtschaft und das National Center for Missing & Exploited Children der USA, einen direkten Draht zum Unternehmen und können mögliche Verstöße auf schnellem Wege melden.

Ob die ergriffenen Maßnahmen ausreichen, um weitere Verstöße zu verhindern und Kindesmissbrauch keinen Vorschub mehr zu leisten, ist ungewiss. Ungewiss ist auch, ob sich Visa und Mastercard damit beschwichtigen lassen. Denn ein Ausstieg der beiden Zahlungsdienstleister könnte MindGeek und seine Videoplattformen in eine unangenehme Situation bringen.

(olb)