MIT Technology Review 1/2023
S. 51
Report
Kolumne

Nicht meine Baustelle?!

Content-Moderatoren sorgen jeden Tag dafür, dass in den sozialen Medien weniger Hass, Hetze und Desinformation zu sehen ist. Ihre Arbeitsbedingungen sind allerdings prekär. Das muss sich ändern.

, Illustration: Anna Niedhart
Illustration: Anna Niedhart

An einem sonnigen Tag Mitte November stehe ich in der Eingangshalle der Gewerkschaft ver.di in Berlin. Im Büro über uns absolviert der neu gewählte Betriebsrat von TikTok gerade seine erste Schulung. Ich bin hier, um mich mit ihnen über einen der prekärsten Jobs in der Techbranche auszutauschen: den der Content-Moderation.

Wenn die digitale Zivilgesellschaft oder Digitalpolitiker über die Moderation von Inhalten in sozialen Netzwerken nachdenken, dann zuallererst über Algorithmen – über die viel zitierte Künstliche Intelligenz, die Inhalte automatisiert filtert, kennzeichnet und löscht. Dass auch Tausende von menschlichen Content-Moderatorinnen und -Moderatoren maßgeblich daran beteiligt sind, das Netz frei von Hass, Gewalt und Desinformation zu halten, geht in den Diskussionen unter. Dabei ist spätestens seit dem Film The Cleaners aus 2018 bekannt, dass Content-Moderatorinnen und -Moderatoren zu prekärsten Konditionen arbeiten. Auch in Deutschland. Sie werden schlecht bezahlt, ihr Arbeitsplatz wird überwacht und sie tragen nicht selten lebenslange psychische Traumata davon.