Missing Link: Clickworker – die gequälten Seelen der Content-Industrie​

Psychische Belastungen durch Content-Moderation werden oft verharmlost. Interview mit Julia Kloiber über die Situation afrikanischer Moderatorinnen.

In Pocket speichern vorlesen Druckansicht 163 Kommentare lesen
Symbolische Darstellung eines denkenden Menschen, die Stirn auf die Hand gestützt, mit einer dunklen Wolke, die aus dem Kopf wabert.

(Bild: Black Salmon/Shutterstock.com)

Lesezeit: 16 Min.

Ob Social Media oder KI-Training – nichts geht ohne Content-Moderatorinnen und Clickworker. Die einen entfernen verstörende Inhalte aus den sozialen Medien, die anderen aus dem Trainingsmaterial für KI-Modelle, seien es Bild-, Video oder Textgeneratoren. Dabei sind Bilder und Videos von Kindesmissbrauch, Mord, Enthauptungen und Tierquälerei an der Tagesordnung.

Große Tech-Unternehmen wie Meta, OpenAI und andere beschäftigen über Dienstleister zunehmend Moderatorinnen und Clickworker in Schwellenländern in Afrika und Asien. Hier finden die Unternehmen ideale Bedingungen: niedrigere Lohnkosten, hohe Arbeitslosigkeit, gut ausgebildete und mehrsprachige Arbeitskräfte. Die unterschiedlichen Zeitzonen ermöglichen eine Rund-um-die-Uhr-Moderation, während weniger strenge Arbeitsgesetze die Beschäftigung erleichtern. Dies führt jedoch oft zu prekären Arbeitsbedingungen und erheblichen psychischen Belastungen für die Arbeitnehmer.

Darüber haben wir mit Julia Kloiber gesprochen. Sie ist Mitgründerin der feministischen Superrr Labs, deren Ding Magazine in der aktuellen Ausgabe die "Untold Stories of the Exploitation of African Workers" in Form von Interviews, Essays und Gedichten mit afrikanischen Moderatorinnen und Whistleblowern erzählt.

Julia Kloiber ist Gründerin der Non-Profit-Organisation "Superrr Lab".

(Bild: Marlene Wurz)

heise online: Die Berichte verdeutlichen die psychischen Belastungen, denen Content-Moderatorinnen und -Moderatoren ausgesetzt sind. Welche Maßnahmen halten Sie für notwendig, um die psychische Gesundheit dieser Arbeiter zu schützen?

Julia Kloiber: Das ist kein Job wie jeder andere. Niemand verlässt diese Arbeit so, wie er hineingegangen ist. Viele kämpfen danach jahrelang, oft sogar lebenslang mit psychischen Problemen. Es gibt eine Reihe an Maßnahmen, um diese Schäden zu minimieren. Bei den Maßnahmen ist es nicht so, dass ich mir die ausdenke. Die wurden in Gesprächen mit den Content-Moderatorinnen entwickelt, die teilweise schon Betriebsräte gegründet und letztes Jahr auch ein Manifest mit einigen dieser Forderungen veröffentlicht haben.

Es fängt bei den Job-Ausschreibungen an. Die müssen aussagekräftiger werden, weil die Bewerberinnen oft nicht wissen, worauf sie sich genau einlassen. Da steht Systemanalyst, oder Jobs, die nach Backoffice-Tätigkeiten klingen. Es ist das absolute Minimum, dass die Bewerberinnen ein realistisches Bild bekommen und über die Gefahren der Tätigkeit aufgeklärt werden. Über diese Gefahren wissen wir dank Whistleblowern und Berichterstattung mittlerweile gut Bescheid.

Apropos Whistleblower: Daniel Motaung aus Südafrika war einer der Ersten, der auf die prekären Bedingungen aufmerksam machte. Er fordert Toleranzprüfungen, also Tests darüber, wie hoch die Toleranz der Menschen für extreme Inhalte ist und wie gut sie mit der Belastung umgehen können. Das sollte bereits im Bewerbungsprozess geprüft werden.

Ein oft übersehener Punkt ist die Kultur der Einschüchterung und Geheimhaltung. Die Moderatoren müssen strenge Verschwiegenheitserklärungen unterschreiben. Laut der Vereinbarungen dürfen sie mit niemandem über ihre Arbeit sprechen, nicht mal mit der Familie oder Freunden. Das ist eine zusätzliche psychische Belastung. Eine Moderatorin aus Kenia erzählte mir, sie habe monatelang ihren behandelnden Ärzten die Wahrheit über ihren Job verschwiegen. Sie behauptete, Übersetzerin zu sein.

Ein weiteres Beispiel zur Geheimhaltung: Nach einem Fachgespräch im Deutschen Bundestag wurde der Moderator, Cengiz Haksöz, freigestellt. Angeblich weil er gegen die Verschwiegenheitserklärung verstieß, indem er den Abgeordneten sagte, dass er für Meta moderiert. Wir sehen das als legitime Meinungsäußerung. Das Verfahren läuft noch. So wird gezeigt: Wer über die Arbeitsbedingungen spricht, der kann den Job verlieren. Das ist massiver psychologischer Druck.

Die Berichte deuten darauf hin, dass Frauen besonders stark von den traumatischen Erfahrungen betroffen sind. Haben Sie geschlechtsspezifische Unterschiede in den Erfahrungen und Belastungen feststellen können? Welche Maßnahmen könnten speziell Frauen in dieser Branche besser unterstützen?

Um das zu beantworten, ist wichtig zu verstehen: Viele der gewaltvollen Inhalte zeigen Gewalt gegen Frauen – Misshandlungen, Gewaltverbrechen. Das betrifft einen anders, wenn man sich mit den Opfern identifiziert, wenn man zum Beispiel selbst eine Frau ist und mitbekommt, wie viel Gewalt es gegen das eigene Geschlecht gibt.

Wir haben im Magazin mehrere Geschichten von Frauen aus dem Sektor. Viele Moderatorinnen sind auch Mütter, haben also diese Doppelbelastung – Job und Carearbeit. Eine Mutter schrieb einen sehr persönlichen, traurigen Text darüber, wie die psychische Belastung im Job dazu führte, dass sie ihre eigenen Kinder vernachlässigte und misshandelte. Es braucht Mut, über solche Abgründe zu sprechen. Ihr war es wichtig zu zeigen, in welche psychischen Abgründe diese Arbeit führen kann und dass diese Arbeitsbedingungen gestoppt werden müssen.

Sie sagt: "Heute sehe ich manchmal auf Social Media begeisterte Kommentare, die künstliche Intelligenz als den größten Durchbruch unserer Zeit feiern. Doch ich kann bei KI nicht an Fortschritt denken, sondern an meine zerstörte Familie." Solche Geschichten hört man eher selten, deshalb war es uns wichtig, sie herauszustellen.

Eine andere Moderatorin berichtete, dass sie bei Frauen Ohnmachtsanfälle beobachtet hat und dass es wegen des Stresses zu Fehlgeburten kam. Frauen waren sehr stark von den Auswirkungen der Moderationsarbeit betroffen.

Bei KI vergisst man das eher, als wenn man über Hate Speech oder Moderation in sozialen Netzwerken spricht. Man denkt im ersten Moment nicht daran, dass auch hier die gleichen Dinge moderiert werden müssen.

Genau, das ist so ein Kreislauf. Die Unternehmen sagen: Content-Moderation machen wir in ein paar Jahren vollautomatisch mit KI’. Aber die KI muss zuvor trainiert werden, denn man will verhindern, dass extreme Inhalte in den Trainingsdaten landen. Da braucht es wieder menschliche Arbeit. Sprich: Menschen, die Daten annotieren, kategorisieren und filtern. Ohne menschliche Arbeit funktioniert das nicht, denn es sind Tätigkeiten, bei denen komplexe Einschätzungen nötig sind. Das kann und sollte nicht alles automatisiert werden.

Wenn man all das miteinbezieht, merkt man schnell: Bei diesen Argumentationen beißt sich die Katze in den Schwanz. Wenn Unternehmen von den vielversprechenden künftigen Möglichkeiten von KI für die Content Moderation sprechen, dann ist das häufig ein Ablenkungsmanöver von den Arbeitsbedingungen, die hier und heute prekär sind und geändert werden müssen. Niemand hat Zeit hier noch zehn Jahre zu warten bis die KI eventuell so weit ist.

Kennen Sie Studien oder Berichte zu Langzeitfolgen der psychischen Belastungen auf die Content-Moderatoren?

Vieles ist anekdotisch. Moderatorinnen berichten und legen Atteste vor. Gerade wird eine Studie zu Gesundheitsauswirkungen und Langzeitfolgen der Content-Moderation erstellt. Erste Einblicke sind erschreckend, aber Details kann ich noch nicht nennen.

In Spanien gab es letztes Jahr ein wichtiges Gerichtsurteil: Eine Facebook-Moderatorin hat nachweislich ein arbeitsbedingtes psychisches Trauma erlitten. Meta muss Entschädigung und Krankheitsurlaub zahlen. Das Urteil fiel in Barcelona. Es gibt also schon Gerichtsurteile dazu, aber noch keine große Studie mit Hunderten Moderatoren. Das kommt aber.

Wie haben Tech-Unternehmen wie Facebook und Dienstleister wie Sama auf Ihre Veröffentlichung reagiert? Gab es überhaupt Schritte oder Änderungen nach der Veröffentlichung?

Oft weisen die Unternehmen Vorwürfe zurück. Nach Spiegel-Berichten bestritt Sama Fehlgeburten und ohnmächtige Angestellte, gab aber zu, dass einzelne Personen mit psychischen Problemen kämpften. Sie verweisen auf Wellness-Teams, denen Moderatoren sich anvertrauen können. Aber von Seiten der Moderatoren gibt es Misstrauen gegen diese Teams, was deren Ausbildung angeht zum Beispiel. Kulturelle Vorbehalte gegen Psychotherapie und begrenzte Zeiten – in Deutschland nur 30 Minuten pro Woche – sind weitere Probleme.

Meta äußerte sich wegen laufender Verfahren nicht zum Magazin und arbeitet nicht mehr mit Sama zusammen. Oft schieben sich Unternehmen gegenseitig die Schuld zu. Es gibt Hilfswerkzeuge wie Verpixelung oder Schwarz-Weiß-Darstellung von Bildern. Aber hoher Zeitdruck und Genauigkeitsanforderungen machen diese oft unpraktisch im Arbeitsalltag. Damit können die Unternehmen zwar sagen, es gäbe Hilfsmittel, aber wenn Leistungsmetriken dem entgegenstehen, werden sie kaum genutzt.

Im vergangenen Jahr berichteten der Spiegel und andere im Zusammenhang mit einer Klage von Ex-Mitarbeitenden der Firma Sama(source) über die Schicksale der Content-Moderatorinnen. Wissen Sie, ob sich seitdem etwas geändert hat?

Vielleicht erst einmal ein kurzer Recap: Im Januar 2023 entließ Sama 260 Content-Moderatorinnen, angeblich wegen Redundanz. 185 von ihnen reichten eine Klage ein, da sie vermuteten, es sei eine Vergeltungsmaßnahme für ihre Versuche, eine Gewerkschaft zu gründen und sich arbeitsrechtlich zu organisieren. Interessanterweise wurden die Aufträge von Sama abgezogen und stattdessen an den Konkurrenten Majorel vergeben. Dieser stellte neue Moderatoren ein, übernahm aber nicht die ehemaligen Sama-Mitarbeiter. Es gab sogar Berichte über ein Blacklisting, wonach Majorel-Mitarbeiter angewiesen wurden, die Sama-Angestellten nicht einzustellen.

In den folgenden Gerichtsverfahren forderten die Moderatoren Entschädigung von Meta, das Recht auf Gewerkschaftsgründung und die Erlaubnis, sich zu den Arbeitsbedingungen äußern zu dürfen. Das Gericht empfahl eine außergerichtliche Einigung durch Mediation. Diese scheiterte jedoch, da die Konzerne eine Verzögerungstaktik anwandten und nur lächerlich niedrige Entschädigungssummen anboten.

Als Anwälte und Staatsanwälte beantragten, Meta wegen Missachtung des Gerichts anzuklagen, entschied das kenianische Gericht im Dezember zugunsten der Technologieunternehmen. Es befand, dass kein vorsätzlicher Verstoß gegen die Gerichtsanordnung vorlag.

Ein bedeutender Erfolg war jedoch, dass das Gericht zum ersten Mal Meta als den eigentlichen Arbeitgeber anerkannte. Meta hatte versucht, sich der Verantwortung zu entziehen, indem es argumentierte, die Outsourcingfirma Sama sei der Arbeitgeber. Das Gericht urteilte jedoch, dass Meta sehr wohl in Kenia wegen der Menschenrechts- und Arbeitssituation verklagt werden kann. Dies könnte einen wichtigen Präzedenzfall für zukünftige Verfahren darstellen. Meta hat Berufung eingelegt.

Wie unterscheiden sich die Arbeitsbedingungen und psychische Belastungen von Content-Moderatoren in verschiedenen Ländern und Kulturen?

Dazu kann ich ein Beispiel aus dem Februar 2023 nennen: Nach den schweren Erdbeben in der Türkei mussten türkischsprachige Moderatoren in Deutschland belastende Videos moderieren, teils mit Angehörigen in der Krisenregion. Das Erdbeben ist nur ein Beispiel – ähnliches gilt für Kriege in der Ukraine, Gaza, Sudan oder Kongo.

Material aus dem eigenen Land zu moderieren, in dem Familie und Freunde betroffen sind, ist besonders belastend. Die Belastung variiert je nach Region. Persischsprachige Moderatoren für den Iran berichteten, dass sie oft gegen eigene politische und ethische Werte moderieren müssen. Die Firmen-Policies können dabei ebenfalls Interessenkonflikte verursachen.

Auch in Deutschland gibt es nach Schätzungen von Ver.di rund 5000 Moderatorinnen und Moderatoren, die unter anderem bei CCC Digital Essen (einem Teil der Telus-Gruppe) beschäftigt sind. Es hieß, dass ein 'Wellness-Team' unter Leitung 'einer erfahrenen Psychologin' sich um die Mitarbeitenden kümmere. Ist die Arbeitssituation hierzulande besser?

Es geht hier nicht darum, einen Wettbewerb um die schlimmsten Arbeitsbedingungen zu führen, aber Tatsache ist, dass die Situation auch in Deutschland prekär ist. Die Moderatoren leiden unter der Geheimhaltungskultur, hohem Druck und unsicheren Verträgen. Manche Firmen geben sich als Start-ups aus, um länger befristete Verträge anbieten zu können.

Wichtig zu wissen ist, dass in Deutschland nicht nur der deutsche Markt moderiert wird, sondern auch der arabische, persische, bulgarische und türkische. Viele Beschäftigte sind zum Studieren oder zum Arbeiten nach Deutschland gekommen und haben keinen deutschen Pass. Das macht sie besonders verwundbar für Druck, da sie oft in unsicheren aufenthaltsrechtlichen Verhältnissen leben.

Bezüglich der Wellness-Teams und psychologischen Betreuung habe ich gerade mit dem Betriebsrat von Telus gesprochen. Sie berichten, dass sich die Situation dank ihres Einsatzes etwas verbessert hat. Es wird jetzt mehr Wert auf die Qualifikation der Wellbeing-Mitarbeiter gelegt, und deren Ausbildung ist für alle einsehbar. Auch die Aktivitäten und Maßnahmen wurden verbessert.

Trotzdem bleiben Probleme: Die maximale Betreuungszeit von 30 Minuten pro Woche ist viel zu wenig. Zudem sind die Betreuer beim selben Arbeitgeber angestellt, was nicht unproblematisch ist. Es braucht bessere Aufklärung darüber, warum psychologische Unterstützung in diesem Beruf wichtig ist. Das ist besonders relevant, da die Mitarbeiter aus verschiedenen Kulturkreisen kommen, in denen es teilweise Vorbehalte gegen Psychotherapie gibt.

Insgesamt gab es kleine Verbesserungen, zumindest bei diesem Anbieter, dank des aktiven Betriebsrats. Aber es gibt nach wie vor erheblichen Verbesserungsbedarf in der Branche.

Würde mehr Transparenz oder verpflichtende regelmäßige psychologische Beurteilungen, etwa vierteljährlich, helfen?

Grundsätzlich würde es helfen, gute Standards zu etablieren. Man sollte sich umschauen, wo es bereits gute Arbeitsschutzstandards für psychische Belastungen gibt, zum Beispiel bei Polizisten, die Missbrauchsmaterialien sichten. Von diesen Bereichen kann man lernen und Standards übernehmen.

Nachregulierung und Nachjustierung durch den Gesetzgeber sind wichtig. Transparenzpflichten sind nur so effektiv, wie sie überprüft und umgesetzt werden. Ein guter erster Schritt wäre, die arbeitsrechtlichen und gesetzgeberischen Möglichkeiten für speziellen Gesundheitsschutz in diesem Bereich zu untersuchen und umzusetzen.

Gibt es noch weitere Aspekte?

Es gibt noch zwei wichtige Aspekte zu beachten. Zum einen geht es nicht nur um die Arbeitsbedingungen, sondern auch um deren Geschäftsmodelle der großen Tech-Konzerne. Diese befeuern die Verbreitung extremer Inhalte durch ihre Algorithmen. Ohne diese würden sich solche Inhalte weniger schnell verbreiten und eher in Nischen oder auf bestimmten Plattformen bleiben. Das darf man nicht aus den Augen verlieren – es gibt ein größeres Ganzes, das den hohen Bedarf an Moderation erst schafft. Die Tech-Unternehmen müssten ihre Geschäftsmodelle überdenken, die letztlich auf der Generierung von Shareholder-Value beruhen. Hier braucht es Regulierung oder das Aufbrechen von Monopolen.

Zum anderen muss sich die Politik konsequent für den Schutz von Arbeitnehmern einsetzen, auch über Deutschland hinaus. Stichwort Lieferkettengesetze: Wenn wir KI zunehmend in allen möglichen Bereichen einsetzen wollen, müssen wir sicherstellen, dass die Lieferkette digitaler Dienste wie künstliche Intelligenz frei von Menschenrechtsverletzungen und Ausbeutung ist. Es geht nicht nur darum, in Deutschland für gute Arbeitsbedingungen zu sorgen, sondern auch an anderen Orten in der Welt.

Es ist auch wichtig, frühzeitig gegen problematische Entwicklungen wie algorithmisches Management vorzugehen. Wenn man das im Bereich der Content-Moderation oder der Gig-Work laufen lässt, könnte es sich auf andere Bereiche ausweiten wie den Pflegesektor. Man darf also nicht nur die aktuelle Größe eines Sektors betrachten, sondern muss auch die potenzielle Ausweitung solcher Arbeitsbedingungen auf andere Bereiche im Blick haben.

Wer sorgt für Verbesserung an der Situation?

Die Zivilgesellschaft legt den Finger in die Wunde, Gewerkschaften organisieren, mobilisieren und haben gute Kontakte zur Politik, und Journalisten machen kritische, investigative Recherchen. Sie gehörten zu den Ersten, die das Thema überhaupt aufgedeckt und auf die Agenda gehoben haben. Am Ende ist es ein Zusammenspiel verschiedenster Akteure, die sich noch besser vernetzen müssen, um effektiv Veränderungen zu bewirken.

Die fantastische Arbeit der Betriebsräte ist dabei besonders wichtig. Diese Personen handeln nicht im Eigeninteresse, sondern setzen sich für die Verbesserung des gesamten Sektors ein. Besonders bemerkenswert sind die kenianischen Content-Moderatorinnen, die aktuell arbeitslos sind. Sie bemühen sich, eine spezielle Gewerkschaft für Content-Moderatoren zu gründen. Ihr Ziel ist nicht nur Gerechtigkeit für sich selbst, sondern auch der Schutz nachfolgender Generationen vor ähnlichen Erfahrungen.

Diese Aktivisten sehen kritisch, wie die kenianische Regierung Arbeitsplätze im Bereich Business Process Outsourcing und Tech-Unternehmen fördert, ohne die Arbeitsbedingungen zu hinterfragen. Das Land versucht, für diese Industrien attraktiv zu sein, um die hohe Arbeitslosigkeit zu bekämpfen, ignoriert dabei aber die langfristigen Auswirkungen.

Die Bedeutung internationaler Solidarität wird durch Initiativen wie den geplanten Besuch des Telus-Betriebsrats in Kenia Anfang August unterstrichen. Ziel ist es, sich mit den kenianischen Aktivisten auszutauschen, gemeinsam Standards für den Sektor zu entwickeln und den Druck auf die Unternehmen international zu erhöhen. Diese langfristige, grenzüberschreitende Zusammenarbeit ist entscheidend für nachhaltige Verbesserungen in der Branche.

(vza)