Emotionserkennung im Callcenter: Wenn die KI Kundengespräche heimlich auswertet

Hotline-Betreiber setzen zunehmend auf Algorithmen, die Gefühle wie Wut, Ärger oder Freundlichkeit ausmachen können sollen. Juristen halten das für fragwürdig.

In Pocket speichern vorlesen Druckansicht 40 Kommentare lesen

(Bild: file404/Shutterstock.com)

Lesezeit: 3 Min.

Die an der Telefon-Hotline häufig erfragte Einwilligung klingt harmlos: "Drücken Sie die 1, wenn Sie damit einverstanden sind, dass wir das Gespräch zur Prüfung und Verbesserung unserer Servicequalität aufzeichnen." Was viele Anrufer nicht wissen: Betreiber von Callcentern ziehen daraus zunehmend auch gleich die Einverständniserklärung, die Aufnahmen anhand der Stimme in Echtzeit mit Software für die automatisierte Emotionserkennung zu analysieren. Dazu gehören etwa Teleperformance und 11880, berichtet der Bayerische Rundfunk (BR) unter Verweis auf interne Unternehmensdokumente. Es gehe etwa darum, festzustellen, wie schnell Kunden sprechen, ob sie aufgeregt oder ängstlich klingen und mit Vertragskündigungen oder rechtlichen Schritten drohen könnten.

Laut dem Bericht sind für Teleperformance hierzulande etwa zweitausend Mitarbeiter an Hotlines im Einsatz. Zu den Auftraggebern zählten etwa Energieversorger. Aus den Unterlagen gehe hervor, dass Kunden von Teleperformance Software mit einschlägig trainierten Algorithmen für deutschsprachige Telefondienste nutzen könnten. Unklar ist, wie viele Gespräche das ursprünglich französische Unternehmen mit einer solchen KI-Lösung tatsächlich analysiere. Kein Geheimnis macht dagegen 11880 mit dem Nutzen eines Programms zur Emotionserkennung: Die Software solle Gefühle wie Wut, Ärger oder Freundlichkeit ausmachen, erklärte Jörn Hausmann, Manager bei dem Kommunikationsdienstleister, gegenüber dem BR.

Die Software scanne live Sprachmelodie, Intensität, Rhythmus und Klang, führte Hausmann demnach aus. Insgesamt würden mehr als 6000 Parameter der Stimme analysiert. Die Agenten unterstütze das System bei ihrer Arbeit: Sie sähen auf dem Bildschirm Smileys, die die Stimmung der Unterhaltung anzeigten. Dabei würden auch die Aussagen des Callcenter-Mitarbeiters ununterbrochen getrackt und ausgewertet. Der beidseitige Ansatz solle sicherstellen, dass Agenten freundlich bleiben und Kunden im besten Fall zufriedener auflegen. Dass die Anrufer über den KI-Einsatz nicht aufgeklärt werden, hält Hausmann für legal: "Hier wird nichts gespeichert und keine Kundenprofile daraus abgeleitet." Der BR folgert daraus: Selbst, wenn Anrufer einer Aufzeichnung widersprechen, "werden Emotionen ausgewertet". Callcenter gelten schon seit Langem als Prototyp umfassender Überwachung und digitaler Kontrolle.

Die Gießener Arbeitsrechtlerin Lena Rudkowski hält das Vorgehen für problematisch. Emotionserkennung sei etwas, "womit der Kunde nicht rechnen muss", konstatierte die Professorin gegenüber dem BR. Könnten Teamleiter die Analyseergebnisse einsehen, sei zudem von einer potenziellen Totalüberwachung der Callcenter-Agenten auszugehen. Arbeitgeber dürften ihre Angestellten aber "nicht lückenlos während der gesamten Arbeitszeit überwachen und sie unter erheblichen psychischen Anpassungsdruck setzen". Rudkowskis Frankfurter Kollege Peter Wedde betrachtet die Praxis als unzulässig: Die Analyse von Emotionen lasse "weitgehende Einblicke in die Persönlichkeit zu". Letztlich würden Gesundheitsdaten verarbeitet, was extrem strengen Voraussetzungen unterliege.

Statistiken zufolge arbeiten in Deutschland rund 160.000 Menschen in einem Callcenter. Branchenkenner schätzen, dass zwischen zehn und dreißig Prozent davon Telefonate mit KI auswerten. In den Verhandlungen über die geplante KI-Verordnung fordert das EU-Parlament, Emotionserkennung in Bereichen wie Strafverfolgung, Grenzkontrolle, Arbeit und Bildung zu verbieten. Berichterstatter Sergey Lagodinsky von den Grünen begründet das damit, dass einschlägige Techniken "pseudowissenschaftlich" seien. Dem EU-Datenschutzbeauftragten Wojciech Wiewiórowski zufolge ist automatisierte Emotionserkennung "äußerst unerwünscht". Eine Ausnahme stellten Gesundheits- und Forschungszwecke dar. Hierzulande gibt es noch keine einschlägigen Regeln. Die Bundesregierung arbeitet momentan aber an einem Beschäftigtendatenschutzgesetz, das auch KI-Lösungen abdecken soll.

(bme)