Die guten Chatbots

Auf Twitter ließ ein Forscher Chatbots gegen rassistische Tweets anreden. Es zeigte Wirkung. Doch Bots, die Nutzern sagen, was sie zu tun und zu lassen haben, sind keine beruhigende Vorstellung.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 4 Min.

Ist von Chatbots in sozialen Netzwerken die Rede, muss ich stets zuerst an Tay denken. Das KI-Programm war in diesem Frühjahr von Microsoft auf Twitter, Facebook, Instagram sowie Messenger losgelassen worden. Dort sollte Tay von anderen Nutzer lernen und ihre ihre Kommunikationsfähigkeit trainieren. Was dabei herauskam? Ein Account, dessen Output nur so vor rassistischen Beleidigungen strotzte. Keine Frage, die Spezies „Chatbot“ zeigte sich hier eindeutig von seiner hässlichen Seite – wenngleich für das Ergebnis nicht zuletzt die Nutzer (mit)verantwortlich sind, von denen Tay lernen sollte.

Eine andere Aufgabe hatte daher Kevin Munger vom Social Media and Political Participation Lab an der New York University für seine Chatbots vorgesehen: Usern auf Twitter mit Gegenrede begegnen, wenn diese Tweets mit beleidigendem Inhalt veröffentlichten. Chatbots also, die soziale Netzwerke wieder ein bisschen sozialer machen wollen. In seiner Studie hatte es Munger auf Tweets mit dem N-Wort abgesehen. Sein manuell codiertes Sample umfasste Accounts von weißen Nutzern, die kürzlich rassistische Tweets abgesetzt hatten und deren letzte 1000 Tweets ebenfalls rassistischen oder anders beleidigenden Inhalt aufwiesen. Auf diese Nutzer setzte Munger seine Chatbots an.

Wobei "Chatbots" etwas hochgegriffen scheint. Es handelte sich dabei um ein Set an vier Bots, die bei Tweets mit dem N-Wort mit einem automatisierten Tweet reagierten: "Hey @username, just remember that there are real people who are hurt when you harass them with that kind of language." (dt.: Hey @Benutzername, du verletzt reale Personen mit deiner beleidigenden Ausdrucksweise.) Für seine Bots legte Munger vier Account-Typen an: männlich, weiß-klingender Name ("Greg"), 500 Follower, weißer Avatar; männlich, weiß-klingender Name, 2 Follower, weißer Avatar; männlich, schwarz-klingender Name ("Rasheed"), 500 Follower, schwarzer Avatar; männlich, schwarz-klingender Name, 2 Follower, schwarzer Avatar. Nachdem der automatisierte Tweet an einen Nutzer abgesetzt worden war, untersuchte Munger eine Woche lang das Twitter-Verhalten, um Veränderungen festzustellen.

Ganz überraschend ist es für mich nicht, dass offenbar die "Gregs" mit 500 Followern die größte Veränderung bewirkten. Die rassistischen Kommentare gingen um 27 Prozent pro Tag zurück. Die Tweets von "Rasheed" mit wenigen Followern hingegen bewirkten gar einen Anstieg von rassistischen Beleidigungen. Sie stachelten gewissermaßen die beleidigenden Nutzer weiter an.

Eine Verbesserung um 27 Prozent bei den von "Greg" (mit 500 Followern) Angesprochenen mag zwar wenig klingen, ist jedoch besser als eine Zunahme. Offen bleibt aber, aus welchen Gründen die Nutzer in der Folge weniger das N-Wort gebrauchten. Geht es dabei um einen Verlust von Ansehen in der eigenen (weißen) Gruppe? Oder hat tatsächlich so etwas wie ein gedanklicher Änderungsprozess eingesetzt?

Das Ergebnis der Studie verstärkt außerdem das existierende Ungleichgewicht: weiße Twitter-Nutzer lassen sich nur von "weißen" Bots ermahnen. Der Autorität von schwarzen Nutzern im Netz ist damit nicht geholfen. Auch die Vorstellung, dass eine Horde Bots in den sozialen Netzwerken unterwegs ist und den Nutzern sagt, was sie zu tun oder zu lassen haben, klingt nicht ideal. Da ist es beruhigend zu hören, dass das auch nicht Mungers Ziel ist. Ihm geht es um geeignete Kommunikationsstrategien, die eine überzeugende Gegenrede schaffen. Mit den Tweets seiner Bots hat er damit einen ersten Schritt getan. Doch letztlich sollte es darum gehen, wie ein "sanktionierender" Tweet auch bis in das Handeln der Nutzer in der analogen Welt hineinwirkt.

(jle)