"Löschen trifft die Falschen"

Politiker fordern Propagandamaterial von Terrororganisationen wie dem IS im Internet zu löschen. Sinnlos, sagt Zahed Amanullah vom Institute for Strategic Dialogue in London.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 7 Min.
Von
  • Eva Wolfangel

Zahed Amanullah, 47, ist Senior Programme Manager am Institute for Strategic Dialogue (ISD) in London. Der gebürtige US-Amerikaner arbeitet seit vielen Jahren in muslimischen Graswurzel-Netzwerken in den USA sowie Großbritannien und ist unter anderem der Vorsitzende des Concordia Forum, einer Vereinigung von Führungskräften mit muslimischem Hintergrund. Das ISD arbeitet als unabhängige Organisation mit Regierungen, Unternehmen und Universitäten weltweit zusammen.

Technology Review: Herr Amanullah, Sie arbeiten mit Google, Facebook und Twitter zusammen, um Hasskommentare und Propaganda einzudämmen. Wie haben Sie die Unternehmen dazu gebracht?

Zahed Amanullah: Das war leicht. Wir haben ihnen in einer ersten Studie vor Augen geführt, wie sehr beispielsweise der IS ihre Netzwerke zur Propaganda benutzt, wie dort neue Terroristen rekrutiert werden. Sie waren sehr betroffen – und sehr offen für die Zusammenarbeit. Die Macher von Facebook und Co. wollen schließlich, dass ihre Plattformen für Gutes genutzt werden.

TR: Wenn diese Frage bei den Netzwerken Priorität hat, wieso kommen sie dann so schlecht dagegen an?

Amanullah: Die Anbieter haben lange versucht, entsprechende Profile und Posts zu löschen. Aber die Extremisten sind so gut vernetzt, dass das zu langsam ist. Die Inhalte gehen trotzdem raus und verbreiten sich schnell. Löschen funktioniert nicht.

TR: Ist es nicht dennoch wichtig, entsprechende Posts zu löschen – allein um den Opfern gerecht zu werden?

Amanullah: Ja, sie werden auch weiterhin gelöscht, aber es ist wenig effektiv.

TR: Wenn der Mensch zu langsam ist: Wie steht es ums automatische Erkennen und Löschen entsprechender Posts und Profile mittels maschinellen Lernens?

Amanullah: Die Technik ist noch nicht weit genug. Wir haben noch keine Algorithmen, die Hass oder Propaganda zuverlässig erkennen. Die Semantik, die Bedeutung der Sprache, ist den Maschinen noch schwer zu vermitteln. Computer erkennen Themen anhand einzelner Stichwörter gut, aber nicht die Haltung dahinter.

Deshalb trifft automatisches Löschen häufig die Falschen: jene, die dagegen reden. Die Unternehmen setzen von daher verstärkt auf ihre Nutzer, entsprechende Accounts zu melden. Das klappt deutlich besser als die technische Lösung. Aber wie gesagt: immer noch nicht gut genug. Man kann eine Idee nicht löschen, indem man den Inhalt löscht.

TR: Was ist Ihr Vorschlag?

Amanullah: Wir brauchen einen Wandel in der Gesellschaft. Wir sprechen viel zu wenig über solche Themen. Besser als Löschen ist aus unserer Sicht die Gegenrede. Das tun wir mit der Unterstützung von Google, Facebook, YouTube und Twitter. Ähnlich wie das im Kommerziellen mit Werbung geschieht, pushen wir die Inhalte gegen Radikalisierung.

TR: Gegenrede als Werbeanzeige? Wie sieht das konkret aus?

Amanullah: Google kann Nutzer anhand ihrer Suchbegriffe tracken. So identifizieren wir beispielsweise jene, die am Beginn einer Radikalisierung stehen. Google kann mit zusätzlichen Daten aus öffentlichen Profile auch einschätzen, wie alt diese in etwa sind, welches Geschlecht sie haben, wo sie leben, was sie sonst so interessiert. Unsere Pilotstudien haben sich auf junge Männer aus Großbritannien und den USA konzentriert. Wenn diese Nutzer dann auf YouTube nach einem Video des IS suchen, weil sie sich fragen, ob sie sich anschließen sollen, bekommen sie auf den vorderen Plätzen Filme gezeigt, die ihnen davon abraten.

TR: Wieso sollten sich die Nutzer von so einem Film angesprochen fühlen, wenn sie genau das Gegenteil suchen?

Amanullah: Weil er authentisch ist. Wir produzieren keine eigenen Filme, wir suchen nach geeigneten Aktivisten und unterstützen diese. Beispielsweise gibt es Filme ehemaliger IS-Kämpfer, die davon abraten, in den Krieg zu ziehen. Wir sorgen dafür, dass solche Filme besser gefunden werden, und wir verpacken sie so, dass sie auf den ersten Blick aussehen wie ein IS-Video.

TR: Ist das nicht Manipulation – wenn auch für einen guten Zweck?

Amanullah: Wir machen nicht viel anderes als Suchmaschinenoptimierung. Wir geben niemandem vor, was er sagen oder schreiben soll. Wir verändern auch die Filme der Gegenaktivisten nicht. Wir verkaufen sie nur besser. Wir verhelfen guten Inhalten nach vorn.

TR: Und bei Facebook?

Amanullah: Das ist ein wenig anders, weil es ein geschlossenes Netzwerk ist. Zu Beginn haben wir die Graph-Suche genutzt, mittels derer man sehr detailliert nach Nutzern und deren Interessen, Vorlieben und Aktivitäten suchen konnte.

TR: Weshalb diese Suche von Datenschützern heftig kritisiert wurde...

Amanullah: Aber für unsere Zwecke war sie gut. Damals gab es zudem die Möglichkeit, auch Nutzern eine Nachricht zu schicken, mit denen man nicht befreundet war. Man musste dafür einen Dollar an Facebook bezahlen. Das nutzten wir, um identifizierte Nutzer anzusprechen: Ihnen boten sich dann beispielsweise IS-Aussteiger für Gespräche an. Diese Möglichkeit gibt es leider nicht mehr in dieser Form. Aber wir verhandeln gerade mit Facebook, ob sie den Weg zumindest für solche Zwecke wieder einführen wollen.

TR: Dennoch: Sie spähen Nutzer aus mit Methoden, die in Europa häufig kritisiert werden.

Amanullah: Wir haben niemandes Privatsphäre verletzt. Alles, was wir tun, ist völlig legal. Im kommerziellen Bereich werden ähnliche Methoden verwendet. Wir machen es für eine gute Sache.

TR: Wie reagieren die Nutzer? Fühlen sie sich nicht ausgespäht, und könnte das dann nicht ins Gegenteil umschlagen?

Amanullah: Wir können natürlich schwer sagen, wie sie sich fühlen. Aber die große Mehrheit reagiert ausgesprochen positiv. In unserem ersten Experiment auf Facebook sprachen wir 160 Nutzer an, die das System aufgrund bestimmter Schlüsselwörter oder Bilder als Extremismus-gefährdet ansah. 60 Prozent reagierten in irgendeiner Form auf uns, viel mehr, als wir gedacht hätten: Manche änderten ihren Account, löschten beispielsweise provozierende Bilder – vielleicht auch, weil sie sich getrackt fühlten.

Aber die große Mehrheit kam mit uns ins Gespräch. Auch im Falle von YouTube wollen wir die Wirksamkeit unserer Aktivitäten untersuchen. Das ist allerdings schwieriger, weil es dort nicht die gleichen Möglichkeiten gibt wie bei Facebook, beispielsweise entsprechende Kandidaten zu identifizieren und anzusprechen.

TR: Gibt es Zahlen, wie viele Sie damit vor einer Radikalisierung bewahrt haben?

Amanullah: Das ist natürlich schwer nachzuvollziehen. Wir wissen nicht, wen der IS am Ende dennoch angeworben hat. Die Rekrutierer ziehen ihre Schützlinge schnell auf verschlüsselte Plattformen, um unbeobachtet agieren zu können. Das ist die dunkle Seite der Verschlüsselung.

TR: Würde ein Verbot von Verschlüsselung oder eine Hintertür für Geheimdienste das Problem lösen?

Amanullah: Ich fände es einerseits denkbar, denn dann kann zumindest nichts im Verborgenen stattfinden. In der Theorie stimme ich den Sicherheitsbehörden zu. Aber andererseits wird das praktisch nicht viel nutzen. Wir müssen die Leute vorher erreichen. Paris zeigte auch: Verschlüsselung spielte keine Rolle für die Täter.

Sie kannten sich, sie trafen sich beim Bäcker und kommunizierten per SMS. Unser Leben wird immer digitalisierter, da ist ein Interesse an Verschlüsselung völlig legitim. 99,9 Prozent der Nutzer, die Inhalte verschlüsseln, gehören den Guten an. Am Ende geht es um einen Wettkampf der Ideen und nicht ums Aufrüsten in Sicherheitsfragen. (bsc)