Missing Link: Mit wenigen Klicks zur Weltherrschaft - über effiziente Algorithmen und Fake News

Seite 2: Die dunkle Seite der Algorithmen

Inhaltsverzeichnis

Sie haben sich in anderen Studien auch mit der Frage beschäftigt, durch welche Wahlverfahren sich der Wille der Wähler am besten repräsentieren lässt. Wie sind diese verschiedenen Forschungen miteinander verbunden? Ist das so etwas wie die helle und die dunkle Seite der Macht?

Talmon: Generell interessieren mich Entscheidungsprozesse und ihre Verbindung mit strukturellen Beziehungen, etwa in Netzwerken. Ich erforsche diese Wechselwirkung zwischen Regeln und Struktur und würde dabei nicht zwischen einer guten und bösen Seite unterscheiden.

Die Verbreitung von Nachrichten in einem Netzwerk folgt in Ihrem Modell einer sehr simplen Regel: Die einzelnen Personen passen ihre Meinung demnach der Mehrheitsmeinung in ihrer unmittelbaren Nachbarschaft an. Das erscheint mir sehr weit entfernt von der sozialen Realität.

Talmon: Dieses stark vereinfachte Modell ist der Ausgangspunkt unserer Überlegungen. Wir zeigen aber auch, wie unser Verfahren auch auf komplexere Modelle übertragen werden kann. Eine grundsätzliche Annahme besteht darin, dass die Mitglieder eines Netzwerks regelmäßig Informationen von ihren näheren und ferneren Freunden im Netzwerk erhalten, diese verarbeiten und dabei ihre eigene Haltung verändern. Was wir in dem Modell noch nicht berücksichtigen können, sind unterschiedliche Wahrscheinlichkeiten, mit denen ein solcher Meinungswechsel erfolgt. Dadurch wird der Effekt der Fake News auf das Netzwerk natürlich erheblich schwieriger zu berechnen. Gegenwärtig arbeiten wir gerade an einer Studie, die unser Modell in dieser Richtung weiter entwickeln soll. Möglicherweise können wir dann keine optimale Lösung mehr finden, sondern nur noch eine nahezu optimale. Es könnte auch darauf hinauslaufen, das Budget der jeweiligen Aufgabe anzupassen. So mag es zum Beispiel für eine Million Dollar keine Lösung geben, wohl aber für zwei Millionen. Davon abgesehen ist die Modellierung der sozialen Realität natürlich eine offene Forschungsfrage.

In gewisser Weise lassen sich soziale Medien ja selbst als Modelle der Gesellschaft begreifen.

Talmon: Gemeinsam mit Robert Bredereck von der Oxford University forsche ich in dieser Richtung. Es ist von außen aber schwierig, diese Netzwerke zu erfassen. Bei Facebook lässt sich die Struktur noch recht gut erkennen, indem man sich anschaut, wer mit wem befreundet ist. Es ist aber sehr viel schwieriger einzuschätzen, wie diese Knoten im Netzwerk sich gegenseitig beeinflussen. Solche Daten sind üblicherweise nicht frei zugänglich. Ebenso wenig wissen wir, ob jemand, der auf Facebook Donald Trump einen "Like"-Button anheftet, bei der Wahl später wirklich für ihn stimmt.

Fake News sind an sich nichts Neues. Die Möglichkeit, sie automatisiert und sehr schnell übers Internet zu verbreiten, erfordert aber auf der anderen Seite Methoden, sie möglichst ebenso schnell zu erkennen. Dieses Wettrüsten belastet die Online-Kommunikation mit großem Misstrauen. Sehen Sie einen Weg, wie wir wieder zu einer vertrauensvolleren Kommunikation, auch zwischen Menschen und Bots, kommen können?

Talmon: Das ist zum einen eine Frage der Zeit. Die Kommunikation übers Internet ist für uns als Gesellschaft noch relativ neu. Wir müssen den kritischen Umgang mit den Informationen, die wir dort finden, erst noch lernen. Das kann durchaus schnell gehen. Zum anderen könnte das Vertrauen gesteigert werden, wenn es in der digitalen Kommunikation nachprüfbare Identitäten gäbe. Ein Polizist auf der Straße muss sich ausweisen können, ebenso wie jede andere Person. Sobald wir ähnlich anerkannte Zertifikate auch im Internet haben, für Menschen ebenso wie für Bots, wird der Informationsaustausch davon profitieren. (jk)