Missing Link: Nur ein Verbot bestimmter Algorithmen kann die Demokratie retten

Seite 2: Persönliche Daten sollten ein Menschenrecht sein

Inhaltsverzeichnis

Es scheint so, als gebe es breite Zustimmung zur Idee, dass man etwas gegen die Macht der Plattformen tun muss. Aber über den Weg dahin besteht wenig Einigkeit, richtig?

RMN: Die Antworten in Europa und den USA fallen unterschiedlich aus, aber die meisten Leute stimmen den Mahnungen von Menschen wie Maria Ressa, Marietje Schaake oder auch mir zu. Wenn es darum geht, etwas zu tun, sind die meisten Leute nur einfach zu beschäftigt mit ihrem Alltag. Das kann man ihnen auch nicht vorwerfen. Es gilt allerdings zu bedenken: Haben wir das Recht auf Selbstbestimmung einmal verloren, die Demokratie einmal aufgegeben, bekommen wir beides nur schwer wieder zurück. Es ist nicht völlig unmöglich, wird aber vielleicht nicht mehr zu meinen Lebzeiten passieren. Deshalb hoffe ich auf eine harte Diskussion darüber, wo verschiedene Länder hinwollen.

Worin bestehen die Unterschiede zwischen Europa und den USA?

RMN: Zwei Sachen sind besonders auffallend. Zum einen gelten in Europa Werte mehr als Gesetze. Man kann sagen, die Gesetze leiten sich aus den Werten ab. In den USA haben Gesetz und Werte fast nichts miteinander zu tun. Gesetze sind mehr die Verhandlung ökonomischer Interessen, Wertvorstellungen sind randständig. In Europa hat man beispielsweise entschieden, dass Vertraulichkeit ein Menschenrecht ist. Mein Vorschlag ist, auch persönliche Daten sollten ein Menschenrecht sein. Sie sind kein bewegliches Gut und dürfen nicht gehandelt werden. Natürlich brächte uns Eigentum an persönlichen Daten schon in eine bessere Situation. Dateneigentum darf aber meiner Auffassung nach nicht das Endziel sein. Das eigentliche Ziel muss es sein klarzustellen, wenn jemand ein Profil von meinem Verhalten erstellt und dann mein Verhalten beeinflusst, widerspricht das den Werten der Aufklärung, auf die unsere Demokratien sich gründen.

Den zweiten Aspekt, den ich interessant finde in Europa, ist: Experimente spiegeln hier die Kultur der einzelnen Länder wider, es gibt aber zugleich eine Koordination. Es gibt zentralisierte Dinge wie die Datenschutzgrundverordnung, zugleich aber eben die individuellen Herangehensweisen. Das halte ich für eine gesunde Entwicklung. Wir müssen nicht mit globalen Lösungen starten. Ich glaube sogar eher, jede Jurisdiktion sollte sich auf etwas stürzen, was in ihr als vordringlich erachtet wird. Am schwersten dürfte es werden, der Vorstellung entgegenzutreten, dass Technologie irgendwie unabwendbar ist und dass wir keinen Einfluss darauf haben, was Technologie kann, und dass wir auch keinen Einfluss haben sollten. Ich sage, das ist falsch.Technologie ist zu wichtig, als dass wir sie abkoppeln können von unseren demokratischen Entscheidungsprozessen.

Politiker in Europa sind allerdings vor allem besorgt, dass wir das Rennen verlieren könnten, hinter China und den USA. Was sagen Sie ihnen?

RMN: Europa muss sich keine Sorgen machen. Es kann meiner Meinung nach seine Chance im Technologiesektor dadurch wahrnehmen, indem es der Technologie europäische Werte beibringt. Ich bin zudem wirklich sehr für Experimente im Labor, um schnellstmögliche Fortschritte zu erzielen. Kommerzielle Deployments aber müssen den Menschen und seine Rechte einkalkulieren. Gerade wurde das potentielle Moratorium für die Anwendung von Gesichtserkennung in Europa bekannt. Dadurch will man sich Zeit geben, um gute Entscheidungen in diesem Bereich zu treffen. Es geht immer um den Einsatz, nicht die Entwicklung. Ich glaube, genau diese Vorstellung muss man übertragen auf KI, auf das Quantencomputing. Wir müssen schlicht anerkennen, dass diese Projekte ein Ausmaß angenommen haben, dass sie zwangsläufig Konsequenzen für die Gesellschaft mit sich bringen.

Sie haben am Anfang in Facebook investiert...

RMN: ...wie viele andere.

Wie viele andere – Sie hielten es für eine brillante Idee?

RMN: Es war nicht ganz am Anfang, aber recht früh.

Stellen Sie sich vor, es gebe nun eine Möglichkeit, Daten von Facebook zu portieren zu einem alternativen Anbieter und Sie würden in diesen investieren. Was soll verhindern, dass der zum neuen Monster wird?

RMN: Die Leute, die Facebook, Google, Youtube, Instagram oder Twitter benutzen, sehen die Gefahren nicht. Denken Sie daran, die fahren Rekordprofite ein und die Aktien stehen so hoch wie noch nie. Es gibt ganz einfach nicht genug Kapital, um Alternativen zu schaffen. Das ist unmöglich. Die Unternehmen haben Stand heute Monopolmacht.

Was kann man denn dann noch tun?

RMN: Das Grundproblem ist, dass das Geschäftsmodell auf die Monopolisierung von Aufmerksamkeit gerichtet ist. Die Firmen setzen dazu Amplifizierungs-Algorithmen ein, um den Leuten genau die Inhalte zu präsentieren, mit denen sie sie am besten auf der Plattform festhalten können. Für die meisten Leute gilt, dass sie am ehesten dranbleiben, wenn sie wütend sind oder Angst haben. Also bekommen wir Hate Speech, Desinformation und Verschwörungstheorien. Genau da muss die Regulierung ansetzen. Was sollen immer noch mehr Moderatoren bringen. Der Schaden wird innerhalb von Sekunden angerichtet, Moderation dauert viel zu lange, selbst wenn man Millionen von Leuten dafür abstellt. Stattdessen muss man die Algorithmen verbieten, die Botschaften und Themen verstärken. Das wird die Profitabilität von Google und Facebook massiv einschränken, und so sollte es auch sein, analog zur Regulierung anderer Branchen. Wir wissen heute, dass Leute getötet werden können, dass ihr Leben ruiniert werden kann und dass Demokratien abgeschafft werden können. Daher ist es nur billig, die gleichen Ideen zu nutzen, mit denen wir in den vergangenen Jahrzehnten und Jahrhunderten Gebäude, Medizin und chemische Produkte sicher gemacht haben. Wer digitales Gift verbreitet, sollte ökonomisch genauso zur Verantwortung gezogen werden, wie derjenige, der chemische Gifte in Umlauf bringt.

Sie schauen mich so skeptisch an, als vertrauten Sie nicht darauf, dass die Demokratie diesen Test bestehen könnte. Es ist ein Test, und wir sollten nicht vorschnell urteilen. Nichts zu tun hätte fatale Konsequenzen.

Ein Bann für Amplifizierungs-Algorithmen? Wie sähe so ein Gesetz aus?

RMN: Das Gesetz würde einfach besagen, dass man keine Algorithmen verwenden darf, um Inhalte zu verstärken. Man kann einen chronologischen Newsfeed haben. Man kann nach Themen sortieren, aber man darf keine Vorauswahl dessen treffen, was die Leute zu Gesicht bekommen können.

Ist das nicht ein recht ehrgeiziges Ziel?

RMN: Man würde die Firmen damit zu ihren Ursprüngen zurückversetzen, aber das Gesetz ist recht einfach zu formulieren.

Gibt es schon einen Entwurf?

RMN: Noch nicht. Wir stehen noch am Anfang. Die DSGVO bekämpft Symptome. Ich würde gerne an der Wurzeln ansetzen. Wenn das Recht auf die eigenen Daten ein unveräußerliches Menschenrecht wird, werden manche Dinge in der DSGVO überflüssig. Denn die Daten sind nicht mehr handelbar. Es geht nicht mehr darum zu informieren, zu fragen, welcher Datennutzung jemand zustimmt, oder ein Opt-out anzubieten. Unternehmen können meine Daten einfach nicht verwenden. Denn ein Problem der DSGVO ist, wie schwierig sie durchzusetzen ist.