Missing Link: "Der groĂźe Plan"

Seite 2: Catastrophic Risk: Die Obsession mit dem Weltuntergang

Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Die Beschäftigung mit existenziellen Risiken – im Jargon der Szene "xrisks" genannt – hat sich seit den frühen 2000er Jahren zu einem eigenen Forschungsfeld entwickelt. Institutionen wie das Future of Humanity Institute in Oxford widmeten sich ausschließlich der Frage, welche Ereignisse die Menschheit auslöschen könnten.

Bemerkenswert ist die Priorisierung: Während der Klimawandel als "lediglich" zivilisationsgefährdend eingestuft wird, gelten hypothetische Szenarien wie eine außer Kontrolle geratene KI als existenziell bedrohlich. Diese Gewichtung erklärt sich aus der Logik des Longtermism: Ein Ereignis, das die Menschheit auslöscht, verhindert die Existenz aller potenziellen zukünftigen Menschen.

Diese Fokussierung hat konkrete Auswirkungen: Milliardäre wie Dustin Moskovitz oder Jaan Tallinn investieren Millionen in die Erforschung von KI-Risiken, während unmittelbarere Bedrohungen für lebende Menschen als weniger dringlich betrachtet werden.

Einige Transhumanisten, wie etwa Nick Bostrom, entwickelten die Philosophie des "Effektiven Altruismus" (EA). Der Name leitet sich daraus her, dass es im Kern darum geht, so zu handeln, dass der Nutzen für die gesamte Menschheit maximiert wird — allerdings unter der Prämisse einer neoliberalen Ökonomie. Die Grundannahme: Das "knappe Gut" Hilfe muss möglichst "gewinnbringend" eingesetzt werden.

Daraus folgt unter anderem das Prinzip "Earn to Give": Weil jeder Mensch nur begrenzte Zeit und Energie hat, ist es ethisch geboten, so schnell wie möglich viel Geld zu machen, um einen Teil davon zu spenden. Traditionelle ethische Überlegungen werden von diesem Prinzip übergeregelt.

Ein prominentes Beispiel ist Sam Bankman-Fried, der Gründer der kollabierten Kryptowährungsbörse FTX. Er folgte explizit dem "Earn to Give"-Prinzip und wurde zum Milliardär, bevor sein Unternehmen unter Betrugsverdacht zusammenbrach.

Es sollte jedoch angemerkt werden, dass die EA-Bewegung vielfältiger ist, als oft dargestellt. Während einige Vertreter existenzielle Risiken priorisieren, konzentrieren sich viele EA-Initiativen auf aktuelle Probleme wie globale Gesundheit oder Armutsbekämpfung.

Während sich die EA-Bewegung zunächst auf "evidenzbasierte" Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der "Longtermism" genannt wird. Die Idee: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern.

Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existenziellen Krisen, und sind somit auf jeden Fall zu vermeiden – wenn die Menschheit es denn schafft. Laut KI-Pionier Geoffrey Hinton könne und werde eine entsprechend intelligente KI Menschen so manipulieren, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.

Daraus folgt – wenig überraschend: EA hat sich seit Anfang der 2000er vorwiegend im Silicon Valley zu einer Bewegung entwickelt, die über viel Geld und Einfluss verfügt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder Sam Bankman-Fried angezogen hat. Thiel hat öffentlich erklärt, dass er nicht mehr glaube, Freiheit und Demokratie seien miteinander vereinbar – eine persönliche politische Überzeugung, die jedoch nicht notwendigerweise die Haltung aller mit TESCREAL assoziierten Personen darstellt.

Befürworter dieser Ideologien argumentieren, dass sie rational versuchen, die größten Herausforderungen der Menschheit zu bewältigen. Kritiker wie Gebru und Torres hingegen weisen darauf hin, dass diese scheinbar rationalen Ansätze oft bestehende Machtverhältnisse reproduzieren und drängende Probleme wie Klimawandel oder soziale Ungerechtigkeit vernachlässigen.

Auf den ersten Blick scheint es so, als ob all dieser ideologischen Elemente keine Rolle mehr spielen würden. Stattdessen konzentrieren sich die Tech-Eliten jetzt auf die neoliberale Erzählung vom unfähigen und ineffizienten Staat, den man abschaffen und durch eine dynamische Struktur nach dem Vorbild eines Hightech-Unternehmens ersetzen müsse.

Die praktischen Auswirkungen dieser Ideologie sind weitreichend: Sie beeinflussen Investitionsentscheidungen in Milliardenhöhe und prägen die Entwicklungsrichtung von Zukunftstechnologien. In der Praxis führt sie oft zu einer Privatisierung gesellschaftlicher Zukunftsfragen, bei der demokratische Prozesse durch die Visionen einzelner Tech-Milliardäre ersetzt werden. Diese Einschätzung spiegelt allerdings eine bestimmte kritische Perspektive wider, die nicht universell anerkannt ist.

Musks Engagement spiegelt diese Ideologie in vielfältiger Weise wider: Seine Raumfahrtfirma SpaceX verfolgt mit dem Mars-Kolonisierungsprojekt die transhumanistische Vision einer multiplanetaren Menschheit, Neuralink zielt auf die direkte Verbindung von Gehirn und Computer ab, und seine KI-Aktivitäten folgen der Logik des Longtermism.

"Was hat Musk wirklich vor?", fragt Torres. "Ich denke, dass die offensichtlichen Antworten zwar wahr, aber unvollständig sind. Offensichtliche Antworten sind zum Beispiel: Man wird nicht zum Milliardär, wenn man nicht diese Art von größenwahnsinniger Selbstwahrnehmung hat, in der man sich in jeder Hinsicht überlegen fühlt. Und diese Leute sind extrem gierig. Wenn sie sich mit der Trump-Regierung anfreunden, ist das gut für das Geschäft, für die weitere Festigung ihrer Macht."

"Aber ich denke, für Leute wie Musk, und ich würde wahrscheinlich dasselbe für Jeff Bezos sagen, gibt es ein höheres Ziel. Musk hat so viele Hinweise darauf gegeben, dass Macht nicht das Endziel ist. Sogar in dieser Rede, die er gehalten hat, der sehr kurzen Rede nach der Amtseinführung von Trump, in der er den Hitlergruß zeigte. In dieser kleinen Rede sagt er: "Dank Ihnen ist die Zukunft der Zivilisation gesichert." Und so denke ich, dass es ein sehr starkes Argument dafür gibt, dass hinter all dem sein tieferes Ziel steht, seine transhumanistischen Projekte zu verwirklichen."

Update

Korrekte Aufschlüsselung des Akronyms TESCREAL, Verlinkung auf den Beitrag von Emilé Torres

(vza)