Missing Link: "Der große Plan"

Elon Musk gilt als Prototyp des egomanischen und skrupellosen Tech-Unternehmers. Doch hinter seinen Eskapaden steckt wahrscheinlich eine toxische Ideologie.

In Pocket speichern vorlesen Druckansicht 414 Kommentare lesen
Elon Musk

(Bild: Frederic Legrand - COMEO/Shutterstock.com)

Lesezeit: 11 Min.
Inhaltsverzeichnis

Den meisten Menschen wird das Akronym TESCREAL vermutlich nicht viel sagen. Dabei hat dieser Komplex aus Transhumanism, Extropianism, Singularitarianism, Cosmism, Rationality, Effective Altruism, and Longtermism die Eliten des Silicon Valley vermutlich entscheidend geprägt, allen voran Elon Musk. Es handelt sich um eine interpretative Perspektive auf verschiedene technologische und philosophische Strömungen, die zwar im Valley präsent sind, aber nicht zwangsläufig als einheitliche Weltanschauung verfolgt werden.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Der Philosoph Émile Torres hat den Begriff TESCREAL gemeinsam mit der KI-Kritikerin Timnit Gebru entwickelt, um deutlich zu machen, dass viel der schillernden, angesagten Ideologien aus dem Silicon Valley einen gemeinsamen Kern haben: Den tief verankerten Glauben an die angebliche Überlegenheit einer technologischen Elite gegenüber den minderwertigen Massen. Und obwohl es so aussieht, als ob die Tech-Bros im Moment vollkommen damit ausgelastet sind, die USA umzukrempeln, spielt diese Ideologie noch immer eine wichtige Rolle.

Ideologie zu analysieren, mag auf den ersten Blick sehr akademisch wirken – zumal ein Teil der darin enthaltenen Konzepte ein wenig bizarr sind. Es ist jedoch aus zwei Gründen wichtig: Zum einen dient Ideologie immer der Selbstversicherung und Rechtfertigung des eigenen Tuns nach Außen. Zum anderen ist Ideologie auch immer eine Art geistiger Filter, der hilft, Sinn und Struktur in die Welt zu bringen und Unwichtiges von Wichtigem zu unterscheiden. Jemandes Ideologie zu verstehen, bedeutet also auch immer, zu verstehen, wie er oder sie "die Welt sieht". Werfen wir also einen Blick auf einige wichtige Elemente, speziell zur technologischen Singularität, Superintelligenz, Transhumanismus, Effektivem Altruismus, Catastrophic Risk (Katastrophenrisiken) und Longtermism.

Die Anhänger der Idee einer technischen Singularität gehen davon aus, dass der technische Fortschritt der Menschheit sich im Laufe der Geschichte immer weiter beschleunigt hat. Bereits in Kürze wären die Menschen also in der Lage, eine KI zu bauen, die sich selbst verbessern kann. Ab diesem Zeitpunkt – der Singularität – sei der weitere Verlauf der technischen Entwicklung nicht mehr vorherzusagen. Aus der KI werde sich dann eine übermenschliche "Superintelligenz" entwickeln, die im schlimmsten Fall die Menschheit vernichtet.

Die Idee der Singularität wurde in den 1990er Jahren durch einen Artikel des Mathematikers Vernor populär und später von Ray Kurzweil weiterentwickelt. Sie fand besonders im Silicon Valley Anklang, wo sie durch Organisationen wie das Singularity Institute (heute MIRI) institutionalisiert wurde. Es ist jedoch wichtig anzumerken, dass die Singularitätstheorie zwar diskutiert wird, aber es keine empirischen Beweise für ihre unmittelbare Realisierbarkeit gibt.

Timnit Gebru vermutet hinter dem Vorhaben keine technische, sondern eine politische Agenda. Gemeinsam mit Torres zieht sie eine historische Linie von den amerikanischen Eugenikern über die Transhumanisten zu den führenden Köpfen von OpenAI, in der es nie um die Zukunft und das Wohl der gesamten Menschheit ging, sondern darum, alles Unnütze und Überflüssige auszusortieren.

Künstliche Intelligenz nimmt in der TESCREAL-Ideologie eine Doppelrolle ein: Sie ist gleichzeitig die größte Bedrohung und die ultimative Erlösung. Diese paradoxe Position erklärt sich aus dem fast religiösen Glauben an die transformative Kraft der Technologie im Silicon Valley.

Bezeichnend ist, wie sich die KI-Sicherheitsforschung entwickelt hat: Statt sich auf konkrete Probleme wie Diskriminierung durch Algorithmen zu konzentrieren, beschäftigen sich prominente Forscher mit hypothetischen Szenarien einer Superintelligenz. Das von Musk mitgegründete OpenAI startete als Non-Profit-Organisation für "sichere KI", verwandelte sich aber später in ein gewinnorientiertes Unternehmen mit Microsoft-Kooperation.

Die Ironie: Unter dem Vorwand, eine sichere KI zum Wohle der Menschheit zu entwickeln, entsteht eine neue Machtkonzentration in den Händen derselben Tech-Elite. Wie Gebru betont, gehen die größten unmittelbaren Gefahren der KI nicht von einer hypothetischen Superintelligenz aus, sondern von ihrer Nutzung zur Verstärkung bestehender Ungleichheiten.

Tatsächlich ist Gebru nicht die erste, die auf das schwierige Erbe der Intelligenzforschung verweist: Bereits 1981 kritisierte der Biologe Stephen Jay Gould in seinem Buch "Der falsch vermessene Mensch" das Konzept "Intelligenz" als objektive Messlatte für allgemeine kognitive Fähigkeiten. Dieses Konzept und die zugehörigen Tests wurde ganz wesentlich von Forschern wie Charles Spearman vorangetrieben, einem hochrangigen Mitglied der britischen Eugenischen Gesellschaft. Die statistischen Methoden, die Spearman entwickelte, entwickelte Frank Rosenblatt dann später für das erste künstliche neuronale Netz weiter.

Wie sein Lehrer, der britische Naturforscher Francis Galton war Spearman davon überzeugt, dass man durch politische Eingriffe dafür sorgen müsse, dass intelligente Menschen sich stärker vermehren als der Rest – eine Idee, die letztendlich zur Rassenlehre der Nazis führte. Doch auch nach dem Ende des zweiten Weltkriegs war die Eugenik nicht restlos diskreditiert.

In den 1990er Jahren entwickelte sich in den USA mit dem Transhumanismus eine Ideologie, die den Grundgedanken der Eugenik aufgriff, aber nicht mehr auf Biopolitik, sondern auf individuelle Verbesserungen durch KI oder Gentechnik setzte.

Für Transhumanisten geht die Evolution des Menschen mithilfe von Technologie weiter. Sie glauben, dass Menschen immer stärker mit Technologie zusammenwachsen und schließlich auch ihren Geist in Computer hochladen können, um unsterblich zu werden. Viele moderne Transhumanisten distanzieren sich jedoch ausdrücklich von der Eugenik und betonen stattdessen individuelle Wahlfreiheit und ethische Verantwortung.