Können Maschinen denken?

Der Turing-Test aus systemtheoretischer Perspektive

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Alan Turing beantwortete diese Frage nicht unmittelbar, sondern indirekt über das mittlerweile praktisch durchführbare Gedankenexperiment eines "imitation game". Seine Antwort lautete, es könne zumindest nicht ausgeschlossen werden, dass Maschinen (Computer) denken können, wenn sie Kommunikation, etwa als Wechselspiel von Fragen und Antworten, derart gut imitieren, dass (durch Menschen) mit hoher Wahrscheinlichkeit nicht entschieden werden kann, ob fragliche Kommunikation maschinell oder durch eine menschliche Person erfolgt.1 Dies zumal angesichts (damals zukünftiger) selbstlernender Maschinen bzw. Algorithmen, denen es in ihrer Anwendung möglich ist, eigene Strukturen zu verändern und damit potentiell die Simulation (?) der Kommunikation - bzw. des damit zusammenhängenden Denkens (?) - des "imitation game" fortlaufend zu verbessern.

Wir werden die eingangs gestellte Frage, bezugnehmend auf die Luhmannsche Systemtheorie2 und damit unter einem radikal anderen Blickwinkel als sonst üblich, relativ umstandslos und direkt beantworten können. Allerdings werden wir feststellen müssen, dass die schlichte, umstandslose Beantwortung der Frage durch die komplexen theoretischen Voraussetzungen der Systemtheorie erkauft sind. So ist etwa aus systemtheoretischer Perspektive keineswegs selbstverständlich, obgleich die eingangs gestellte Frage dies nahelegt, welche Instanz im Unterschied zum fraglichen maschinellen Denken fraglos Denken erlaubt.

Die scheinbar auf der Hand liegende Antwort, dass es sicherlich Menschen im Unterschied zu Maschinen sind, ist bei näherer Betrachtung keineswegs evident. Arme und Beine etwa gehören zweifellos zum Menschen, doch kommt diesen zumal amputierbaren Teilen "des Menschen" kaum eine wichtige Funktion beim Denkens zu. Weitere Überlegungen führen meist dazu, die Denkfähigkeit "des Menschen" im Gehirn zu verorten. Ist es aber fraglos das Gehirn, mittlerweile auch in Verbindung mit anderen Körperregionen, etwa dem Darm, welches denken kann? Dies eben im Unterschied zur fraglichen Denkfähigkeit eines "Computer-Gehirns"?

Schon diese schlichten Überlegungen zeigen, dass die Beantwortung der Frage, ob Maschinen denken können, eine differenzierte Betrachtung der fraglos Geltung beanspruchenden Prämisse dieser Frage erfordert. Nämlich, dass Denkfähigkeit, wenn vielleicht nicht pauschal im Menschen, so doch spezifisch im Gehirn zu verorten ist. Wir werden im Folgenden sehen, dass die Systemtheorie erlaubt, "den Menschen" in differenzierterer Weise zu betrachten, als sonst üblich.

Auch unseren Erwägungen gemäß erscheint einsichtig, mit der Systemtheorie zumindest drei Systemebenen zu unterscheiden. Neben einer psychischen, sich auf gedankliche Operationen beziehenden Systemebene, eine physische, auch das Gehirn bzw. das neuronale Netzwerk umfassende. Weiter ist sicherlich mit Blick auf "den Menschen" als soziales Lebewesen ein systematischer Bezug hinsichtlich kommunikativer Operationen zu unterscheiden.

Die mutmaßliche Antwort Niklas Luhmanns

Es mag nicht überraschen, dass der 1998 verstorbene Soziologe auf die Frage, ob Maschinen denken können, mit "Nein" geantwortet hätte. Überrascht hätte aber wohl, dass Luhmann auch die Frage, ob die Fähigkeit des Denkens "im Menschen" zu verorten sei, und sei es spezifisch im Gehirn, ebenso mit einem klaren "Nein" beantwortet hätte.

Womit sich die Frage stellt, welcher Instanz die Systemtheorie die Fähigkeit des Denkens zurechnet.

Die Antwort lautet, dass der Ort des Denkens das Denken ist. Es sind, wie jede Person für sich selbst introspektiv feststellen kann, die Gedanken selbst, die weitere Gedanken, die einen gedanklichen "Fluss" ermöglichen. Gedanken schließen operativ an Gedanken an. Das systemtheoretische Diktum, dass es weder Gehirne noch Maschinen, sondern Gedanken sind, die denken, zielt demnach nicht auf eine Tautologie, eine definitorische Binsenweisheit ab ("Gedanken sind Gedanken"). Vielmehr geht die Systemtheorie davon aus, dass es "autopoietische" Systeme gibt3, die mit Hilfe ihrer Operationen, im vorliegenden Fall Gedanken, ermöglichen, genaue jene Operationen in ihren systemischen Grenzen weiter aufrecht zu erhalten. Der Ort des Denkens ist also einem System zuzurechnen, welches nicht über die systeminterne Möglichkeit verfügt, einen abschließenden Gedanken zu denken, einen Gedanken, der das System (man mag dies Bewusstsein nennen) zum Kollaps brächte.

Allerdings ist eine "Enttautologisierung" der selbstbezüglichen Operationen des Bewusstseins ("Gedanken denken") unabdingbar. Autopoietische Systeme können nicht gewissermaßen solipsistisch "für sich" existieren, sondern nur, indem sie sich fortlaufend - gerade anhand ihrer je spezifischen Operationen - von einer Umwelt unterscheiden. Relevante Umwelt des Bewusstseins in Aufrechterhaltung seiner gedanklichen Operationen ist offenkundig einerseits das Gehirn, andererseits seine kommunikative Umwelt. Offenkundig relevant deshalb, weil sich mit Leichtigkeit zeigen lässt bzw. introspektiv erfahrbar ist, dass sich durch Beeinflussung der physischen Umwelt (etwa mit Hilfe von Schmerzen, Alkohol, Psychopharmaka), bzw. mittels der kommunikativen Umwelt, also durch Sprache, das Bewusstsein in seinen gedanklichen Operationen irritieren lässt.

Dabei ist entscheidend, festzuhalten (bzw. introspektiv festzustellen), dass weder physisch (neuronal) bedingte Umwelteinflüsse, etwa mittels Psychopharmaka oder Alkohol, noch kommunikativ, mittels Sprache intendierte Umwelteinflüsse vermögen, spezifische gedankliche Operationen zu determinieren. Genau deshalb ist in diesem Zusammenhang von Irritationen die Rede. Sowohl die soziale wie auch die neuronale Umwelt des Bewusstseins bilden eigene operative Domänen bzw. Systeme, die schon aufgrund ihrer operativen Eigenständigkeit keine informative Kopplung zulassen. Innerhalb des neuronalen Systems führt neuronales "Feuern" zu neuronalem "Feuern". Gedanken sind es innerhalb des Bewusstseins, die denken. Kommunikation kommuniziert und konstituiert derart soziale Systeme, wie etwa Interaktionssysteme ("Gespräche"), Massenmedien oder das Wissenschaftssystem.4

Gerade weil Gedanken nicht direkt in die Kommunikationen, und Kommunikationen nicht direkt in Gedanken "diffundieren" können, sondern sowohl operativ wie informativ eigenständige Sphären bilden, vermögen sich - mittels Sprache - Bewusstsein und Kommunikation gegenseitig zu überraschen, zu inspirieren, zu konsternieren. Erst die operative wie informative Entkoppelung von sozialen, auf der Basis von Kommunikation operierenden Systemen, und Bewusstsein, also auf der Basis von Gedanken operierenden Systemen, ermöglicht wechselseitige Intransparenz. Also eine wechselseitige prinzipiell undurchschaubare Umweltkomplexität, die, in der Bewältigung dieser Komplexität, erst die wechselseitige Konstitution und Aufrechterhaltung von Bewusstsein und sozialen Systemen ermöglicht.

Informationen, Unterschiede, die Unterschiede ausmachen5, sind von daher komplexitätsreduzierend nur systemintern konstruierbar. Also innerhalb des Bewusstseins auf der Basis von Gedanken, innerhalb von sozialen Systemen anhand von kommunikativen Operationen.

Ein operativer bzw. informativer Kurzschluss der beiden Sphären - Kommunikation wäre dann als wechselseitige Informationsübertragung externalisierter Gedanken zwischen bewussten Systemen zu verstehen - würde sowohl das Bewusstsein wie auch soziale Systeme in einer Art solipsistischen Katastrophe kollabieren lassen. Autopoietische Systeme, deren Existenz gerade in der fortwährenden Aufrechterhaltung ihrer eigenen Operationen - durch ihre eigenen Operationen - im Unterschied zu einer Umwelt ermöglicht wird, würden ihrer Umwelt, und damit sich selbst verlustig gehen. Von daher können weder kommunikative noch neuronale Operationen mit Prozessen des Denkens identifiziert werden oder könnten sie das Denken repräsentieren. Es sind vielmehr Operationen, die sich wechselseitig gerade durch und an ihrer Unterschiedlichkeit ermöglichen.

Der Ort des Denkens ist das Denken. Weder eine Maschine noch "der Mensch", auch nicht spezifisch dessen Gehirn, vermag zu denken. Aus dieser Perspektive wird die Frage Alan Turings, ob Maschinen denken können, sinnlos. Denn sowohl die Frage, wie die fraglos Geltung beanspruchende Voraussetzung dieser Frage ("Menschen, im Gegensatz zu Maschinen, können denken.") muss mit "Nein" beantwortet werden. Die Disposition des Turing Tests bedarf also einer Umdeutung.

Neuinterpretation des Turing-Tests aus systemtheoretischer Perspektive

Der Turing-Test wird gemeinhin als Methode verstanden, durch die das nur persönlich zugängliche Denken, wenn vielleicht nicht identifiziert, so doch mit hoher Wahrscheinlichkeit indiziert oder erschlossen werden kann. Dies gilt ganz unabhängig von einem fraglichen maschinellen Denken. Insofern schließt der Turing-Test pragmatisch an die Alltagserfahrung an, wie auch Menschen sich (kommunikativ und gedanklich) in alltäglichen sozialen, also kommunikativ disponierten Begegnungen die Fähigkeit des Denkens zurechnen.

Aus systemtheoretischer Perspektive kann der Turing-Test nicht als Methode gelten, mit der (maschinelles) Denken indiziert, erschlossen oder gar identifiziert werden kann. Die Disposition des Turing-Tests verdeutlicht vielmehr empirisch die systemtheoretische Prämisse, dass der Ort des Denkens in seiner Systematik das Denken, bzw. der systematische Ort der Kommunikation Kommunikation ist. Das "imitation game" zielt nämlich darauf ab, Kommunikation kommunizieren zu lassen. Kommunikation ("Fragen") schließen hier operativ strikt an Kommunikation ("Antworten") an und gerade nicht an Gedanken. Insofern können allenfalls Gedanken Gedanken, bzw. kann, wie im "imitation game", Kommunikation Kommunikation identifizieren bzw. indizieren.

Die Identifikation von Gedanken durch Gedanken, bzw. von Kommunikation durch Kommunikation, setzt allerdings mit hier vorausgesetzter Unterscheidung von Selbst- und Fremdreferenz einen ausreichend hohen Grad an operativer Komplexität voraus. Eine Komplexität, die, einmal mehr, gerade dadurch erreicht wird, dass sich gedankliche und kommunikative Operationen systematisch unterscheiden. Erst so wird ko-evolutiv und selbstverstärkend gerade deshalb eine gegenseitige Steigerung der Komplexität dieser Systeme bzw. Umwelten ermöglicht, weil die durch Komplexität wachsenden gegenseitigen Herausforderungen eben einen Zuwachs an Komplexität dieser Systeme bzw. Umwelten erfordern. Nicht zuletzt ist Selbst-Bewusstsein in Hinsicht auf gedankliche Operationen und die Möglichkeit von (politischen, wissenschaftlichen, künstlerischen etc.) Selbstbeschreibungen mit Blick auf soziale, kommunikativ operierende Systeme Ausdruck dieser ko-evolutiv ermöglichten Steigerung von Komplexität.

Kommunikation setzt also tatsächlich eine komplexe Umwelt (üblicherweise bewusste und neuronale Systeme) voraus. Genauso wie (Selbst-)Bewusstsein eine komplexe Umwelt voraussetzt (üblicherweise ein neuronales System und soziale Systeme). Entscheidend ist jedoch, um dies erneut festzuhalten, die Komplexität der Umwelt in ihrer operativen und informativen Unterschiedlichkeit. Denken funktioniert, weil es nicht mit Kommunikation identifiziert werden kann; und Kommunikation funktioniert, weil es nicht mit Denken identifiziert werden kann.

Aus systemtheoretischer Sicht funktioniert der Turing-Test in seiner Disposition gerade deshalb, weil mit seiner Hilfe gedankliche Operationen nicht identifiziert bzw. indiziert werden. Erst dadurch, dass in sozialen, kommunikativ operierenden Systemen Gedanken strikt ausgeschlossen sind, ist der Test offen für die Möglichkeit bzw. Schlussfolgerung, dass die - kommunikativ - erzielbare Komplexität des "imitation game" nicht unbedingt durch die Umweltkomplexität des Denkens, bzw. neuronaler Operationen bedingt ist. Vielmehr ist prinzipiell möglich, die für Systeme existenznotwendige Umweltkomplexität intransparenten maschinellen Operationen, etwa denen künstlicher neuronaler Netzwerke, und damit allenfalls künstlichem Bewusstsein, zuzuschreiben.

Evolution Künstlicher Intelligenz

Dass prinzipiell nicht auszuschließen ist, dass kommunikative Komplexität, wie sie etwa durch Turings "imitation game" feststellbar wäre, auch durch "künstliche Intelligenz", also auch durch ganz andere Umwelt-Operationen bedingt sein kann, als durch gedankliche und neuronale, lässt sich mit Blick auf evolutionäre Ereignisse erschließen.

Die Autopoiesis von Systemen, also deren Selbsterschaffung bzw. Selbsterhaltung, setzt einen ganz spezifischen Typus von Operationen voraus. Es muss sich abstrakt um Operationen handeln, die an genau jene Operationen anschließen können, die diese Operationen selbst erst ermöglichen. Es sind also Operationen die niemals "an sich" auftauchen können, sondern stets ein Netzwerk von gleichartigen Operationen voraussetzt. Dieser Typ von Operationen ermöglicht Systeme - in fortwährender, durch diese Operationen ermöglichter Unterscheidung von ihren Umwelten - und wird zugleich selbst erst durch Systeme (operative Netzwerke) ermöglicht.

Evolutionsgeschichtlich lassen sich folgende Operationen ausmachen, die diesem Typus genügen. Zunächst ist mit Blick auf Zellen, dem Paradigma autopoietischer Systeme, von Operationen dieses Typs auf molekularer Basis auszugehen.6 Mit Blick auf das Ökosystem lässt sich die Operation der Reproduktion (zunächst Zellteilung) bestimmen, welche dessen Aufrechterhaltung (Autopoiesis) ermöglicht. Reproduktion (etwa Zellteilung) ermöglicht Reproduktion, setzt aber für diese Möglichkeit selbst schon Reproduktion voraus. Eine evolutionär ermöglichte Modifikation der Form der Reproduktion durch Zellteilung - nämlich sexuelle Reproduktion - ermöglichte die Ausdifferenzierung von unterschiedlichen biologischen Arten. Die Abgrenzung von unterschiedlichen biologischen Arten bzw. ihre Aufrechterhaltung als Systeme wird durch die Reproduktion sexueller Reproduktion geleistet. Reproduktion (ob durch Zellteilung oder Sexualität) reproduziert Reproduktion und ermöglicht lebende Systeme.7

Soziale Systeme wurden durch die evolutionäre Entwicklung von Kommunikation, bzw. von dazu zunächst benutzten lautsprachlichen Äußerungen, ermöglicht. Auch Kommunikation lässt sich dem oben erörterten Typus von Autopoiesis ermöglichenden Operationen zuordnen. Kommunikation setzt Kommunikation voraus und an Kommunikation lässt sich kommunikativ anknüpfen. Allerdings ist vorauszusetzen, dass kommunikative Komplexität erst in Unterscheidung und Ko-Evolution zu einer entsprechend komplexen Umwelt möglich ist. In der Unterscheidung einerseits von Bewusstsein als eines Systems, welches auf der Basis von Gedanken Gedanken ermöglicht und voraussetzt, und andererseits in Unterscheidung von neuronalen Systemen.

Sowohl die Operationen des Bewusstseins, wie auch die von neuronalen Systemen entsprechen dem Typus von Operationen, welche Autopoiesis erlauben. Im Falle von neuronalen Systemen ist es die operative Dynamik von Zustandsveränderungen des neuronalen Netzwerks. Der je spezifischen Zustand der Verknüpfungen von Neuronen als neuronalem Netzwerk bestimmt einerseits den folgenden Zustand des Netzwerks, wie er andererseits auch selbst vom vorherigen Zustand des Netzwerks bestimmt worden ist. Zustandsveränderungen in neuronalen Netzwerken führen zu Zustandsveränderungen führen zu Zustandsveränderungen etc.

Grundsätzlich spricht aus evolutionstheoretischer Perspektive nichts dagegen, dass die Operation der zu Zustandsveränderungen führenden Zustandsveränderungen - etwa: Löschen und Entstehung von künstlichen Neuronen bzw. Verbindungen, Stärke (Gewichtung) von Verbindungen - auf Basis künstlicher neuronaler Netzwerke erfolgen kann. Letztlich materialisiert also etwa durch Transistoren, Widerstände, Kondensatoren.

Allerdings konnten durch derartige Netzwerke bislang noch keine autopoietischen Systeme konstruiert werden. Eine Unterstützung durch künstliche neuronale Netzwerke bei der Verarbeitung von komplexen Daten mit vorgegebenen Input und Output ist allerdings - auf der Ebene sozialer Systeme - schon derzeit erfolgreich möglich. Etwa bei Übersetzungen von Sprache oder bei der Erkennung von visuellen oder auditiven Mustern. Der mittlerweile mögliche Zugang zu sehr großen, digitalisierten Datenmengen ("Big Data") ermöglicht, künstliche Netzwerke zu "trainieren" ("Deep Learning"), also die in Netzwerken möglichen Operationen der Datenverarbeitung (d.h. zu Zustandsänderungen führende Zustandsveränderungen) an einen vorgegebenen In- und Output anzupassen (etwa: Texte und ihre validierten Übersetzungen), um daraufhin den Output des Inputs von neuen Daten ähnlicher Art zu errechnen.

Dabei ist erstaunlich, dass schon auf der Ebene der Datenverarbeitung die Intransparenz von künstlichen neuronalen Netzwerken zu beobachten ist. Demnach gilt scheinbar schon auf der Ebene der innersystemischen Verarbeitung von komplexen Daten (hier in Bezug auf soziale Systeme), was für neuronale (oder eben auch künstliche) Netzwerke bzw. Systeme gilt. Diese bilden Bewusstsein bzw. Kommunikation in ihrer Umwelt nicht ab oder repräsentieren sie. Vielmehr ist es gerade die operative und informative Entkoppelung und damit Intransparenz, die für wechselseitige Komplexität sorgt (Überraschungen, Anregungen, Irritationen), und die erst die Konstitution von Systemen ermöglicht. Systeme können sich in ihrer Determiniertheit durch eigene Strukturen nicht selbst überraschen, sondern können nur von ihren komplexen Umwelten (allenfalls selbst Systemen) überrascht werden.

Nicht Systeme selbst können demnach über Kreativität verfügen, sondern diese ergibt sich erst aus der operativen und informativen Geschlossenheit von Systemen gegenüber ihren Umwelten. Operationen auf der Basis von Kommunikationen, von Gedanken und von Zustandsveränderungen (neuronaler, bzw. künstlicher Netzwerke) können sich zwar nur selbstbezüglich, nur in Bezug auf ihre eigenen Operationen reproduzieren, vermögen sich aber gerade aufgrund dieser operativen wie informativen Geschlossenheit (wechselseitig) zu überraschen, anzuregen, zu irritieren. Erst so ist trotz der Determiniertheit von Systemen durch ihre eigenen Strukturen aufgrund der Selbstbezüglichkeit ihrer Operationen die wechselseitige Konstruktion (nicht Übertragung!) neuer Informationen möglich.

Aus dieser Perspektive ergeben sich etwa die gewinnbringenden, gewissermaßen kreativen, "überraschenden", "unvorhersehbaren" Spielzüge der Google-Software "AlphaGo" (beim Brettspiel "Go") gerade aus der Intransparenz der Rechenoperationen (Zustandsveränderungen) des dabei verwendeten künstlichen neuronalen Netzwerks. Aus systemtheoretischer Sicht ist die schon auf der Ebene der Datenverarbeitung beobachtbare Intransparenz der Rechenprozesse nicht beklagenswert, nicht als Makel zu verstehen, sondern zeugt von funktionaler Notwendigkeit.

Hoffnungen und Befürchtungen im Zusammenhang mit künstlicher Intelligenz

Die Furcht, dass neue, grundsätzlich Autopoiesis ermöglichende Operationen, etwa zu Zustandsveränderungen führende Zustandsveränderungen in künstlichen neuronalen Netzwerken, ein (lebens-)zerstörerisches Potential entwickeln können, ist durchaus berechtigt.

Zu plausibilisieren ist diese Annahme allerdings nicht aufgrund von Spekulationen über die Auswirkungen der "Digitalisierung" auf die moderne Gesellschaft. Etwa im Verweis auf das Horrorszenario, dass zukünftige Generationen von Robotern "den Menschen" nicht nur in der Arbeitswelt "ersetzen" könnten. - Nein, vielmehr lässt sich mit Blick auf die jüngste Geschichte der Evolution empirisch nachweisen, dass die evolutionäre Entwicklung von neuen, Autopoiesis ermöglichenden Operationen grundsätzlich zerstörerische, lebensbedrohliche Konsequenzen zeitigen kann.

Mit dem Aufkommen von lautsprachlichen, letztlich Kommunikation ermöglichenden Operationen vor etwa 50.000 bis 500.000 Jahren - Sprache hinterlässt keine Fossilien, eine genaue Datierung ist demnach schwierig - konnten sich ganz neue Formen von autopoietischen Systemen entwickeln, nämlich soziale Systeme. Innerhalb evolutionär gesehen kürzester Zeit, nämlich bis heute, führten soziale Systeme durch ihre Expansion, durch Umweltverschmutzung und -veränderung (etwa als Klimawandel, durch Bodenversiegelung, durch die Agrarindustrie, etwa in der Nutzung von Pestiziden, Verunreinigung von Gewässern, etc.), zu einem Massensterben von biologischen Arten.

Dabei war es insbesondere eine sozial-evolutionär ermöglichte Modifikation der sprachlichen Form, durch die die Operation der Kommunikation in sozialen Systemen aufrecht erhalten wird, die eine gewissermaßen explosionsartige Entwicklung zur Folge hatte. Innerhalb von 500 Jahren (kaum ein "Wimpernschlag" in den Zeitdimensionen der Evolution) ermöglichte Schriftlichkeit und deren Verbreitung im Buchdruck eine Expansion und Komplexitätssteigerung sozialer Systeme, die nunmehr tatsächlich im "menschlich" verursachten Massensterben von biologischen Arten lebensbedrohliche Ausmaße erreicht hat. Festzuhalten ist in diesem Zusammenhang jedenfalls, dass sich soziale Systeme, die sich ausschließlich über mündliche Kommunikation aufrecht erhielten (Stammesgesellschaften), weitaus stabiler und gewissermaßen "umweltschonender" reproduzierten, als die moderne Gesellschaft.

Es ist nicht "der Mensch", sondern eine evolutionär ermöglichte Form der Operation (Kommunikation), welche die Konstitution von sozialen, extrem erfolgreich expandierenden komplexen Systemen ermöglichte. Diese Systeme stellen zwar sicherlich keine Gefahr für das letztlich auf der Basis von bakteriellen Strukturen operierende Ökosystem dar, vermögen jedoch offenkundig und nachweislich eine Vielzahl von Subsystemen des Ökosystems (biologische Arten) auszurotten.

Auszuschließen ist insofern jedenfalls nicht, dass die evolutionäre Entwicklung eines neuen Typs von Operationen - künstliche neuronale Netzwerke -, welche Autopoiesis (die Aufrechterhaltung von Operationen durch eben jene Operationen) ermöglichen könnte, grundsätzlich ähnlich zerstörerische Ausmaße erreicht, wie die Operation der Kommunikation. Dass dieses Szenario gleichwohl eher unwahrscheinlich ist, ist nicht dem (fruchtlosen) Entwicklungspotential von künstlichen neuronalen Netzwerken zuzuschreiben, sondern dem offenkundig (selbst-)destruktiven Potential sozialer Systeme.

Aus systemtheoretischer Sicht lässt sich konstatieren, dass soziale Systeme zwar eine Komplexität entwickelt haben, welche eine extrem erfolgreiche Expansion ermöglichte, jedoch insofern generell unterkomplex sind, als in ihren Selbstbeschreibungen gewöhnlich unberücksichtigt bleibt, dass spezifischen Systemen eine Existenz nur in permanenter Unterscheidung von einer ebenso spezifischen Umwelt zukommt. Mit anderen Worten: Sozialen (und wohl auch auf der Basis von Gedanken operierenden) Systemen fehlt gemeinhin der Sinn für die notwendigen, sie einschränkenden Voraussetzungen ihrer selbst. Umweltzerstörung ist mit Systemzerstörung gleichzusetzen. Ein spezifisches Bewusstsein etwa ist existentiell an seine spezifischen Umweltbedingungen (neuronales System und kommunikative Umwelt) gebunden und lässt sich nicht von diesen "entkoppeln".

Gerade im Zusammenhang mit den Forschungsbemühungen um künstliche Intelligenz zeigt sich das oft fehlende Verständnis für die gegenseitige existentielle Bedingtheit von Systemen und ihren Umwelten. Dieses drückt sich sowohl in den damit verbundenen Hoffnungen wie auch Befürchtungen aus. So erscheint aus systemtheoretischer Sicht die Erwartung, dass es möglich wäre, das Bewusstsein, als Einheit gewissermaßen, unabhängig von seiner je spezifischen Umwelt zu konservieren ("mind uploading"), schlicht absurd. Schon die empirische Beobachtung, dass selbst geringste Dosen von Substanzen (wie etwa LSD) in der Umwelt des Bewusstseins, dem neuronalen System, zu gravierenden Bewusstseinsveränderungen führen, sollte dies eigentlich verdeutlichen.

Doch auch die Befürchtung, dass künstliche Intelligenz dazu führen könnte, die Menschheit zu bedrohen oder gar auszurotten, ist irrational. Falls (soziale) Evolution tatsächlich je zu autopoietischen Systemen auf der Basis von Operationen in künstlichen neuronalen Netzwerken führte, wären diese in existentieller Weise abhängig von der Komplexität ihrer Umwelt, nämlich lebenden, ebenso wie neuronalen, aber wohl auch sozialen Systemen.

Ein Blick auf die Evolutionsgeschichte zeigt, dass neue Formen von Autopoiesis ermöglichende Operationen in keinem Fall bis dahin übliche Formen verdrängten. Im Gegenteil: vielmehr sind Systeme, etwa auf Basis von (sexueller) Reproduktion (Ökosystem, biologische Arten), Systeme auf der Basis von Zustandsveränderungen in Netzwerken (etwa neuronale Systeme), Systeme auf der Basis von Gedanken (Bewusstsein), Systeme auf der Basis von Kommunikation (soziale Systeme), in existentieller Weise voneinander abhängig, bedingen sich wechselseitig in ihren System-Umwelt Relationen.

Nicht zuletzt zeugt die Forschung zum "Gedankenlesen", die grundsätzlich davon ausgeht, dass es mit den neuesten bildgebenden Verfahren (funktionelle Magnetresonanztomographie) möglich wäre, gewissermaßen einen direkten Blick in die "Gedankenwelt" eines neuronalen Systems zu werfen, von einem gemeinhin mangelnden Verständnis für die existentiell notwendige operative und informative Geschlossenheit von Systemen in Bezug auf ihre Umwelten.