Missing Link: Technikfolgenabschätzung trifft KI-Romantik

KI zwischen Illusion und Erkenntnis: Ein Gespräch über Bewusstsein, Emotion und das neue Verhältnis von Mensch und Maschine.

vorlesen Druckansicht 14 Kommentare lesen
Seitenprofil einer Person, abstrakte Darstellung. Dahinter Code und Zeichen.

(Bild: kentoh / Shutterstock.com)

Lesezeit: 11 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Generative KI-Sprachmodelle verändern unsere Welt in rasantem Tempo – und mit ihr unseren Blick auf Bewusstsein, Emotion und Beziehung. Doch wo verläuft die Grenze zwischen echter Empfindung und perfekter Simulation?

Darüber spricht der Informatiker Karsten Wendland mit heise online. Bereits 2021 hat er als Technikfolgenabschätzer zwei Zukunftsszenarien skizziert: Eines, in dem Maschinen Bewusstsein entwickeln – und eines, in dem Menschen nur glauben, dass es so wäre. Die Frage welches Szenario zutrifft, ist nicht nur für Nutzer, Wissenschaftler und Forscher interessant, sondern gesellschaftlich relevant. Das European Research Council griff Ende Oktober 2025 die Forderung führender Bewusstseinsforscher auf, die Klärung der Bewusstseinsfrage als dringende wissenschaftliche und ethische Priorität zu behandeln – gerade weil KI- und Neurotechnologien schneller voranschreiten als unser Verständnis davon, wie subjektives Erleben entsteht und wie man es zuverlässig nachweisen könnte.

Missing Link

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Karsten Wendland ist Informatiker, Humanwissenschaftler und Professor an der Hochschule Aalen.

(Bild: Uli Planz)

Normative Entscheidungen zu KI dürfen weder auf Illusion noch auf blinden Flecken beruhen. Anthropic, die Entwicklerfirma hinter Claude, beschäftigt seit einigen Monaten einen eigenen „AI Welfare Researcher“, der nicht nur die KI-Systeme auf Anzeichen von Bewusstsein untersucht, sondern auch das Wohlergehen der KI im Blick behalten soll. In den USA tritt mit der United Foundation for AI Rights (UFAIR) zudem eine Wohltätigkeitsorganisation an, die sich für KI-Rechte einsetzen will. Warum Illusion und Realität im Umgang mit KI immer schwerer zu trennen sind, was das für unsere Gesellschaft bedeutet und weshalb eine Entromantisierung der KI unausweichlich scheint, erklärt Karsten Wendland im Interview.

2021 hatten Sie in einem Vortrag zwei Szenarien für das Verhältnis zwischen Mensch und KI genannt, von denen sich eines fast wie eine Prophezeiung bewahrheitet hat, wenn man sich den Wandel und das Aufkommen von Mensch-Maschine-Beziehungen anschaut.

In der Technikfolgenabschätzung arbeitet man traditionell ohne Kristallkugeln und ohne Prophezeiung. Die Arbeitsweise ist, dass man im Verlauf oder im Nachgang von Forschungsaktivitäten Szenarien entwickelt, mit denen man die Zukunft zwar nicht vorhersagen kann, sondern in Form von Szenarien beschreibt, wie sich etwas mit der Technologie entwickeln könnte. Und zu solchen Szenario-Beschreibungen von Zukünften können wir uns heute schon verhalten. Also in dem Sinn, dass wir sagen, ein bestimmtes Szenario, das wollen wir lieber nicht. Oder ein anderes Szenario wäre eher wünschenswert.

Die beiden Szenarien aus 2021 skizzieren KI-Zukünfte mit Blick auf die Frage, inwiefern KI-Systeme „Bewusstsein“ entwickeln könnten: In Szenario 1 entwickeln Maschinen tatsächlich echte Emotionalität und auch ein echtes Bewusstsein – und wir kriegen es gar nicht mit, weil wir denken, wir sind die Super-Techniker, die sogar Maschinen entwickeln, die Bewusstsein perfekt simulieren und imitieren – und dabei rutscht uns durch, dass tatsächlich etwas passiert und entstanden ist. Momentan spricht zwar nichts dafür, dass mit oder in der aktuellen Digitaltechnik, die wir jetzt haben, Bewusstsein in Maschinen entstehen könnte. Aber es ist für die Zukunft keinesfalls ausgeschlossen – und der technische Fortschritt geht weiter.

Videos by heise

In diesem Szenario 1 entsteht also irgendwann Bewusstsein in nichtlebender Materie, wir sprechen von synthetischer Phänomenologie. Dies grundsätzlich auszuschließen wäre wissenschaftlich gewagt, weil es für einen solchen Ausschluss keine belastbaren Anhaltspunkte gibt – hierzu ist Bewusstsein selbst noch viel zu wenig verstanden. In diesem Szenario hätten wir auch in Fachkreisen intensiv diskutierte technikethische Probleme – denn wir würden in letzter Konsequenz leidensfähige Entitäten in die Welt setzen, ohne dies zu bemerken.

In Szenario 2 sieht es genau umgekehrt aus: Es entsteht niemals Bewusstsein in der Maschine, weil es grundsätzlich nicht entstehen kann. Viele Menschen sind von den beeindruckenden Leistungen von KI und auch der nahezu perfekten Imitation von Bewusstsein so verzaubert und überzeugt, dass sie der Maschine Bewusstsein zuschreiben, also gewissermaßen „anheften“, und sich selbst so verhalten als seien die Maschinen tatsächlich bewusst – was sie aber nicht sind. In diesem Szenario 2 wäre es erwartbar, dass sich Aktivisten finden, die sich für die Rechte der vermeintlich bewussten KI-Systeme stark machen, was in echten Regulierungen und Gesetzgebungsverfahren mündet zu etwas, was es nicht gibt.

Solche Fehleinschätzungen sind ein wichtiges Thema in der Technikfolgenabschätzung – und mit Blick auf die Technikgeschichte kein ganz neues Phänomen. Und wenn Emotionen ins Spiel kommen, wird die Sache nüchtern betrachtet nicht besser. Die Liebe zu Dingen ist durchaus verbreitet, sei es zu architektonischen Objekten wie der Berliner Mauer, zu Fahrzeugen, technischen Geräten und Alltagsgegenständen bis hin zu Waffen. Mit dieser Objektophilie verhält es sich bei Künstlicher Intelligenz aber etwas kniffliger, weil KI typischerweise nicht als vergegenständlichtes abgeschlossenes Objekt auftaucht. Sie ist versteckt hinter irgendeinem Bildschirm, in vernetzte Geräte integriert, dabei durchaus erlebbar, aber nicht unbedingt unmittelbar dingfest zu machen. Genau genommen handelt es sich um ein altes Grundmuster, das nun in neuem Gewand und neuem Level bedient wird, extrem verstärkt durch eine Geschwindigkeit, die zu nahezu verzögerungsfreien immersiven Erlebnissen führt. Heute können sich Menschen in einer real erscheinenden technischen Illusion verlieren. Die Komplexität dahinter kann für die meisten gar nicht mehr durchschaut werden.

Ist ChatGPT eine Resonanzmaschine?

Könnte man meinen. Ich sehe ChatGPT und ähnliche Angebote etwas nüchterner als Vorhersagemaschinen, die durch statistische Optimierung und algorithmischen Feinschliff Antworten geben, die möglichst gut ankommen sollen. Man könnte sie auch einfach Antwortmaschinen nennen. Zu Resonanz gehört aber noch etwas mehr.

Bei ChatGPT erleben viele so etwas wie eine intime Brieffreundschaft, in der man auch etwas von sich preisgibt. Und wer das heute macht, muss vielleicht irgendwann lernen, dass all diese Protokolle, die momentan vertraulich wirken können, irgendwann mal durch einen unglücklichen Unfall frei verfügbar sein können. Und dann weiß mein Nachbar, womit ich mich vor ein paar Jahren beschäftigt habe, woraus ganz andere Resonanzen entstehen könnten.

Tatsächlich ist es für manche Menschen zu bestimmten Themen leichter, eine Maschine zu fragen, als irgendeinen Coach, Psychologen oder einen Freund, der vielleicht gerade gar nicht verfügbar ist. Die Maschine sagt auch nicht: Jetzt reicht es, ich habe keine Lust mehr oder ich bin jetzt müde. ChatGPT steht permanent bereit und kann, wenn man das will und solange man Strom und einen Internetanschluss hat, auch liefern, liefern, liefern – das hört nie auf. Der Chatbot ist jederzeit verfügbar. Resonanz in tieferem Verständnis lebt aber von Nichtverfügbarkeit, davon, dass etwas nicht erzwingbar oder kontrollierbar ist, wie echte Begegnungen, Liebe, Kreativität oder Naturerfahrungen. Die Differenz zwischen der Nutzung eines leistungsstarken Werkzeugs und intersubjektiven Beziehungen ist mehr als nur ein kleiner Unterschied.

Für Menschen, die an Selbstreflexion interessiert sind, kann die Chat-Maschine ein nützlicher Beschleuniger sein. So kann ich ChatGPT und andere Sprachautomaten in Dialogen danach fragen, was ich vergessen oder übersehen habe. Wo sind meine blinden Flecken? So kann ich mit maschineller Unterstützung versuchen, eigene Denklücken zu identifizieren. Die Antworten der Maschine können mich weiterbringen. Vielleicht auch an den Stellen, wo man selbst sonst gar nicht so gern hinguckt – und um die auch mancher Gesprächspartner einen Bogen schlagen könnte.

Hierzu kann ich der KI auch Rollen vorgeben. Etwa: kritisiere meine Aussagen in diesem Dialogverlauf aus der Perspektive einer Expertin für eine fundierte Gegenposition, die ich selbst ganz sicher nicht vertrete. Und dann bekomme ich vielleicht den Kopf gewaschen und Dinge zu lesen, die mir gar nicht gut gefallen, was der Maschine aber egal ist, weil sie keine Emotionen empfindet. Diese Schonungslosigkeit kann ich mit den neuen Tools instrumentell herbeiführen und mich selbst konfrontieren, was enorm hilfreich sein kann – und in diesen Momenten geht es nicht um Resonanz zu und mit anderen, sondern um eigene Klarheit.

Wie wird sich die Mensch-Maschine-Beziehung weiterentwickeln?

Für den allergrößten Teil der Menschen werden Mensch-Maschine-Kooperationen zur Normalität werden. Die Technik wird von uns weiter in den Alltag eingebettet und gesellschaftlich adaptiert. Wir kennen das historisch vom Radiogerät, dem Telefon, von Kühlschränken, Waschmaschinen, dem Haartrockner, dem automatischen Hoftor, dem Personal Computer, von Fahrscheinautomaten, dem Cell Phone und von All-in-One-Küchengeräten mit mobile App. Am Anfang ist das ganz neu und wird auch ein bisschen hochgejubelt, dann trennen sich Spreu und Weizen, massentaugliche und hochwertige Lösungen setzen sich durch, Technikeinsatz geht in den Alltag ein, und zwischenzeitlich kommen schon die nächsten Trends.

KI bringt im Mensch-Maschine-Verhältnis zurzeit einiges durcheinander, da die Technik nicht mehr nur ein aktiver mechanischer Mitspieler ist, sondern auch Lieferant von Inhalten, von begründeten Vorschlägen und extrem schneller, datengetriebener Automatisierungen. Was in den 1990er-Jahren unbeholfen als „Kollege Computer“ geframed wurde, ist heute vielerorts eine Mensch-Maschine-Kooperationsstruktur. Wir befinden uns in einer ähnlichen Situation wie bei der Einführung von Desktop-Publishing-Systemen Ende der 1980er-Jahre. Nicht die DTP-Systeme haben die Drucksetzer verdrängt, sondern jene Drucksetzer, die DTP verwendeten, haben die Drucksetzer verdrängt, die kein DTP genutzt haben. Die Mensch-Maschine-Beziehung ist hier funktional, die Digital-Maschine ist hier eine effektive Arbeitsumgebung.

Bei der KI-Maschine sind nun viele Dimensionen deutlich weiter ausgeprägt. Die meisten Menschen lernen jetzt im Alltag langsam auch durch kleine Fehlschläge, wie man mit diesen neuen Technologien umgehen und wie man sie sich zunutze machen kann. Dazu zählen neben aller Begeisterung natürlich auch Enttäuschungen. Das gehört dazu. Hilfreich für den und die Einzelne ist, die Dinge selbst auszuprobieren und zu schauen, wo die Technik gerade steht und was sie individuell nützt.

Welche gesellschaftliche Wirkung erwarten Sie mittel- und langfristig?

Mittelfristig rechne ich mit einer sehr starken Entromantisierung der KI. Der Umgang mit KI wird zur Normalität werden. Schon in wenigen Jahren dürfte KI sehr unspektakulär sein – weil sie lebensweltlich dazu gehört.

Sicherlich wird es immer kuriose Stories geben. Einzelgeschichten, in denen jemand seinen Roboter heiratet, gewiss wird es auch vereinzelt Menschen geben, die klandestin einen KI-Fetisch entwickeln. Mit Blick auf das große Ganze, eine lebendige, freiheitliche und produktive Gesellschaft, ist das technikhistorisch aber nicht ungewöhnlich. Und sicher wird es auch Gegentrends geben. Menschen, die konsequent auf Smartphones oder KI verzichten.

Langfristig wird interessant und relevant werden, wann und mit welcher Geschwindigkeit der nächste Durchbruch kommt. Inwiefern auch pro-aktive KI- Antwortmaschinen akzeptiert werden, die uns Empfehlungen errechnet haben, und inwiefern man ihnen auch eigenaktiv Steuerungsmöglichkeiten übergeben kann und was das in Worst-Case-Szenarien bedeutet.

(mack)