Beseelte Kreaturen

Florian Rötzer im Gespräch mit Dietrich Dörner über den Bauplan für eine Seele und emotionale Agenten.

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Dietrich Dörner lehrt Psychologie an der Universität Bamberg. An seinem Institut wird nicht nur untersucht, wie Menschen mit komplexen Situationen umgehen, sondern es wurden auch bereits zahlreiche Simulationen komplexer Situationen hergestellt, an denen sich das Verhalten der Menschen testen und trainieren läßt. Ausgerichtet ist die Forschung auf eine Theorie der menschlichen Psyche. Dörner bezeichnet den "Bauplan für eine Seele" - so lautet auch der Titel eines im Frühjahr erscheinenden Buches von ihm - als Ziel. Dazu wurden an seinem Institut virtuelle Roboter entwickelt, die sich in einer virtuellen Umgebung aufhalten und diese erkunden. Sie heißen Emo oder neuerdings Psi und ihre wesentliche Eigenschaft ist es, nicht nur "intelligent", sondern auch emotional und überdies vergeßlich zu sein. Denn es sind vermutlich Emotionen, die wesentlich dazu beitragen, daß Menschen intelligent sein können.

Psi als beseelte Dampfmaschine

Sie wollen, wie Sie sagen, den "Bauplan einer Seele" finden, also den Mechanismus des psychischen Lebens entdecken und technisch umsetzen. Das ist allerdings ein Thema, das schon seit Jahrtausenden theoretisch bearbeitet wird. Von welchen neuen Ansätze gehen Sie denn aus, um ein solches Projekt nicht nur in Angriff zu nehmen, sondern auch eine Lösung erwarten zu können?

Dietrich Dörner: Was die Jahrtausende vor uns nicht hatten, war einfach ein klares Konzept von Informationsverarbeitung. Das ist ein entscheidender Punkt. Allerdings besitzen wir ein solches nicht erst seit gestern, sondern schon seit dem Ende der 40er Jahre, nur haben wir es in der Psychologie nicht gut genutzt. Wir haben dieses Konzept der Informationsverarbeitung zunächst nur auf die kognitiven Prozesse angewendet, also auf Denken, Problemlösen oder Schachspielen. Vielleicht glaubten auch viele Leute, es wäre nicht auf die unscharfen und unsauberen, chaotischeren Bereiche anzuwenden, beispielsweise auf die der menschlichen Gefühle, der Motive, der Willens- und Bewußtseinsprozesse.

In der letzten Zeit kommt allmählich eine Überhöhung der kognitiven Psychologie durch die Konzepte des Artifical Life auf. Man geht davon aus, daß ein künstliches Lebewesen nicht einfach leben kann, ohne daß es etwas will oder irgend etwas anstrebt. Es wird also Motive haben. Wir haben uns hingegen vor sechs, sieben Jahren gefragt, wie Gefühle als Informationsverarbeitung darstellbar sein könnten, was denn Angst, Trauer, Furcht, Triumph, Stolz, Verzweiflung, Resignation, Liebe oder Haß als Informationsverarbeitung wären. Das ist in gewisser Weise eine Neuentwicklung, wobei sie nur insofern neu ist, als man die Mittel, die man bisher zur Verfügung hatte, nun auch auf diese Bereiche anwendet.

Es gab, zumindest in der Philosophie, einen langen Streit darum, ob man seelische oder emotionale Vorgänge überhaupt als Informationsverarbeitung verstehen könne, weil das bedeuten würde, daß die Informationsverarbeitung unabhängig von einer spezifischen Einbettung in einen Körper wäre. Diese Position bezeichnete man als Funktionalismus. Die Kritiker wandten ein, daß Bewußtsein, Gefühle oder die kognitiven Leistungen, die den Menschen auszeichnen, an den biologischen Körper gebunden seien. Sind Sie Vertreter des Funktionalismus oder muß eine künstliche Seele einen Körper als Schnittstelle zur Welt besitzen?

Dietrich Dörner: Natürlich haben Gefühle oder Motive etwas mit dem Körper zu tun, aber was für einen Körper man hat, ist weitgehend gleichgültig. Wenn ich einen Energiemangel habe, wenn also mein Blutzucker in meiner Blutbahn zu niedrig ist, dann verspüre ich Hunger. Eine Maschine könnte, wenn die Akkus leer werden, einen Energiebedarf spüren. Das wäre dann dem Hunger äquivalent, auch wenn sie keinen Blutzucker wie ich braucht, sondern Strom.

Künstliche Seelen können körperliche Bedürfnisse haben, nur sind sie von anderer Art. Das Konzept der Informationsverarbeitung basiert eben darauf, daß der materielle Träger gleichgültig und daher austauschbar ist. Ob ich ein Bedürfnis nach Blutzucker habe oder eine Maschine nach elektrischer Energie ist isomorph. Die Maschine wird nicht nur ein Bedürfnis nach Energie haben, sondern dieses Bedürfnis wird, genau wie bei mir, mit Hunger verbunden und ein Bedürfnis nach bestimmten Stoffen sein, die benötigt werden, um die Lebensvorgänge aufrecht zu halten. Wie ich nicht nur Hunger habe, sondern etwa einen Hunger auf Rollmops, weil ich Salz benötige, würde eine Maschine nicht nur ein Bedürfnis nach Energie haben, sondern etwa, um die Computeranalogie zu überspitzen, auch nach Silizium, um etwas zu reparieren.

Sie nennen Ihre künstliche Seele Emo. Ist Emo schon fertig oder noch in der Entwicklung?

Dietrich Dörner: Der läuft schon, und es gibt ihn inzwischen in den verschiedensten Formen. Er lebt allerdings nur im Rechner und ist nicht als mechanisches System realisiert. Das fänden wir zwar lustig, aber man kann es sich sparen.

Könnte ich auf den Emo auch übers Internet zugreifen, um zu beobachten, was er gerade macht?

Dietrich Dörner: Auf der Webseite steht, glaube ich, ein Bild von ihm, um sich ihn vorstellen zu können. Wir werden das auch irgendwann in die Webseite stellen. Wir haben jetzt gerade realisiert, daß er spricht.

Sie haben also eine Art virtuelles Lebewesen, ein Software-Programm mit bestimmten Funktionen. Was für einen Körper braucht ein solcher Emo, der als Information repräsentiert ist?

Dietrich Dörner: Den Körper gibt es erstens, weil Emo sich in seiner virtuellen Welt befindet. Er kann also wahrnehmen, und er weiß, daß er sich mit seiner Existenz hier an diesem Punkt befindet. Er kann sich im Raum orten. Das ist eine Funktion des Körpers.

Zweitens hat er eine ganze Reihe von elementaren und nicht so elementaren körperlichen Befindlichkeiten. Dazu gehören etwa die Bedürfniszustände. Er hat Hunger und Durst, er braucht also in unserem Fall in regelmäßigen Abständen, weil das bei ihm zur Neige geht, Energie, die er irgendwie aufnehmen muß. Er nimmt sie allerdings nicht als Flüssigkeit auf, sondern in Form bestimmter Informationen an bestimmten Orten. Er füllt dann einen Tank auf und kann wieder eine gewisse Zeit weiterleben. Er hat also existentielle Bedürfnisse, die direkt mit seiner körperlichen Existenz zusammenhängen. Wenn er diese nicht regelmäßig befriedigt, stirbt er oder existiert er nicht mehr.

Dazu kommt eine Reihe anderer Bedürfnisse, beispielsweise das Bedürfnis nach Bestimmtheit, um seine Umwelt und deren Reaktionen auf seine Aktivitäten gut voraussagen zu können. Wenn er etwas für ihn Unerwartetes erlebt, dann geht dieser Bestimmtheitspegel hoch und führt wiederum zu explorativen Bedürfnissen, um seine Umwelt besser kennenzulernen. An diesem Bestimmtheitsbedürfnis hängt eine ganze Reihe von Emotionen. Wenn etwas passiert, was er so nicht voraussagt hat, entwickelt er als Schreck zunächst einmal Fluchttendenzen. Er tendiert dazu, sich irgendwo in Sicherheit zu bringen, weil er sich gewissermaßen sagt, daß für ihn auch etwas Unangenehmes eintreten kann, wenn jetzt schon etwas Unvorhersehbares geschehen ist. Es gibt nämlich Bereiche in seiner Umgebung, in denen er Elektroschocks kriegen kann, und die mag er nicht. Weil er die Tendenz hat, Unbestimmtheit zu vermeiden, empfindet er so etwas wie einen Schreck, dessen Stärke von seinem Selbstvertrauen abhängt. Wenn er sich nämlich viel zutraut, dann fängt er an, mit dem unbekannten Teil der Welt um ihn herum zu experimentieren und herauszubekommen, was hier Sache ist. In diesem Fall ist er neugierig und versucht zu lernen.

Kann sich bei diesem virtuellen Lebewesen wirklich ein neues Verhalten entwickeln, das nicht vorhersehbar ist?

Dietrich Dörner: Wir können prinzipiell das Verhalten im Einzelfall nicht voraussehen. Wir können es allerdings im Groben voraussehen, weil wir seine grundlegende Struktur kennen, und das wollen wir natürlich auch, weil wir damit psychologische Theorien zu bauen versuchen. Wir bauen es natürlich in seine Struktur, daß er in einer unbestimmten Situation mit einem Bestimmtheitsbedürfnis und mit explorativen Verhaltensweisen reagiert. Aber es kommt dabei zu einer ganzen Reihe von überraschenden Ergebnissen, die wir so nicht vorausgesehen haben, die aber ganz plausibel erscheinen.

Ein Beispiel: Wir haben, was vielen Modellen fehlt, das Psi-Wesen, einer Weiterentwicklung von Emo, mit Vergessen versehen. Psi legt große neuronale Speichersysteme im Laufe seines Lebens an, die langsam wieder zerfallen. Das hat den vordergründigen Grund, Speicherplatz zu sparen. Warum, so könnte man es ausdrücken, soll ich mir jeden Quatsch merken, der nicht gebraucht wird oder zu keiner Bedürfnisbefriedigung führt? Das macht nebenbei Psi sehr menschlich, weil er ständig so etwas sagt wie: "Ich weiß genau, wie das geht oder daß es geht, aber ich weiß nicht mehr wie", weil er es vergessen hat oder sich dabei täuscht. Wir haben aber nicht einen Nebeneffekt vorausgesehen, daß er dadurch seine Umwelt besser kennenlernt als ohne Vergessen. Das klingt auf den ersten Blick ganz merkwürdig.

Wenn Psi nicht vergißt, lernt er seine nicht Umwelt kennen. Er weiß, wo er seinen Hunger oder seinen Durst befriedigen kann, läuft da hin, läuft dorthin, weil er nichts vergißt. Dann hat er sehr bald die Punkte gefunden, die diese Bedürfnisse befriedigen können, und läuft nur noch zwischen diesen hin und her. Er entwickelt ein Routineverhalten, weil er weiß, was er zu tun hat. Wenn er seine Bedürfnisse befriedigen kann, dann führt das dazu, daß er den Großteil seiner Umwelt gar nicht exploriert. Wenn er hingegen vergeßlich ist, wird er zwar auch lernen, wo er Hunger und Durst befriedigen kann, aber er vergißt das zum Teil auch wieder und gerät so in Situationen, wo er nicht mehr weiter weiß. Weil er es vergessen hat, muß er an dieser Stelle explorieren und gerät dadurch in Bereiche der Realität, die er bislang nicht kannte, wodurch er aber die Realität besser kennenlernt. Vergessen führt also zu einer besseren Kenntnis der Realität, was auf den ersten Blick sehr überraschend ist.

Wichtig für das kognitive System aller Lebewesen ist selektive Aufmerksamkeit, die vermutlich mit den Gefühlen und der Motivation zusammenhängt? Können die Emos und Psis auch aufmerksam sein?

Dietrich Dörner: Das ist ganz einfach und leicht verstehbar. Er hat Motive, zum Beispiel das Hungermotiv oder ein Explorationsmotiv. Prinzipiell ist er konfliktbehaftet, weil er mehrere Motive zugleich haben kann. Und er löst seine Konflikte so, daß dann ein Motiv vorherrscht, z.B. Hunger. Seine sensorische Schemata, seine Filter zur Identifizierung seiner Umgebung, werden auf Hunger eingestellt. Er nimmt also vorwiegend das wahr, was ihn in die Lage versetzt, seinen Hunger zu befriedigen. Diese Präselektion in der Wahrnehmung führt dazu, daß er in einer bestimmte Weise aufmerksam ist, aber auch unter Umständen etwas übersieht, weil seine Aufmerksamkeit allzu stark auf das gerichtet ist, was seinen Hunger befriedigt. Aufmerksamkeit wird ganz einfach dadurch realisiert, daß im Gedächtnis aufgrund des Vorherrschens eines Motivs eine gewisse Vorbahnung erfolgt und diejenigen Elemente bevorzugt aktiviert werden.

Wir haben bislang immer so gesprochen, als ob dieses Wesen ganz alleine ist. Ein neuer Ansatz im Bereich des künstlichen Lebens geht allerdings davon aus, daß Intelligenz stark mit sozialen Beziehungen zu tun hat. Gibt es denn in Ihrer bisherigen Versuchsanordnung auch Populationen derartiger Wesen, die sich zueinander verhalten?

Dietrich Dörner: Wir können das machen, aber wir haben es noch nicht gemacht. Wir sind im August 1997 mit dem vorläufigen Entwurf zu Ende gekommen und wollen jetzt Populationen gründen.

Die emotionalen Vorbahnung haben wir schon realisiert, d.h. unsere Emos haben soziale Bedürfnisse nach Legitimitätssignalen. Das sind Bedürfnisse nach einem Lächeln, nach einem Schulterklopfen, also nach Signalen der sozialen Akzeptiertheit. Wir befriedigen das jetzt noch so, daß sein Mangel einfach aufgefüllt wird, ohne das außen etwas passiert, weil er im Moment noch keine Gefährten hat. Wir werden aber Gesellschaften davon gründen, und dann wird er ein Bedürfnis nach Legitimitätssignalen haben. Wenn sie fehlen, dann wird er sich Gesellschaft suchen. Der Rest ergibt sich dann daraus. Manchmal wird das schwierig werden, weil er die Legitimitätssignale beispielsweise nur dann erhält, wenn er Hilfe leistet. Wir sind gespannt darauf, was sich daraus ergibt.

Abgesehen vom Erwerb von Anerkennung bestehen die sozialen Bande bei biologischen Wesen doch auch aus Sexualität, aus sozialen Hierarchien, aus einem komplizierten, sich permanent verändernden Gefüge von Beziehungen oder auch von Betrügereien. Kann das alles fehlen?

Dietrich Dörner: Sexualität ist natürlich wichtig, obwohl ich Stefan Zweig Recht geben würde, der seinem guten Freund Sigmund Freud den Vorwurf gemacht hat, daß er das überschätzt. Sexualität ist bei den Tieren, beim Menschen vielleicht noch etwas mehr, wirklich wichtig für die sozialen Bindungen. Wenn man jetzt nicht alle gleichgeschlechtlichen Freundschaften als Homosexualität brandmarken will, dann ist einem Nichtpsychoanalytiker aber auch klar, daß es Bindungen gibt, die ohne Sexualität sehr eng sein können und mit Legitimität, mit Einklang, mit Kommunikation zu tun haben. Was allerdings noch fehlt, und das ist ganz wesentlich, ist eine echte Sprache. Weil sie nicht vernünftig sprechen können, können sie sich auch nicht betrügen, denn dazu gehört beispielsweise, daß man sich über sich selbst Gedanken machen kann. Man kann nur Betrügen, wenn man etwas weiß, es aber anders sagt.

Dazu muß man aber nicht unbedingt sprechen können. Eine vorsprachliche Selbstwahrnehmung würde dazu doch wie bei den Primaten reichen.

Dietrich Dörner: Ich bin mir da nicht sicher. Die Berichte über Primaten sind wissenschaftlich fraglich, weil es sich immer um Einzelfallberichte handelt. Die Frage ist, inwieweit Affen betrügen oder nur egoistisch sind, aber nicht mit Absicht lügen. Aber lassen wir diese Frage einmal offen. Ich glaube, die Voraussetzung dafür ist, ein Bild von sich selbst zu haben und auch über sich selbst nachdenken zu können. Es gibt genügend theoretische Gründe dafür, daß so etwas nur entsteht, wenn man wirklich sprechen kann, auch zu sich selbst und über sich selbst.

Luc Steels versucht, evolutionär in Roboterpopulationen Sprache entstehen zu lassen. Ist so etwas denn prinzipiell überhaupt möglich?

Dietrich Dörner: Ich glaube, daß das gelingen kann. Wir selber werden es auch versuchen, aber bislang ist es freilich erst ein Projekt. Ich bin mir allerdings unsicher, ob sich Sprache wirklich von ganz alleine entwickeln kann, denn Gemeinschaften von Pferden, Kühen oder Zebras sind auch soziale Gemeinschaften, die auf der reinen Zeichenebene funktionieren. Aber Zeichensysteme sind keine Sprache. Bei der Sprache muß die Grammatik hinzukommen, mit der die Zeichen ins Unendliche vervielfacht werden können, mit der man mit einem endlichem Wortvorrat unendlich viele Sätze bilden kann.

Eine grundsätzliche Frage, die mit dem Informationsmodell der Seele und dessen Umsetzung in einem Computer zusammenhängt. Im biologischen Gehirn ist zwar die Kommunikation durch elektrische Reizung und Übertragung wichtig, aber es gibt auch das "nasse" Gehirn. Hier findet keine Punkt-für-Punkt-Informationsvermittlung statt, sondern es werden ganze Areale oder das ganze Gehirn etwa von Hormonen überschwemmt und stimuliert. Müßte in einer künstlichen Seele nicht etwas Ähnliches simuliert werden, denn Gefühle sind ja auch solche großräumigen Stimulationen?

Dietrich Dörner: Das sind Triggerungen des gesamten Systems, das ist schon richtig. Es ist unbenommen, daß es neben dem Nervensystem das hormonale System als Informationsübermittlungssystem gibt. Daher muß man, wenn man psychische Prozesse im Computer nachzubauen versucht, dafür Äquivalente finden. Man muß aber deshalb nicht den Computer mit einem Hormon überschwemmen, sondern man kann das auch elektronisch realisieren, indem man einfach Nervensysteme in einen bestimmten anderen Zustand versetzen, so daß sie empfindlicher oder unempfindlicher werden.

Uns erscheint es so, als gäbe es so etwas wie ein bewußtes Ich, das Handlungen auslösen und sich entscheiden kann Die Neurobiologie geht hingegen davon aus, daß das Gehirn ein massiv paralleles System ist, in dem es ein solches Zentrum nicht gibt. Wie finden denn bei den Emos oder Psis die Entscheidungen statt? Benötigen sie dafür eine zentrale Instanz?

Dietrich Dörner: Das ist eigentlich ganz einfach. Die Emos und Psis haben keine zentrale Steuerungseinheit. Verschiedene Motive kämpfen miteinander, bis sich eines durchsetzt. Das muß nicht immer klappen. Wenn die Motive gleich stark sind, kommt es zu einem unaufhebbaren Konfliktzustand. Irgendwann wird dann ein Motiv stärker, aber es gibt sehr quälende Zustände, wo einfach keine Entscheidung erfolgen kann.

Menschen haben hingegen eine andere Möglichkeit, die wieder an die Sprache gebunden ist. Wir können in solchen Fällen diesen Zustand feststellen und sagen, daß wir uns jetzt gewissermaßen in einer Phase des Verhaltensflimmerns befinden und irgend etwas tun müssen, um da wieder herauszukommen. Man kann versuchen, dieses Verhaltensflimmern in verschiedener Weise zu reduzieren oder zu unterdrücken. Das kann ich aber nur von einer übergeordneten Warte aus. Dazu ist kein Ich oder keine zentrale Steuerungsinstanz notwendig, das geht einfach per Sprache, mit der eine Reflexion der Protokolle stattfindet, die so ein System ständig bildet. Das System schaut auf seine Protokolle zurück und sagt: Es geht nicht mehr voran. Es kann über die Bedingungen nachdenken und dann versuchen, das eine oder andere Motiv stärker zu machen, so daß eine Entscheidung erfolgen kann. Das ist der Nutzen der Selbstreflexion, also der Tatsache, daß ich mich selbst zum Objekt meiner Betrachtungen machen kann. Aber dazu muß man keine andere Instanz annehmen, sondern dieselbe Instanz, die auch unsere normale Planungstätigkeit ausübt, wechselt in einem solchen Fall einfach das Objekt. Und das ist gewissermaßen das eigene Protokoll. So entsteht ein Selbst als Kenntnis der Bedingungen, unter denen ich mich so oder so verhalte.

Wir haben natürlich so etwas wie ein Selbst oder ein Ich. Ich weiß, wer ich bin, welche Eigenschaften ich habe, was ich liebe oder hasse. Also muß ein künftiges Seelensystem das auch haben. Ich glaube, das ist möglich, weil es einfach die normale Instanz der Erfahrungssammlung ist, die in diesem Fall nur verinnerlicht auf meine eigenen inneren Prozesse angewendet wird, die ich zum Objekt meiner Betrachtungen mache.

Haben Sie aus der Simulation psychischer Vorgänge bereits Erkenntnisse gewonnen, die Sie anders nicht hätten erreichen können?

Dietrich Dörner: Das kann man uneingeschränkt mit ja beantworten. Wir haben beispielsweise neue Gedächtniskonzepte entwickelt. In der Psychologie unterscheidet man etwa das Kurzzeit- vom Langzeitgedächtnis. Wir glauben, daß man diese Unterscheidung nicht machen muß, sondern daß alles im Grunde ein Gedächtnis ist. Das Kurzzeitgedächtnis ist nur der vordere Teil eines sich ständig neu aufspulenden Protokollfadens, und das Langzeitgedächtnis besteht aus den Sedimenten des Kurzzeitgedächtnisses. Für die theoretische Psychologie haben wir gezeigt, wie sich Angst, Furcht, Haß und Liebe als Informationsverarbeitungsprozesse darstellen lassen.

Wenn man seelische Vorgänge als Informationsverarbeitungsprozesse versteht, verschwinden die früheren Unterscheidungen etwa zwischen Kognition und Emotion, auf denen man heute, jetzt nur auf dem Schwerpunkt der Emotion, noch immer herumreitet.

Dietrich Dörner: Diese Grenze ist weg. Es sind Prozesse der Informationsverarbeitung. Darüber hinaus glaube ich, daß wir neben diesen theoretischen Befunden, die ich eben nannte, auch jede Menge praktischer Anwendungen haben.

Wir haben früher über komplexe Systeme gearbeitet und Menschen in komplizierte Realitäten gesetzt, um zu sehen, wie sie planen und sich entscheiden. Diese Versuche wurden ziemlich beliebt und wir haben immer wieder Anfragen aus der Wirtschaft und Verwaltung, solche Kurse durchzuführen. Eigentlich aber haben wir das nie mit der Idee der praktischen Anwendung gemacht, sondern nur für unsere theoretischen Zwecke, um Material für unsere Seelenbaupläne zu kriegen. Wenn die Pilotenvereinigung "Cockpit" sagt, daß 80% der Flugfehler durch menschliches Versagen zustande kommen und uns um eine Erklärung bitten, und wenn wir dann einige Erklärungen anbieten, die sie interessant finden, dann ist das letzten Endes auch eine Anwendung dieser Versuche, wie sich Seelenprozesse als Informationsverarbeitung darstellen lassen.

Neben der möglichen Erklärung psychischer Prozesse dienen diese Versuche natürlich auch der Schaffung autonomer intelligenter Systeme. Die Forschung geht beinahe notwendig gleichzeitig oder parallel in beide Richtungen. Welche Entwicklungen sehen Sie denn im Bereich der Robotik?

Dietrich Dörner: Es gibt ja einen Bedarf an autonomen Systemen für bestimmte Arbeiten, etwa für Tätigkeiten in unzugänglichen Bereichen wie in der Tiefsee, in Abwasserkanälen oder auf anderen Planeten. Ich denke, daß die Entwicklung von autonomen Systemen fast unaufhaltsam ist.

Die Erwartungen sind allerdings sehr verschieden. Manche sagen, daß es in wenigen Jahrzehnten bereits wirklich intelligente und autonome Roboter gibt, andere wiederum meinen, daß dies noch sehr lange dauern wird.

Dietrich Dörner: Wahrscheinlich kann man es nicht genau voraussehen. Ich erinnere nur an die Prognose von Simon, der 1958 gesagt hat, daß in 10 Jahren ein Computer Schachweltmeister sein würde. Jetzt erst sind wir langsam soweit. Auf dem Weg zur Konstruktion autonomer intelligenter Roboter wird man erst diese und jene Schwierigkeit entdecken. Diese kleinen Schwierigkeiten zu beseitigen, macht Mühe, und wenn man die nächste kleine Schwierigkeit beseitigt hat, dann kommt die übernächste. Und so wird das weitergehen und immer länger dauern, als man glaubt.

Aber Sie sehen grundsätzlich keine prinzipielle Unmöglichkeit?

Dietrich Dörner: Ich wüßte nicht wo. Ich komme ja eigentlich aus dem anderen Lager. Ich habe mit dem Psychologiestudium begonnen, weil ich die Idee als Blödsinn empfand, daß es künstliches Denken oder künstliche Intelligenz geben kann. Im Gegensatz zu vielen meiner Kommilitonen hatte ich niemals die Absicht, der psychisch leidenden Menschheit zu helfen, sondern mich interessierte in den 60er Jahren die KI und die elektronischen Gehirne, weil ich glaubte, das sei eine Kränkung der Menschheit. Dann habe ich angefangen, lange darüber nachzudenken, und ich wüßte heute keinen Punkt, wo man sagen könnte, es ginge prinzipiell nicht. Wenn man sagen könnte, es geht prinzipiell oder überhaupt nicht, dann würde das auch heißen, daß Psychologie als Wissenschaft nicht möglich ist, denn Wissenschaft heißt immer, daß man eine Mechanik angeben kann, wie etwas funktioniert. Wenn man also sagen könnte, ein Gefühl läßt sich prinzipiell nicht als eine Art von wie immer beschaffener Mechanik darstellen, dann würde man sagen, ein Gefühl läßt sich nicht erklären. Es gibt keinen Grund für diese Annahme.