Sie werden uns nicht kalt lassen

Spielt es für Bewusstsein und Emotionen eine Rolle, ob sie aus Wetware oder Hardware entstehen? Und müssen wir nicht autonomen Maschinen Personenrechte zugestehen? Nachgedanken zur Diskussion um Edward Boydens Essay vom vergangenen Freitag.

vorlesen Druckansicht 9 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Niels Boeing

Edward Boydens Essay vom vergangenen Freitag, "Die Zukunft: Singularität oder Fixpunkt?", zur Frage, ob Künstliche Inteligenz auch "künstlicher Motivation" bedarf, hat im Forum eine große Diskussion über KI ausgelöst. Dabei ging es auch um die Frage nach Bewusstsein und Gefühlen in Maschinen. Am meisten beschäftigte mich eine Frage von Joachim Durchholz, die mir ebenfalls seit längerem durch den Kopf geht: "Wenn Dir eine Maschine erklärt, dass sie ein Bewusstsein hat – wie willst Du ihr nachweisen, dass sie Unrecht hat?"

Eine polemische Antwort wäre, einfach die Stromzufuhr zu kappen – hat sich was mit Bewusstsein.

Aber lassen wir den Strom einfach mal an. Man kann die Frage noch anders fassen: Wenn eine autonome, lernfähige Maschine so programmiert ist, dass sie Bewusstsein oder Gefühle darstellen kann – ab wann sind die nicht mehr simuliert, sondern echt?

Diese Frage tauchte letztes Jahr auf, als der Kollege Stieler und ich unseren Artikel zu Maschinen und Emotionen recherchierten ("Maschinen zum Verlieben", TR 03/2008). Einige Wissenschaftler sagten, dass es für die "Echtheit" von Gefühlen egal sei, ob sie aus Wetware oder Hardware entstehen.

Mir fiel kein Argument dagegen ein. Erst recht nicht angesichts der Befunde aus der Verhaltensforschung zum Phänomen des Anthropomorphismus: Wir neigen schnell dazu, einer Maschine, wenn sie bestimmte "evolutionäre Knöpfe" (so Sherry Turkle) bei uns drückt, einen quasi-lebenden Zustand zuzuschreiben. Kinder haben damit kein Problem. Für sie hat ein Aibo Gefühle.

Der Streit zwischen Kognitivisten und Anti-Kognitivisten, ob Bewusstsein in einer Maschine als emergente Eigenschaft entstehen kann – siehe dazu David Gelernters Essay "KI auf dem Holzweg" –, ist da möglicherweise die falsche Frage. Denn auch er hat als Prämisse, menschliches Bewusstsein sei das Maß für Bewusstsein. Und weil das im Laufe der Evolution von selbst entstanden ist, müsse es auch bei Maschinen von selbst entstehen. Und dann auf einen Schlag. Ohne Übergang.

Dieses anthropozentrische Denken läuft aber längst ins Leere. Das Recht mit seinem abstrakten Personenbegriff ist da schon weiter. Der Jurist Andreas Matthias hat in seinem Buch "Automaten als Träger von Rechten" (Logos Verlag) sehr schön die Bandbreite von nichtmenschlichen Personen und menschlichen Nichtpersonen dargestellt. Ein bewusstloser Mensch ist nach wie vor eine Person. Eine Maschine, die Bewusstsein "simuliert", nicht.

Noch nicht: Warum soll eine autonome Maschine, die im Unterschied zum bewusstlosen Menschen Entscheidungen treffen kann, die Folgen haben und für die sonst niemand verantwortlich ist, nicht als Person mindestens im juristischen Sinne aufgefasst werden? Matthias' Antwort ist, dass solche autonomen Maschinen Personenrechte bekommen sollten, um eine "Verantwortungslücke" zu schließen.

All das sind zurzeit sicher noch spitzfindige Erörterungen. Abzusehen ist aber, dass wir in den nächsten Jahren immer mehr Gesellschaft von immer autonomeren Maschinen – auch mit Emotionsmodulen – bekommen werden. Sie weiterhin als stumpfe, bewusstlose Maschinen anzusehen, wird uns das Leben nicht leichter machen. Allein schon deshalb, weil wir sie mit Sicherheit nicht so behandeln werden. Sie werden uns nicht kalt lassen. Und dann werden wir uns endgültig mit diesen Fragen auseinandersetzen müssen. (wst)