Die Tugend des Roboters

Die Maschine bleibt Maschine und die in ihr womöglich einprogrammierten guten Benimmregeln bilden nur eine Pseudoethik

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Immer häufiger wird vorgeschlagen, Roboter mit einer Art interner "Ethik" zu programmieren, so dass sie in brenzligen Situationen moralisch richtige Entscheidungen treffen können. Am häufigsten wird diese Frage anhand von autonomen Fahrzeugen illustriert, die bei einem unvermeidlichen Unfall (weil die Bremsstrecke zu lang ist) vor die Wahl gestellt werden, entweder eine ältere Frau (auf der Nebenspur) oder ein Kind (auf der eigenen Spur) zu überfahren.

So intellektuell aufreizend diese Beispiele für die Öffentlichkeit sind, stellen sie meistens eine sinnlose Übung dar. Dazu habe ich bereits einmal in Telepolis Stellung genommen: "Oma wird nicht überfahren".

Ich möchte aber diesmal das Hauptproblem für die Programmierung einer Ethik für Roboter präziser anpacken und zwar: Man kann von Maschinen nicht verlangen, dass sie sich ethisch benehmen, da ethisches Verhalten (a) Selbstbewusstsein mit Verständnis der Folgen unserer Taten benötigt und (b) eines freien Willens bedarf. Beides besitzen Waschmaschinen, Bügeleisen und auch Roboter nicht.

Wir würden Tieren nicht ein gewisses Selbstbewusstsein absprechen, und freien Willen besitzen sie eigentlich auch. Der Löwe, der die Gazelle frisst, handelt aber weder gut noch böse. Er versucht nur zu überleben und andere Tiere gelten nur als Futter. Die Folgen für die Löwengemeinschaft, wenn ein Löwe ein Ruder übernimmt und alle jüngeren Tiere tötet, spielen keine Rolle: Der stärkere setzt sich durch.

Obwohl im Mittelalter Tiere manchmal der Prozess vor Gericht gemacht wurde (weil sie beispielsweise einen Menschen getötet haben) ist das eher ein Kuriosum, da wir nicht ernsthaft von Tieren erwarten, dass sie zwischen Gut und Böse unterscheiden können (siehe E.P.Evans, The Criminal Prosecution and Capital Punishment of Animals, 1908).

Freier Wille ist für ethisches Handeln absolut notwendig. Wenn eine Person mit Waffengewalt gezwungen wird, bei einem Raub die Beute mitzutragen, würden wir diese Person später nicht vor Gericht stellen, da sie keine vernünftige Alternative hatte.

Menschen sind aber intelligente soziale Wesen und deswegen verlangen wir mehr von ihnen als von nur eigennützigen Lebewesen. Beim Handeln sollten wir das Gemeinwohl vor Augen haben und uns danach richten. Da wir über intelligentes Selbstbewusstsein verfügen, können wir prinzipiell einschätzen, wie unsere Handlungen solches Gemeinwohl steigern bzw. beeinträchtigen werden. Da wir auch über freien Willen verfügen, sollten wir die beste Alternative wählen, d.h. wir können und sollten uns "ethisch" verhalten.

Haben Computer einen freien Willen?

Bereits bei der ersten Ingredienz für das ethische Handeln scheitern die Roboter. Heutige Computer verarbeiten Regelwerke, die durch den Programmierer in die Maschine eingegeben werden. Computer sind Sklaven: Sie tun nur das, was der Programmierer angeordnet hat.

Man könnte einwenden, dass der Roboter vielleicht stochastische Algorithmen oder adaptive lernende Systeme verwendet, so dass der Programmierer am Ende nicht mehr weiß, was die Maschine in jeder Situation machen wird. Dann ist aber das Problem eher noch schlimmer, da wir nicht mehr genau kontrollieren können, wie die Maschine letztendlich reagieren wird.

Bei Perzeption ist es meistens kein Problem: Wir wissen selber auch nicht, wie unser neuronales Netz im Gehirn Gesichter oder Buchstaben erkennt. Wir können z.B. unsere Gesichtserkennung nicht willentlich ausschalten. Bei bewussten Entscheidungen ist aber anders: Wir können sagen, warum wir etwas getan haben. Bei Robotern verfahren wir ähnlich. Die Perzeptionskomponenten können z.B. durch neuronale Netze angetrieben werden.

Aber bei kritischen Systemen verlangen wir außerdem dazu den Einsatz von Entscheidungskomponenten, die "deliberativ", d.h. als Regelwerke agieren, die von Menschen verstanden werden können. Nach jeder Handlung sollte es möglich sein, den Computer bzw. den Roboter zu fragen: Warum? Und die Antwort sollte nicht aus vielen Zahlen, sondern aus lesbaren Überlegungen und Inferenzen bestehen.

Sei es also, dass der Roboter nur automatisch Daten durch ein neuronales Netz fließen lässt, oder dass der Roboter nur Regelwerke ausführt, es ist kein freier Wille involviert. Die Maschine bleibt Maschine und die in ihr womöglich einprogrammierte gute Benimmregeln bilden nur eine Pseudoethik.

Varianten der Tugend

Philosophen haben jahrhundertlang über die Frage des ethischen Handelns gestritten. Menschen sollten tugendhaft sein, weil dies für die Gesellschaft und auch für sie selbst das Beste sei. Das "gute Leben" stützt sich auf diese angestrebte Tugendhaftigkeit jedes einzelnen.

Traditionell gibt es drei Ansätze für die Begründung ethischen Handelns:

  • das Streben des Einzelnen nach Tugend;
  • die Tugend, die allgemeinen Gesetzen gehorcht (wie Kants kategorischer Imperativ);
  • die Tugend, die die Konsequenzen der Taten einschätzt

Die Utilitaristen gehören zur letzten Gruppe. Es wird bei Handlungen berechnet, was das Beste für die Gesellschaft sei. Deswegen brauchen wir eine Art "Zielfunktion", die wir optimieren können. Das Problem ist aber, wie man die Bewertungsfunktion aufstellt.

Wie bewertet man das Leben von Menschen? Im Beispiel mit dem Auto,wäre eine angemessene Zielfunktion die gemeinsame Lebenserwartung von Oma und Kind.

Dann sollte man das Kind vom Unfall verschonen. Vertreten wir aber den Standpunkt, dass Menschenleben gleichwertig sind, unabhängig von allen anderen Faktoren, dann sollte man würfeln und die Spur mit 50% Wahrscheinlichkeit wechseln, mit 50% Wahrscheinlichkeit nicht.

Dann gibt es diejenigen, die auf allgemeingültige Regeln setzen. Im Fall von Kants kategorischem Imperativ (Tu nur das, was allgemeines Gesetz sein kann) findet man eine Anleitung für viele Handlungen, aber nicht für alle. Man soll nicht stehlen und auch nicht töten - das leuchtet ein. Aber sollte man immer die Wahrheit sagen? Z.B. zu einem Kind, das nur wenige Tage zu leben hat? Oder dem Kriminellen, der eine Person, die wir kennen, sucht, um sie zu töten?

Ein Kantianer würde im Autobeispiel die Spur nicht wechseln (und das Kind überfahren), weil durch den Spurwechsel jemand, der vorher am potentiellen Unfall unbeteiligt war, durch unser Handeln zum Opfer wird.

Die dritte Möglichkeit des ethischen Handelns (die erste in der Liste oben), d.h. das individuelle Streben nach Tugend, lässt viel mehr Raum für den Einzelnen. Personen sollten "gut" sein, indem sie primär anstreben, das Beste für die Gesellschaft zu tun. Der Feuerwehrmann, der sich opfert, um die von Feuer eingekesselte Oma zu retten, handelt tugendhaft und wir applaudieren, auch wenn im Sinne der Maximierung der Lebenserwartung, d.h. rein utilitaristisch gesehen, seine Handlung unsinnig war.

Das Streben nach Tugend ist für mich die sympathischere, weil sie allgemeine Regel akzeptiert (z.B. Gesetze), aber von uns auch verlangt, über die Folgen unseren Taten nachzudenken (ohne sich stur an einer Zielfunktion fest zu halten), d.h. weil sie den Akzent auf die Verantwortung des Einzelnen verschiebt.

Unser "Bestes" zu tun bedeutet, dass wir alle Faktoren berücksichtigen und dann eine Lösung wählen, die wir als die rein subjektiv tugendhafteste betrachten. Das heißt, man muss immer abwägen, wie allgemeine Gesetze von Fall zu Fall zu interpretieren und einzusetzen sind, und voll die Verantwortung übernehmen. Mahatma Gandhi hat gerade diese Art des ethischen Handelns immer wieder unterstrichen.