Werte statt Gesetze
Ein britischer Philosoph will Asimovs Robotergesetze an das 21. Jahrhundert anpassen. Kann das gutgehen?
Ein britischer Philosoph will Asimovs Robotergesetze an das 21. Jahrhundert anpassen. Kann das gutgehen?
Früher war nicht alles besser, aber auf jeden Fall einfacher. Computer mit Acht-Bit-Prozessoren, Mobiltelefone statt Smartphones und Autos, deren Motoren man noch eigenhändig auseinander bauen konnte - jedenfalls manchmal. Roboter gab es nur in Science-Fiction-Romanen. Und sie mussten sich in diesen Geschichten schlicht und einfach nur an drei Gesetze halten: 1) Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird. 2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3) Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Jetzt hat der Philosoph Tom Sorell von der University of Warwick einen Vorschlag für ein Update dieser berühmten Robotergesetze gemacht. Eine Anpassung an das 21. Jahrhundert - in dem Roboter zunehmend ältere Menschen pflegen werden.
Dementsprechend gibt es für die Maschinen jetzt keine klaren Grundregeln mehr. Stattdessen sollen sie sich an "Werten" orientieren: Autonomie, Sicherheit, Privatheit, Selbstwirksamkeit und soziale Kontakte. Jede Handlung des Roboters sollte so geplant werden, dass diese Werte für den zu pflegenden Menschen möglichst gut verwirklicht werden.
Klingt kompliziert, nicht wahr? Und hat mich sofort an den Film "Robot und Frank" erinnert. Da geht es um genau so ein Szenario: Ein alter Mann, der offenbar nicht mehr so ganz mit seinem Alltag zurecht kommt, und schon ein wenig wunderlich wird, bekommt einen humanoiden Roboter an seine Seite, der nicht nur Pfleger, sondern mindestens zu gleichen Teilen auch Aufpasser ist.
Die Maschine behandelt Frank denn auch zwar höflich, aber mit der entnervenden Logik von Eltern: „Aber Gemüse ist gut für dich, Frank!“ Bis Frank, der als Juwelendieb gearbeitet hat, bevor er sich zur Ruhe setzte, herausfindet, dass der Roboter offenbar nicht darauf programmiert wurde, Gesetze zu beachten. Und so verkauft Frank seinem blechernen Pfleger einen letzten großen Coup als „Gehirntrainingsprojekt“ - für das er die Maschine hemmungslos einspannt.
Noch spannender dürfte die Beziehung zwischen Mensch und Maschine dadurch werden, dass auch Roboter lügen können. Ronald C. Arkin vom Georgia Institute of Technology, der unter anderem eine Art "künstliches Gewissen" für bewaffnete, autonome Militärroboter entwickelt hat, hält Maschinen, die betrügen können, nicht per se für schlecht. Der Mann muss es wissen: Er hat solche Roboter gebaut. Unter bestimmten Umständen, sagt Arkin kann Täuschung nicht nur legitim, sondern auch nützlich sein - nicht nur für die Maschine, sondern auch für Menschen. Das glauben Sie nicht? Lesen Sie das Interview mit Arkin in der September-Ausgabe der gedruckten TR. Dann sind sie auf die Zukunft ein bisschen besser vorbereitet. Ganz ehrlich. (wst)