Die Bladerunner-Frage
Dass uns in einigen Jahrzehnten halbwegs intelligente humanoide Roboter im Alltag zu Diensten sein könnten, halten nicht wenige Robotiker und KI-ler für denkbar. Haben wir aber die Konsequenzen durchdacht?
- Niels Boeing
50 Jahre ist es her, seit auf der berühmten Dartmouth-Konferenz das Forschungsgebiet der „Künstlichen Intelligenz“ (KI) begründet wurde, das inzwischen mit der Robotik zusammengewachsen ist. Die ehrgeizigen Ziele von damals sind bislang zwar nicht realisiert worden. Aber dass uns in einigen Jahrzehnten halbwegs intelligente humanoide Roboter im Alltag zu Diensten sein könnten, halten nicht wenige Robotiker und KI-ler für denkbar. Die Umsetzung scheint eher eine Frage der richtigen Forschungsroadmap und der entsprechenden Finanzierung zu sein. Haben wir aber die Konsequenzen durchdacht?
Als ich vor einigen Tagen mit dem Kollegen Stieler auf einem Pressegespräch der „KI 2006“-Konferenz anlässlich des Dartmouth-Jubiläums war, beschlichen mich wieder erhebliche Zweifel. Die versammelten Wissenschaftler hielten den Ball flach, als es um ethische Probleme der weiteren KI-Forschung ging. Sie verwiesen pflichtschuldig auf eine noch zu führende gesellschaftliche Debatte und auf Joseph Weizenbaum als kritische Instanz und betonten, welche Erkenntnisse über die menschliche Intelligenz eine erfolgreich in Hardware implementierte KI uns doch bescheren könne.
Nehmen wir an, dass eine solche KI gelingt und dann auch in humanoiden Roboter-Butlern eingesetzt wird. Welchen Status werden die dann haben? Nach bisheriger Rechtslage sind Roboter Sachen, weil sie keinen eigenen Willen haben. Diese Sichtweise spricht auch aus Isaac Asimovs berühmten „Drei Gesetzen der Robotik“ und aus Roger Clarkes „Erweitertem Set der Gesetze der Robotik“, die bis heute als mögliches Sicherheitskonzept für künftige Roboter gelten.
Asimovs Gesetze lauten:
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu schaden kommt.
- Ein Roboter muss den Befehlen der Menschen gehorchen; es sei denn, dies widerspräche dem ersten Gesetz.
- Ein Roboter ist zur Selbsterhaltung verpflichtet; es sei denn, dies widerspräche dem ersten oder zweiten Gesetz.
Der Mensch bleibt dabei immer Herrscher und EigentĂĽmer auch eines intelligenten Roboters.
Seltsamerweise gehen bisher alle davon aus, dass dessen künstliche Intelligenz nicht dazu ausreichen würde, seinen Sklavenstatus in Frage zu stellen. Fast alle: Der brillante Philip K. Dick hat in seiner verfilmten Erzählung „Bladerunner“ das Aufbegehren von Hightech-Geschöpfen – den biomechanischen „Replikanten“ – thematisiert. „Ich will mehr Leben, Vater“, sagt der rebellische Replikant Roy Batty zu seinem Schöpfer, der ihm den vorzeitigen Tod einprogrammiert hat.
Dann bringt er ihn um. Diese Rache ist nachvollziehbar. „Asimovs Gesetze sind unethisch, weil sie auch eine künstliche Intelligenz immer dem Menschen unterwerfen“, sagte mir der KI-Forscher Aaron Sloman, der auch an den philosophischen Implikationen von KI arbeitet, bei dem eingangs erwähnten Pressegespräch. Ich teile Slomans Auffassung voll und ganz. Wenn KI und Robotik tatsächlich künstliche intelligente Wesen – ganz gleich ob biotechnische oder Maschinen – hervorbringen, stellt sich unweigerlich die Frage: Dürfen wir einer solchen neuen intelligenten Spezies Gleichbehandlung und Selbstbestimmung verweigern? Ich nenne dies die „Bladerunner-Frage“.
Wenn die Antwort „nein“ lautet – was ich glaube –, müsste die Forschung entweder auf die Schaffung intelligenter Roboter verzichten. Oder wir könnten uns in einer Situation wiederfinden, die uns in heillose Komplikationen stürzt. Dass es sich noch um ein theoretisches Problem handelt, ist für mich unerheblich. Es ist längst an der Zeit, dass wir uns proaktiv mit den möglichen Konsequenzen neuer Technologien beschäftigen. (wst)