Wer trägt die Verantwortung für Killer-KI?

Es dürfte nicht mehr lange dauern, bis Systeme der Künstlichen Intelligenz alltäglich über Leben und Tod entscheiden müssen. Das könnte eine ethische und rechtliche Großdebatte auslösen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 5 Min.
Von
  • TR Online
Inhaltsverzeichnis

In Arizona ist es erst kürzlich passiert: Ein autonomes Auto des Fahrdienstes Uber hat im autonomen Modus – und trotz eines Sicherheitsfahrers hinter dem Lenkrad – eine Passantin getötet.

Mehr Infos

Die Frage ist nun, wer die Verantwortung trägt, sollte es zu einem Prozess kommen. Der Fahrer, der Hersteller des Fahrzeugs / der Software – oder gar die KI selbst?John Kingston von der University of Brighton in Großbritannien hat sich in einer Analyse angesehen, wie die aktuelle rechtliche Landschaft in Sachen KI und Verantwortung aussieht. Seine Darstellung zeigt, dass sich Autobranche, Computerwissenschaften und Rechtslehre noch deutlich intensiver mit dem Thema auseinandersetzen sollten, als sie es jetzt schon tun.

Die Grundsatzfrage, die sich stellt, lautet: Sind KI-Systeme strafrechtlich haftbar für ihre Aktionen? Einer der Experten auf dem Gebiet ist Gabriel Hallevy vom Ono Academic College in Israel. Strafrechtliche Haftbarkeit setzt normalerweise neben der eigentlichen Tat eine geistige Absicht voraus (Actus Rea und Mens Rea). Hallevy hat dazu drei Szenarien untersucht.

Das erste, "Täterschaft durch einen anderen", betrifft Situationen, bei denen eine Tat durch eine geistig unzurechnungsfähige Person oder ein Tier begangen wurden, die daher als unschuldig gelten. Derjenige, der die geistig unzurechnungsfähige Person oder das Tier angeleitet hat, kann jedoch strafrechtlich haftbar gemacht werden. Etwa ein Hundebesitzer, der seinen Hund dazu auffordert, eine andere Person anzugreifen.

Das hat Auswirkungen auf die Gestaltung intelligenter Maschinen und deren Benutzer. "Ein KI-Programm könnte unschuldiger Beauftragter sein, für dessen Taten entweder der Programmierer oder der Nutzer verantwortlich gemacht werden könnte", so Kingston in seiner Übersicht.

Autonome Autos (6 Bilder)

Prototyp eines Autonomen Automobils von Nissan. Foto: Norbert Aepli. Lizenz: CC BY 3.0

Das zweite Szenario, eine sogenannte natürlich folgende Konsequenz, kommt vor, wenn das gewöhnliche Verhalten eines KI-Systems unangemessen verwendet werden, um eine strafrechtlich relevante Tat zu begehen. Als Beispiel nennt Kingston einen künstlich intelligenten Roboter in einer japanischen Motorradfabrik, der einen menschlichen Kollegen umbringt. "Der Roboter erkennt den Mitarbeiter als Gefahr für seine Mission und errechnet dann, dass die effizienteste Methode, die Gefahr abzuwehren, ist, den Menschen in eine auf der anderen Seite arbeitende Maschine zu stoßen." Mit seinem leistungsfähigen hydraulischen Arm haut der Roboter den überraschten Arbeiter in die Maschine und tötet ihn sofort. Dann setzt er seine Arbeit fort. Die zentrale Frage hier ist, ob der Programmierer der Maschine wusste, dass diese Tat die wahrscheinliche Konsequenz des regulären Einsatzes des Roboters war.

Das dritte Szenario ist die direkte Haftbarkeit. Hier sind sowohl Tat als auch Absicht notwendig. Dies kommt vor, wenn ein KI-System eine Handlung vornimmt, die sofortige strafrechtliche Konsequenzen hätte oder eine Tat unterlässt, die diese verhindern würde.

Eine solche Absicht zu bestimmen, dürfte sehr viel schwieriger sein, doch das Thema bleibe relevant, meint Kingston. "Zu schnelles Fahren führt zu einer direkten Haftbarkeit." Hallevy zeigt das auch: Bricht ein selbstfahrendes Auto eine Geschwindigkeitsbegrenzung, könnte das Gesetz dem KI-Programm die Verantwortung geben – und nicht dem Nutzer, der ja gar nicht fährt.

Dann stellt sich noch die Frage, wie eine Verteidigung aussehen könnte. Wenn ein KI-System strafrechtlich haftbar ist, wie könnte es sich dann entlasten? Kingston sieht hier mehrere Möglichkeit: Ein Fehler im Code könnte genauso zur Verteidigung dienen wie bei einem Menschen, der geistig kurzzeitig unzurechnungsfähig war. Oder wie wäre es mit noch etwas verrückterem: Ein Virus oder eine Malware könnte so auf ein KI-System einwirken wie Alkohol oder Nötigung auf einen Menschen.

Gänzlich theoretisch sind solche Strategien nicht. In Großbritannien gab es in der Vergangenheit bereits Fälle, bei denen Menschen, denen Computerstraftaten vorgeworfen wurden, erfolgreich argumentierten, ihr Gerät sei mit Malware infiziert gewesen und sie seien daher nicht verantwortlich zu machen.

In einem der Fälle behauptete ein junger Computerhacker, dem ein Denial-of-Service-Angriff zur Last gelegt wurde, ein trojanisches Pferd habe sein System missbraucht und sich dann selbst gelöscht, bevor eine forensische Analyse möglich war. "Der Verteidiger überzeugte die Geschworenen erfolgreich davon, dass ein solches Szenario nicht ohne jeden Zweifel ausgeschlossen werden konnte."

Dann wäre da noch die Frage der Strafe. Wer oder was würde bestraft, wenn ein KI-System für eine Tat direkt haftbar ist? Wie sollte die Strafe aussehen? Antworten auf diese Fragen werden noch gesucht. Kommt das Strafrecht nicht in Frage, bliebe noch das Zivilrecht. Und hier stellt sich dann wiederum die Frage, ob ein KI-System eine Dienstleistung oder ein Produkt ist.

Ist es ein Produkt, gelten Regeln wie die Produkthaftung oder die Gewährleistung. Ist es eine Dienstleistung, könnte Fahrlässigkeit ins Spiel kommen, was sich wiederum im Bereich von KI-Systemen schwer nachweisen lassen dürfte. Hinzu kommt die Frage, ob Vertragsbruch vorliegt und ob dieser den Schaden verursacht hat.

Und als ob das alles nicht kompliziert genug wäre, könnten KI-Systeme in Zukunft noch deutlich mächtiger und menschenartiger werden – oder gar zum digitalen Supermenschen mutieren. Anwälte und Gerichte dürften viel zu tun bekommen – oder die KI-Systeme, die sie womöglich eines Tages ersetzen.

()