AI don't regret a thing

Kann Künstliche Intelligenz Kunst? Oder sind immer noch die Programmierer die Autoren? Dieselben Fragen stellen sich bei Gerichtsverfahren: Kann eine Maschine zur Verantwortung gezogen werden?

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Es gibt dieses schöne Wort im Deutschen: Urheber. Man braucht es vor allem im Zusammenhang mit Kunstwerken, aber es steckt eine Bedeutung darin, die noch grundlegender ist - die Wortherkunft ist verwandt mit der Ursache, einem Anfang von Etwas, was also auch mit Verantwortung zu tun hat. Deshalb kann der Urheber auch politisch verstanden werden, dann meistens weniger unschuldig, es geht dann eher darum, die Anstifter zu finden.

Zum deutschen Begriff kam dann irgendwann der lateinische, dem Urheber wurde der Autor zur Seite gestellt. Der wiederum hat mit Autorität zu tun, und die hat auch eine wichtige juristische Komponente. Bei den Römern diente die auctoritas überall dort als Entscheidungsgrundlage, wo es keine klaren juristischen Vorschriften gab. Auctoritas konnte sowohl Einzelpersonen als auch einem Kollektiv zukommen, insofern war der Begriff etwas weiter als heute gefasst: Er lässt sich am besten mit "Würde", "Ansehen" oder "Einfluss" umschreiben.

Taugen die beiden Begriffe, wenn man an Künstliche Intelligenz denkt? Im Feld der Kunst hat AI noch lange nicht den Status einer Urheberschaft erlangt, auch wenn das in den letzten Jahren diverse Künstler- und Forschergruppen immer wieder behauptet haben. AI kann Muster reproduzieren, wirklich kreativ sein kann sie kaum - zumal wenn man an die Art von Kreativität denkt, die sich im 20. Jahrhundert entwickelt hat: als Instrument der Kritik, als unbequeme und auch unberechenbare, kontingente Praxis.

Und auch gesellschaftlich einflussreich im römischen Sinn ist AI noch lange nicht. Entsprechende Visionen für eine in politische Prozesse eingreifende AI gibt es zwar, aber sie sind noch ohne konkrete Grundlage - wie genau Deep Learning uns aus dem Klimaschlammassel helfen soll, hat noch kein Forscherteam aufgezeigt. Und überhaupt ist es einigermaßen fraglich, ob eine Gesellschaft Maschinen je dermaßen viel Autorität zugestehen würde, ob wir uns also wirklich von Algorithmen regieren lassen würden, in vollem Bewusstsein unserer Unmündigkeit.

Gleichzeitig gilt: Maschinen werden immer autonomer. Sie fällen Entscheide, sie können Fehler begehen, die fatale Auswirkungen haben - und die nicht einfach als "Defekt" verbucht werden können. Oder anders gesagt: Sie können vollkommen "richtig" funktionieren und trotzdem etwas furchtbar Falsches machen. Das unterscheidet sie von den technischen Apparaturen, wie sie das industrielle Zeitalter bis Ende des 20. Jahrhunderts geprägt haben.

Für eine Fehlfunktion kann eine Maschine nichts, es braucht schon so etwas wie eine Fehlhandlung, um für das Resultat verantwortlich zu sein. Das geht erst, wenn die Maschine dabei nicht einfach einem Funktionsschema folgt, wenn sie Optionen hat und abwägen muss, welche sie für die beste hält. Sie sollte diese Optionen also ethisch bewerten können - und das bestenfalls auch noch begründen können. Das allerdings führt rasch ins ethische Gestrüpp: Wenn ein selbstfahrendes Auto so plötzlich in eine unvorhersehbare Unfallsituation gerät, dass es nur noch zwischen schlechten Ausgängen entscheiden kann - geradeaus und das Kind überfahren, ausweichen und die Gruppe auf dem Trottoir erwischen, schleudernde Vollbremsung mit hohem Risiko für die Fahrzeuginsassen - dann muss es womöglich mit einer rasch durchrechenbaren Konzeption von Ethik ausgestattet sein, die jeden Menschen überfordern würde. Dem Zufall überlassen wird es die Entscheidung nicht können.

Der Text wurde der letzten Ausgabe der Fabrikzeitung über "Algorithmische Autorschaft" entnommen.

Braucht eine Maschine auch Unrechtsbewusstsein

Könnten der AI bei dieser Hochgeschwindigkeitsethik (man denkt nicht umsonst auch ans High-Frequency-Trading) Fehler unterlaufen, die man nicht dem Softwareentwickler, sondern der Software selbst anlasten würde? Das führt dann gleich zur nächsten vertrackten Frage: Braucht es auch noch eine Einsicht in die Fehlerhaftigkeit des Handelns, um von Schuld zu reden?

In der angelsächsischen Rechtssprechung wird mit der mens rea (lateinisch: schuldiger Geist‘; auch mental element oder fault element) argumentiert, wenn das Schuldmass eruiert werden soll. Erst wer weiss, dass er etwas Falsches tut, kann mit der vollen Härte des Gesetzes be- und verurteilt werden. "Actus non facit reum, nisi mens sit rea" - "Keine Schuld ohne Bewusstsein der Schuld": Müssen Maschinen also so viel Bewusstsein für ihre Handlungen (und für mögliche Fehlhandlungen) entwickeln, dass sie selber einsehen, wo sie Fehler begehen? Braucht eine Maschine nicht nur einen Gerechtigkeitssinn (bis auf weiteres, als läppische Krücke: eine ethische Optimierungsfunktion), sondern auch noch ein Unrechtsbewusstsein?

Das würde dann allerdings erst einmal ein Bewusstsein bedingen, und dieses gehört zu den notorisch unscharfen Begriffen, mit denen sich die Philosophen des Geistes schon seit langem herumschlagen, viel länger als es AI-Systeme gibt. Im Zuge aktueller algorithmischer Entwicklungen haben Knacknüsse vom Schlage: "Wie weiß man, dass etwas ein Bewusstsein hat?" wieder Konjunktur, nachdem sie ein wenig verschütt gegangen waren im dekonstruktionistischen Steinbruch des Denkens. Dumm nur: Auch auf Maschinen bezogen lauern da wieder die alten Zirkelschlüsse. Kann eine Maschine Bewusstsein erlangen? Definiere: Bewusstsein. Kann eine Maschine intelligent sein? Definiere: Intelligenz. Und wer sagt uns denn mit Gewissheit, dass wir Menschen wirklich bewusst sind und dieses Bewusstsein (geschweige denn die Intelligenz) keine schmeichelhafte Selbsttäuschung ist?

Turing wusste das übrigens auch, deshalb hat er seinen berühmten Turing-Test explizit als philosophisches Ausweichmanöver konzipiert: Nicht über die Intelligenz der Maschine (bzw. des Menschen) wollte er nachdenken, sondern darüber, ob sie uns überzeugend genug suggerieren kann, intelligent zu sein. Dasselbe muss wohl auch für die Schuldfähigkeit gelten: Wenn ein Auto überzeugend genug selbst einen Unfall verursacht, wenn es überzeugend genug selbst einen Fehler begangen hat, dann werden wir mit dem Finger nicht mehr auf den Konstrukteur zeigen. Wenn wir es für schuldig halten, wird es schuldig sein.

Diese Fragen interessieren natürlich irgendwann auch den Gesetzgeber, doch schon weit früher und weit konkreter sorgen sich die Versicherungen um derlei philosophische Grautöne. Wer ist schuld, heißt in dem Zusammenhang dann ganz prosaisch: Wer ist haftbar. Und da wird die derzeitige Schwierigkeit im Umgang mit Künstlicher Intelligenz sehr deutlich: Haben wir es nämlich nur mit (etwas komplexeren) Maschinen zu tun, dann handelt es sich dabei aus juristischer Sicht um nichts Neues: Hersteller von Maschinen müssen dafür besorgt sein, diese so zu konstruieren, dass sie keinen Schaden anrichten. Das ist common sense - und auch entsprechend einklagbar.

Am Beispiel des selbstfahrenden Autos wird deutlich, dass da womöglich eine neue Art des Argumentierens bevorsteht: Der Autohersteller haftet natürlich nur bei Fehlverhalten der Maschine, nicht bei einem solchen des Fahrers - auch das leuchtet unmittelbar ein. Was aber wenn nun zwei potentielle Fahrer im Wagen sitzen? Ein menschlicher und eine Künstliche Intelligenz? Muss diese womöglich auch irgendwie versichert werden?

Inzwischen ist schon von ersten Fällen zu lesen, in denen AI-Systeme vor Gericht gezerrt werden. Bloomberg berichtete unlängst über einen Streitfall aus Hongkong, der vor dem Handelsgericht in London ausgetragen wird. Es geht um eine AI, die - so die vollmundige Versprechung - besser traden sollte als ein menschlicher Broker, tatsächlich aber bald Unsummen verlor, einmal gleich 20 Millionen Dollar an einem Tag. Kein Wunder, versucht der Anleger diesen Verlust einzuklagen. Die Anwälte des Geschädigten argumentieren, dass es sich um einen durchaus vorhersehbaren Fehler im System handelte, man könnte auch sagen: um eine Dummheit, die als Intelligenz verkauft wurde. Die Gegenseite stellt sich auf den Standpunkt, dass nicht der menschliche Faktor entscheidend war, dass den Hersteller der Software also keine Schuld treffe. Bloomberg nennt es das "black box problem": "If people don't know how the computer is making decisions, who’s responsible when things go wrong?" So wie es im Moment aussieht: der KI-Scharlatan, der etwas verspricht, was die Maschine gar nicht halten kann.

Menschliches und maschinelles Versagen

Das könnte sich in Zukunft durchaus ändern. Wenn es bloß um finanzielle Abgeltung geht, um Schadenersatz, der sich leicht mit einer Transaktion regeln und damit auch aus der Welt schaffen lässt, finden wir wohl bald juristische Verfahrensweisen für eine Welt, in der KI immer stärker in Entscheidungsprozesse eingreift. Hier wird auch sie Rechenschaft ablegen müssen - ein sehr aktives Feld in der KI-Forschung heißt nicht umsonst "algorithmic accountability". Womit wir übrigens bei der Zurechnungsfähigkeit wären, ein weiterer sehr unscharfer Begriff, für Menschen gemacht, für Maschinen wohl kaum zu brauchen. Oder werden Anwälte bald argumentieren, dass das neuronale Netzwerk nicht in bester geistiger Verfassung war, als es das Auto direkt in die Wand gesteuert hat? Weil normalerweise würde es so etwas ja nie tun.

Was also, wenn es um eine Schuld geht, die sich nicht aufs Monetäre beschränkt, wenn Menschenleben zerstört werden? Wie soll man ein selbstfahrendes Auto bestrafen, sofern seine Schuld nachgewiesen ist? Es für ein halbes Jahr in die Garage stecken ohne Licht und Internetverbindung? Letztlich baut unser ganzes juristisches System auf der Schuldfähigkeit auf - weil es nicht nur strafen, sondern auch sühnen will. Es hat insofern eine hygienische Funktion für die Gesellschaft: Wenn ein kleines Kind überfahren wird, soll vor Gericht vor allem herausgefunden werden, wer die Schuld daran trägt, in einem sehr moralischen Sinne. Es geht darum, ob ein Täter ausgemacht werden kann, oder anders gesagt: ob man es mit einer Tat oder einem Unglück zu tun hat. Und weiter, falls es einen Täter gibt: Wie dieser mit seiner Schuld umgeht - ob er sie einsieht, ob er sie bereut, ob es einen Weg der buchstäblichen Wiedergutmachung gibt. Oft gibt es ihn nicht, dann bleibt als gesamtgesellschaftliche Maßnahme nur die Strafe - eine Notlösung eigentlich, aber wir haben sie als die beste schlechte Antwort auf ein geschehenes Unrecht akzeptiert -, um der Gerechtigkeit Genüge zu tun.

All diese Mechanismen laufen ins Leere, wenn nun plötzlich eine Maschine "Schuld" hat. Da können die Vertreter einer utilitaristischen Ethik noch lange argumentieren, dass selbstfahrende Autos bald so fähige Verkehrsteilnehmer sein werden, dass sie für weniger Unfälle sorgen wie Menschen hinter dem Steuer - und dass wir sofort umstellen sollten, sobald dieser Punkt erreicht ist. Doch das stimmt nicht: So lange wir auf dieser Ebene keinen Umgang mit der Autorschaft gefunden haben, wird jedes menschliche Opfer eines zu viel sein, eine Untolerierbarkeit.

Menschliches Versagen: dafür können wir als Menschen Verständnis aufbringen, dafür haben wir einen ausgefeilten (und mit Grautönen bestens vertrauten) juristischen Apparat konstruiert, der es auffangen kann. Vereinzeltes maschinelles Versagen dagegen könnte unmittelbar zum Tilt, zum Versagen eines ganzen technischen Komplexes führen.

Roland Fischer ist freier Wissenschaftsjournalist und Kurator im Schnittfeld von Kunst und Wissenschaft. Er schreibt regelmässig über Künstliche Intelligenz und hat unlängst die Ausstellung "Frankenstein - von Mary Shelley zum Silicon Valley" im Museum Strauhof kuratiert.