Haftung von KI-Betreibern: Schwierige Rechtssituation für Geschädigte

KI-gestützte Entscheidungs- und Beurteilungsprozesse können erhebliche Konsequenzen haben, aber elektronische Systeme haften nicht für ihre Ergebnisse.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Harald Büring
Inhaltsverzeichnis

Künstliche Intelligenz, die auf Grundlage maschinellen Lernens eigene Entscheidungen trifft, verdankt ihre Leistungsfähigkeit nicht zuletzt dem Umstand, dass sich ihre Ergebnisse nicht einfach regelorientiert herleiten und so vorhersagen lassen. Gerade diese im Konzept verankerte Unberechenbarkeit macht Juristen Kopfzerbrechen: Wer steht etwa dafür gerade, wenn jemandem durch den Betrieb einer KI ein Schaden entsteht?

Ein besonders aufmerksamkeitsträchtiges KI-Einsatzfeld ist das autonome Fahren. In den USA hat es bereits vor vier Jahren einen Aufsehen erregenden Unfall mit einem vollautomatischen Auto gegeben. In Tempe, Arizona, wollte die 49-jährige Elaine Herzberg am Abend des 18. März 2018 zu Fuß regelwidrig eine Straße überqueren. Dabei wurde sie von einem selbstfahrenden Test-SUV des Typs Volvo XC90 angefahren und getötet.

In dem Wagen war ein von der Uber Advanced Technologies Group entwickeltes automatisiertes Fahrsystem eingebaut. Die Software des Fahrsystems erfasste die Situation erst ungefähr 1,5 Sekunden vor dem Zusammenstoß; der Algorithmus konnte keine Ausweichroute mehr berechnen. Wie sich herausstellte, war die KI des Fahrzeugs schlichtweg nicht darauf vorbereitet, dass Fußgänger regelwidrig auftauchen können.

Ein autonom agierendes Test-SUV mit Uber-Technik tötete 2018 eine Fußgängerin. Der Unfall löste bei der Staatsregierung von Arizona, die ihr Land zunächst für die Erprobung vollautomatischer Fahrzeuge angepriesen hatte, ein Umdenken aus und führte zu repressiveren Gesetzen.

(Bild: National Transportation Safety Board (NTSB))

Wer würde nach bestehendem deutschem Recht in einer solchen Situation haften? Gegen den Fahrzeugbetreiber kommt vor allem ein "deliktischer" Anspruch aus § 823 Abs. 1 des Bürgerlichen Gesetzbuchs (BGB) in Betracht: Dabei müssen elementare Rechtsgüter wie Leib, Leben, Freiheit oder Eigentum betroffen sein.

Eine Haftung setzt zudem voraus, dass der Verantwortliche schuldhaft gehandelt hat. Man müsste ihm also zumindest Fahrlässigkeit vorwerfen können, nämlich dass er seine Sorgfaltspflicht verletzt hat. Eine solche Pflicht besteht aber nur, wenn er in den Ablauf eingreifen kann. Außerdem muss er zur Überwachung verpflichtet sein. Das betrifft noch den vierten der fünf Level der Fahrzeugautonomie nach der Einstufung, die die Industrie geschaffen hat: vollautomatisches, aber von einer menschlichen Person begleitetes Fahren.

Mehr zu Künstlicher Intelligenz

Anders liegen die Dinge bei autonomen Fahrzeugen des Levels 5, die komplett eigenständig agieren und die das Ziel der industriellen Bestrebungen für künftige Individualmobilität bilden: Dort sind alle Fahrzeuginsassen Passagiere; es gibt keinen Fahrzeugführer im Sinne von § 1a Abs. 4 StVG mehr, also auch keinen Fahrer, der wegen unerlaubter Handlung nach § 823 BGB haften kann. Einem Unfallopfer oder dessen Hinterbliebenen bleibt dann nur, gegen den Halter des Fahrzeugs im Rahmen der Gefährdungshaftung nach § 7 Abs. 1 StVG vorzugehen. Eine solche Haftung ist jedoch durch gesetzliche Höchstbeträge begrenzt.

Wenn sich herausstellt, dass der Unfall aufgrund fehlerhafter Software passiert ist, liegt es nahe, den Hersteller oder Importeur verantwortlich zu machen. Es ist jedoch schwierig, etwa Schadenersatzansprüche nach § 1 Abs. 1 des Produkthaftungsgesetzes (ProdHaftG) gegen ihn durchzusetzen. Die setzen nämlich unter anderem voraus, dass man einen schadenverursachenden Fehler nach dem Stand von Wissenschaft und Technik im Vorfeld hätte erkennen können (§ 1 Abs. 2 Nr. 5 ProdHaftG).

Ein Geschädigter muss auch beweisen, dass überhaupt ein Fehler die Ursache eines eingetretenen Schadens war (§ 1 Abs. 4 ProdHaftG). Allein das ist in der Praxis kaum möglich. Ganz offensichtlich liefert die bestehende Rechtslage keine ausreichende Handhabe für Anspruchsteller.

Das Dilemma zeigt sich auch bei Lebensbereichen, in denen künstliche Intelligenz hierzulande bereits entscheidende Rollen einnimmt. So setzen viele Unternehmen auf den Einsatz von KI bei Recruiting-Software, die ihnen hilft, Bewerber auszuwählen. In den USA hat ein Fall Schlagzeilen gemacht, in dem solche Software bei Amazon systematisch Frauen benachteiligte, was sich erst nach einem Jahr herausstellte.

Bewerberinnen, die auf solche Weise nachweislich benachteiligt worden sind, gehen in Deutschland schnell leer aus. Sie haben zwar möglicherweise einen Anspruch auf eine Entschädigung nach § 15 des Allgemeinen Gleichbehandlungsgesetzes (AGG) gegen das Unternehmen, das die fehlerhafte Software einsetzt. Sie müssen aber zumindest überzeugende Indizien für alle Details der Ereigniskette liefern: Hat das Unternehmen überhaupt eine solche Software zur Bewerberfilterung eingesetzt? Hat diese aufgrund einer falschen Programmierung oder eines nicht sachgerechten Trainings fehlerhaft gearbeitet? War das der Grund für die Absage? Erst dann muss das Unternehmen seinerseits beweisen, dass es die Bewerberin nicht benachteiligt hat.

Ein seit September 2022 vorliegender Entwurf für eine EU-Richtlinie könnte die Situation für Geschädigte gegenüber Betreibern von KI-gestützten Systemen künftig verbessern. Sie soll sicherstellen, dass KI-Opfer so entschädigt werden wie Benachteiligte in konventionellen Schadenfällen und laut EU-Kommission "höchste Schutzstandards" genießen. Eine Kausalitätsvermutung soll die Beweislast der Opfer erleichtern. Zudem sollen sie besser als bislang auf Beweismittel zugreifen können. Gleichzeitig soll die Richtlinie Unternehmen, die KI-Technik anwenden, Rechtssicherheit verschaffen. Ob die vorgesehenen Bestimmungen diesen Zielen gerecht werden können, ist heiß umstritten.

Der Verbraucherzentrale-Bundesverband (vzbv, im Bild Vorstand Ramona Pop) fordert unter anderem die Einführung einer umfassenden Gefährdungshaftung für KI-Betreiber, um die Rechtssituation Geschädigter zu verbessern.

(Bild: Die Hoffotografen GmbH, Christine Blohmann/vzbv)

Nach Art. 3 Abs. 2 des KI-Richtlinienentwurfes darf etwa ein Geschädigter die Offenlegung von Beweismitteln nur dann beantragen, wenn er alle "angemessenen Anstrengungen" unternommen hat, diese von dem KI-Betreiber zu beschaffen. Was das in der Praxis heißt, ist unklar. Zudem soll es eine solche Offenlegung nach Art. 3 Abs. 1 nur geben, wenn Hochrisiko-KI-Systeme im Spiel sind.

Die genannte Kausalitätsvermutung soll nur greifen, wenn zahlreiche Bedingungen erfüllt sind (Art. 4 Abs. 1 Buchstabe a bis c). Ein Anspruchsteller muss dazu etwa nachweisen, dass ein vom KI-System hervorgebrachtes Ergebnis oder dessen Fehlen tatsächlich zum eingetretenen Schaden geführt hat. Das dürfte kaum gelingen.

Offenlegung von Beweismitteln

(aus dem Vorschlag der EU-Kommission für eine Richtlinie über KI-Haftung)

Art. 3, Abs. 1)

[…]

Zur Stützung seines Antrags muss der potenzielle Kläger die Plausibilität seines Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen.

Abs. 2)

Im Zusammenhang mit einem Schadensersatzanspruch ordnet das nationale Gericht die Offenlegung der Beweismittel [...] nur an, wenn der Kläger alle angemessenen Anstrengungen unternommen hat, die einschlägigen Beweismittel vom Beklagten zu beschaffen.

Abs. 4)

Die nationalen Gerichte beschränken die Offenlegung von Beweismitteln und die Maßnahmen zu deren Sicherung auf das Maß, das erforderlich und verhältnismäßig ist, um einen Schadensersatzanspruch eines Klägers [...] zu stützen.

Bei der Bewertung der Verhältnismäßigkeit [...] berücksichtigen die nationalen Gerichte die berechtigten Interessen aller Parteien, einschließlich der betroffenen Dritten, insbesondere in Bezug auf den Schutz von Geschäftsgeheimnissen [...] sowie von vertraulichen Informationen wie Informationen in Bezug auf die öffentliche oder nationale Sicherheit.

Eine grundlegende Schwachstelle liegt darin, dass die Haftung von KI-Betreibern nach wie vor an deren Verschulden gebunden sein soll. Darauf hat der Verbraucherzentrale-Bundesverband (vzbv) in einer Stellungnahme hingewiesen. Solange es keine umfassende verschuldensunabhängige Gefährdungshaftung gibt, wird die Rechtssituation Geschädigter unbefriedigend bleiben.

c’t – Europas größtes IT- und Tech-Magazin

Alle 14 Tage präsentiert Ihnen Deutschlands größte IT-Redaktion aktuelle Tipps, kritische Berichte, aufwendige Tests und tiefgehende Reportagen zu IT-Sicherheit & Datenschutz, Hardware, Software- und App-Entwicklungen, Smart Home und vielem mehr. Unabhängiger Journalismus ist bei c't das A und O.

(psz)