EU-Richtlinien: Einfacherer Schadenersatz bei fehlerhafter KI oder Software

Opfer von Schäden rund um KI sollen leichter zu einer Abfindung kommen. Die Produkthaftung will die EU-Kommission generell ans digitale Zeitalter anpassen.

In Pocket speichern vorlesen Druckansicht

(Bild: StudioProX/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

EU-Bürger sollen einfacher Schadensersatz erhalten, wenn sie Opfer eines fehlerhaften Systems mit Künstlicher Intelligenz (KI) werden. Dies sieht ein Entwurf für eine Richtlinie über KI-Haftung vor, den die EU-Kommission am Mittwoch vorgestellt und veröffentlicht hat. Davon profitieren könnten etwa Job-Bewerber, die bei einem Einstellungsverfahren, für das der Arbeitgeber auf KI-Technologie setzte, diskriminiert wurden.

Zudem will die Brüsseler Regierungsinstitution die 40 Jahre alte Produkthaftungsrichtlinie an das digitale Zeitalter, die Kreislaufwirtschaft und die Auswirkungen globaler Wertschöpfungsketten anpassen. Damit bestehen soll künftig auch ein klarer Anspruch auf Schadensersatz für Defekte und Mängel, die Produkte wie Roboter, Drohnen und Smart-Home-Systeme durch fehlerhafte Software-Updates, KI oder digitale Dienste erleiden.

Voraussetzung dafür ist dem Plan nach, dass diese Komponenten für den Betrieb des jeweiligen Artikels erforderlich sind. Hersteller sollen auch haften, wenn sie Schwachstellen im Bereich der Cybersicherheit nicht beheben.

Eine gesonderte Richtlinie über KI-Haftung hält die Kommission für nötig, um einheitliche Regeln für den Zugang zu Informationen und die Erleichterung der Beweislast im Zusammenhang mit Schäden festzulegen, die durch KI-Systeme verursacht werden. Sie will einen umfassenderen Schutz für Opfer einführen, worunter sie Einzelpersonen und Unternehmen versteht. Der KI-Sektor soll zugleich durch Rechtssicherheit und Garantien gestärkt werden.

Wer von Fehlern eines KI-Systems betroffen ist, kann momentan nur schwer Schadenersatz einklagen. Opfer müssen dafür etwa ein diskriminierendes Verhalten nachweisen sowie eine Verbindung zu dem erlittenen Schaden herstellen. So könnte etwa ein Scoring-System einer Bank einen Kunden fälschlicherweise als nicht kreditwürdig ausweisen. Eventuell bediente ein Mitarbeiter das Programm dabei falsch. Den Zusammenhang zwischen einer solchen Aktion und dem schädlichen Resultat für den Verbraucher herzustellen, gilt bei KI als besonders mühsam, weil die Technik komplex ist und eingesetzte Algorithmen oft intransparent und schwer erklärbar sind.

Durch das spezielle Gesetz sollen nun bestimmte Vorschriften für Ansprüche, die nicht in den Anwendungsbereich der Produkthaftungsrichtlinie fallen, bei Schäden durch Fehlverhalten harmonisiert werden. Dies umfasse etwa Verletzungen der Privatsphäre und des Datenschutzes oder durch Sicherheitsprobleme verursachte Defekte.

Mit der Richtlinie soll zugleich das rechtliche Verfahren für Opfer vereinfacht werden, wenn es um den Nachweis geht, dass das Verschulden einer Person zu einem Schaden geführt hat. Die Kommission will dafür eine "Kausalitätsvermutung" einführen. Opfer müssten demnach nicht mehr detailliert erklären, wie die Benachteiligung durch ein bestimmtes Verschulden oder eine bestimmte Unterlassung verursacht wurde. Voraussetzung ist, dass "nach vernünftigem Ermessen von einem ursächlichen Zusammenhang mit der KI-Leistung ausgegangen werden kann".

Ferner sollen Betroffene beim parallel grundsätzlich geregelten Einsatz von Hochrisiko-KI mehr Instrumente in die Hand bekommen, um zivilrechtlich eine Entschädigung verlangen zu können. Sie erhalten dem Entwurf zufolge etwa einen Anspruch auf Zugang zu Beweismitteln, die Unternehmen und Anbieter besitzen. Es geht dabei etwa um die Herausgabe von Daten, mit denen Entwickler Algorithmen trainierten, Nutzerprotokolle oder Angaben zum Qualitätsmanagement. Geschäftsgeheimnisse sollen dagegen geschützt bleiben.

Dieses erweiterte Auskunftsrecht müssten Opfer gegebenenfalls vor Gericht durchsetzen. Gelingt es ihnen trotzdem nicht, an die begehrten Informationen zu kommen, würde dies im Schadenersatzprozess gegen die beklagte Institution ausgelegt: In diesem Fall würde die Beweislast umgekehrt. Als Beispiele, in denen der rechtliche Werkzeugkasten greifen soll, nennt die Kommission Schäden, die verursacht werden, wenn ein Betreiber von Paketdrohnen die Gebrauchsanweisung oder ein Anbieter die Anforderungen bei der Nutzung KI-gestützter Arbeitsvermittlungsdienste nicht einhält.

Die Brüsseler Exekutivinstanz spricht hier von einer "Erleichterung der Beweislast". Sie schlage aber "keine Umkehr der Beweislast an sich vor", um zu vermeiden, "dass Anbieter, Betreiber und Nutzer von KI-Systemen höheren Haftungsrisiken ausgesetzt sind". Zudem trage der Vorschlag dazu bei, "das Vertrauen der Öffentlichkeit in die KI-Technologien zu stärken und die Einführung und Verbreitung von Künstlicher Intelligenz in der gesamten EU zu fördern".

Mit dem Entwurf zur Novelle der Produkthaftungsrichtlinie will die Kommission das bestehende System der verschuldensunabhängigen Einstandspflicht auf EU-Ebene allgemein modernisieren. Was die Erleichterung der Beweislast betrifft, sollen mit den beiden Richtlinien ähnliche Instrumente eingeführt und vergleichbare Formulierungen verwendet werden, um unabhängig vom gewählten Entschädigungsweg Kohärenz zu gewährleisten.

Der IT-Verband Bitkom begrüßte, dass die Kommission "erste grundsätzliche Fragen zur Haftung im Schadensfall beim Einsatz von KI" regeln wolle. Um den Einsatz der Technik in Deutschland voranzubringen, "muss möglichst schnell Rechtsklarheit beim Praxiseinsatz geschaffen werden". Positiv sei, dass KI-Systeme nicht generell als Gefahrenquelle mit besonders hohen Risiken für Leben und Gesundheit eingestuft würden und so auch keine verschuldensunabhängige Haftung für Hersteller oder Betreiber bestehe. Kritischer beurteilte man die in Teilen vorgesehene Beweislastumkehr. Hier bleibe offen, mit welchen "anderen plausiblen Erklärungen" die Schuldvermutung widerlegt werden könnte.

(mho)