KI am Arbeitsplatz: Wer haftet für ChatGPT & Co.?

Künstliche Intelligenz birgt erhebliche Haftungsrisiken für Unternehmen und Mitarbeiter. Wir erläutern Rechtsstand und Gefahren anhand aktueller Fälle.

Artikel verschenken
vorlesen Druckansicht
,
Lesezeit: 16 Min.
Von
  • Tobias Haar
Inhaltsverzeichnis

Die rasante Verbreitung generativer KI-Systeme in Unternehmen konfrontiert die Rechtspraxis mit einer Herausforderung: Wer haftet, wenn ChatGPT Fehler macht oder ein Mitarbeiter sensible Daten in eine KI eingibt? Welche rechtlichen Risiken ergeben sich aus der nicht genehmigten Nutzung von KI-Tools? Die arbeitsrechtliche Haftung bei KI-Nutzung ist in Deutschland bisher kaum durch höchstrichterliche Rechtsprechung geklärt. Während die technische Entwicklung exponentiell voranschreitet, hinkt die juristische Aufarbeitung hinterher.

Die bestehenden gesetzlichen Regelungen können KI-Modelle und -Systeme nur bedingt erfassen. Das Betriebsverfassungsgesetz wurde zwar 2021 angepasst, doch fehlt selbst dort eine Definition dessen, was unter künstlicher Intelligenz zu verstehen ist. Die EU-KI-Verordnung (AI Act) bringt neue Pflichten für Anbieter und Betreiber, lässt aber zentrale Haftungsfragen offen. Den Entwurf einer KI-Haftungsrichtlinie zog die EU-Kommission im Februar 2025 zurück.

iX-tract
  • Arbeitgeber haften für KI-bedingte Schäden aufgrund ihrer Organisationsverantwortung und müssen Mitarbeiter in KI-Kompetenz schulen.
  • Arbeitnehmer dürfen KI ohne Arbeitgeberzustimmung nicht einsetzen und müssen alle KI-Outputs vor Verwendung verifizieren.
  • Datenschutzverstöße durch KI-Nutzung können zu Bußgeldern bis 20 Millionen Euro oder vier Prozent des Jahresumsatzes führen.
  • Höchstrichterliche Rechtsprechung fehlt in Deutschland weitgehend, weshalb präventive Maßnahmen wie Richtlinien und Betriebsvereinbarungen unverzichtbar sind.
Mehr zum Thema Künstliche Intelligenz (KI)
Tobias Haar
Tobias Haar

Tobias Haar ist Rechtsanwalt mit Schwerpunkt IT-Recht bei Vogel & Partner in Karlsruhe. Er hat zudem Rechtsinformatik studiert und hält einen MBA.

Unternehmen und ihre Mitarbeiter bewegen sich damit in einem Rechtsraum erheblicher Unsicherheit. Die Beweislast für sorgfaltswidrige KI-Nutzung liegt beim Geschädigten, der oft kaum nachvollziehen kann, wie ein KI-Output zustande kam. Im Einzelfall können allerdings Beweislasterleichterungen greifen. Das ist etwa im Produkthaftungsrecht der Fall oder wenn man dem Arbeitgeber ein Organisationsverschulden vorhalten kann, er also seinen Organisationspflichten nicht nachgekommen ist. An dieser Stelle hätte auch die KI-Haftungsrichtlinie zu Erleichterungen zugunsten von Geschädigten führen sollen. Unternehmen sollten selbst aktiv werden, um Risiken aus der KI-Nutzung beherrschbar zu machen, und nicht abwarten, bis es auch hierzulande zu einschlägigen Gerichtsurteilen kommt.

Das war die Leseprobe unseres heise-Plus-Artikels "KI am Arbeitsplatz: Wer haftet für ChatGPT & Co.? ". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.