IT-Recht: Rechtskonformer Einsatz von KI-Agenten
Beim Einsatz von KI-Agenten bestehen komplexe und noch ungeklärte Haftungsfragen. Parallel greifen Gesetze wie der AI Act, das Urheber- und Datenschutzrecht.
(Bild: Vanessa Bahr / iX)
- Tobias Haar
KI-Agenten erzeugen nicht nur Code, sondern können eigenständig Ziele definieren, Werkzeuge ansteuern und Entscheidungen treffen. Während frühe Systeme lediglich Vorschläge machten oder auf menschlich kontrollierte Funktionen beschränkt blieben, bewegen sich moderne KI-Agenten zunehmend in Richtung eigenständiger Softwareentwicklungsprozesse. Sie analysieren etwa Fehlermeldungen, starten CI/CD-Pipelines oder nehmen Änderungen in Repositorys vor.
Diese Selbstständigkeit stellt das auf menschliche Entscheidungen ausgerichtete Rechtssystem vor Herausforderungen. Aus IT-rechtlicher Sicht rücken die Fragen der Haftung, der Verantwortlichkeit und der Compliance in den Vordergrund. Das gilt gleichermaßen für alle Verwendungszwecke von KI-Agenten und ist nicht auf die Softwareentwicklung beschränkt. Wichtig dabei ist, dass es keine (juristische) Definition des Begriffs "KI-Agent" gibt. Die juristischen Anforderungen müssen Unternehmen daher stets am konkreten Einzelfall bemessen und erfüllen.
- Autonome KI-Agenten versprechen erhöhte Effizienz in der Softwareentwicklung, verschärfen aber Haftungs-, Verantwortlichkeits- und Compliancefragen mangels klarer Rechtsdefinition.
- Der AI Act verlangt risikobasierte Einstufung, kontinuierliche Überwachung und wirksame menschliche Aufsicht, weil sich das Risikoprofil autonomer KI-Agenten im Betrieb ändern kann.
- Durch Modifikationen, Rebranding oder Zweckänderung können Betreiber rechtlich zu Anbietern werden und müssen dann erweiterte rechtliche Anforderungen erfüllen.
- Der rechtssichere Einsatz erfordert klar definierte Use Cases, Rollen- und Rechtekonzepte, Notfallmechanismen sowie die Beachtung von AI Act, DSGVO, Produkthaftungsgesetzen und branchenspezifischen Vorgaben.
Der europäische AI Act verfolgt einen risikobasierten Ansatz, der jedoch bei dynamischen KI-Agenten an Grenzen stößt, da sich deren Risikoprofil im laufenden Betrieb verändern kann, wenn sich ihr Einsatzbereich vergrößert. Gerade bei der Softwareentwicklung kann ein zunächst unkritischer Assistenzagent etwa durch automatisierte Auswahl von Libraries oder eigenständige Änderungen an Build-Konfigurationen in sicherheitsrelevante Prozesse eingreifen.
Das war die Leseprobe unseres heise-Plus-Artikels "IT-Recht: Rechtskonformer Einsatz von KI-Agenten". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.