Agentic AI: Warum sich die Business-Hoffnungen kaum erfüllen
Die Anbieter für KI-Agenten zitieren gern Erfolgsgeschichten für deren Einsatz in Unternehmen. Doch dabei fehlen zentrale Aspekte, analysiert Harald Weiss.
(Bild: Anggalih Prasetya/Shutterstock.com / Bearbeitung heise medien)
- Harald Weiss
Wenn außerhalb der IT-Abteilung über KI-Agenten gesprochen wird, geht es um geringere Kosten, größere Effizienz und Personaleinsparungen. Prominente Beispiele liefern dafür die Schlagzeilen: Salesforce konnte sein Kundenservice-Team mithilfe von KI-Agenten von 9.000 auf 5.000 Mitarbeiter reduzieren. Inzwischen haben deren digitale Agenten über 1,5 Millionen Kundengespräche geführt. Das erweckt den Eindruck, dass KI-Agenten vor allem Mitarbeiter ersetzen – womit sich deren Einsatz in kürzester Zeit amortisiert.
Folglich ist Agentic AI bei vielen Unternehmen schon zur Chefsache aufgestiegen, um damit ein Maximum an Business-Vorteilen zu erzielen. Geld spielt dabei kaum eine Rolle: Laut Deloitte erhöhen 67 Prozent der Unternehmen ihre GenAI-Investitionen, 78 Prozent planen weitere KI-Investitionen im kommenden Geschäftsjahr. Die Erwartungen an diese Investitionen sind eindeutig: Wenn ein System eigenständig Tickets schließt, Dispositionen anpasst oder Workflows orchestriert, muss sich das in sinkenden Kosten niederschlagen. Doch das scheint nicht unbedingt der Fall zu sein. In einer aktuellen PwC-Umfrage sagen 56 Prozent der CEOs, dass ihr Unternehmen bislang weder Umsatz- noch Kostenvorteile aus AI realisiert haben; nur 12 Prozent berichten, dass beides erreicht wurde.
Agentic AI ist keine klassische Automatisierung
Die Ursachen für den schwachen Business-Erfolg sind systembedingt. Die Annahme einer automatischen Kosteneinsparung basiert auf den Erfahrungen von klassischer Workflow-Automatisierung, die einem linearen Muster folgt: Ein stabiler Prozess wird digitalisiert und damit entfällt ein manueller Schritt. Der Effekt ist direkt messbar; Aufwand und Nutzen lassen sich klar zuordnen.
Agentic AI funktioniert anders. Hier wird Entscheidungslogik an ein probabilistisches System delegiert, das Tool-Use, Kontextzustände und dynamische Datenquellen kombiniert. Der Aufwand skaliert nicht mit der Anzahl der Tasks, sondern mit der Komplexität des Entscheidungsraums. Jede zusätzliche Tool-Integration erhöht die Anzahl möglicher Systemzustände. Mit jeder Autonomiestufe wächst der Entscheidungsraum kombinatorisch – und damit der Test- und Absicherungsaufwand. Agentic AI verhält sich nicht wie klassische Prozessautomatisierung, sondern wie ein dauerhaft zu betreibendes verteiltes System mit nicht-deterministischem Kern.
Die Zahlen spiegeln das wider. Laut Deloitte amortisieren sich KI-Projekte häufig erst nach zwei bis vier Jahren; nur sechs Prozent berichten von einem Return on Investment (ROI) innerhalb eines Jahres. Bei agentenbasierten Systemen sehen lediglich zehn Prozent einen signifikanten ROI.
Die unterschätzten Aufwendungen
Bei der Planung eines produktiven Einsatzes von KI-Agenten steht zuerst das Modell im Mittelpunkt: Ein leistungsfähiges LLM, bessere Reasoning-Fähigkeiten, weniger menschliche Eingriffe. Doch das ist das kleinste Problem, denn ein produktiver KI-Agent ist kein Modell, sondern ein Orchestrierungs-Stack von LLM, Tool-Use, State-Management, Memory, Policy-Layer, Logging, Monitoring und vieles mehr. Da ein Agent nicht nur liest, sondern auch „schreibt“ – also Tickets schließt, Bestellungen auslöst oder Systemparameter ändert – wird die Transaktionssicherheit zum kritischen Faktor.
Besonders schwierig ist es, die vielen zusätzlichen Aufwendungen einem KI-Agenten zuzuordnen. Dazu gehört beispielsweise die Datenintegration: Agenten benötigen konsistente, kontextreiche Informationen. In der Praxis sind diese über ERP-, CRM-, MES- oder proprietäre Systeme verteilt. Semantische Inkonsistenzen, fehlende Identifikatoren und unterschiedliche Zeitbezüge machen „Context Stitching“ zu einem eigenständigen Projekt. Retrieval-Pipelines, Embeddings, Zugriffskontrollen und Caching müssen aufgebaut und gepflegt werden.
Videos by heise
Die Inferenzkosten sind dabei oft der kleinste Teil. Ein weiterer Posten ist die Schnittstellenlogik: Tool-Calls erweitern die Fehleroberfläche. Idempotenz, Rollback-Strategien, Timeouts und Race Conditions werden zu realen Betriebsrisiken. Jede weitere Integration erhöht die Zustandskomplexität des Gesamtsystems, die ausreichend getestet werden muss.
Und letztlich gibt es nicht nur Personaleinsparungen, denn bei autonomen Systemen verschiebt sich ein Teil der Arbeit: Die Agenten müssen überwacht werden, Tool-Calls müssen geloggt werden, Entscheidungen müssen nachvollziehbar sein und Grenzfälle sind zu analysieren. Observability ist hier keine Option, sondern eine zwingende Voraussetzung. Drift, Regressionen und Versionskonflikte zwischen Modell, Prompt und Tooling sind dabei keine Ausnahmen.
Kostenblock: Absicherungsaufwand
Das alles bedeutet: Mit wachsender Autonomie steigt der Absicherungsaufwand: Guardrails, Policy-Engines, Zugriffsbeschränkungen und Fallback-Mechanismen müssen implementiert und gepflegt werden. Human-in-the-Loop wird häufig durch Human-on-Call ersetzt – Menschen greifen nicht mehr regulär ein, müssen aber bereitstehen, wenn das System aus dem Ruder läuft. Die Token-Kosten lassen sich zwar gut kalkulieren, doch die laufenden Kosten für Monitoring, Incident-Handling, Compliance-Prüfungen und Systempflege werden in den Business Cases regelmäßig unterschätzt.
Agentic AI hat einen beachtlichen Reifegrad erreicht: Die Modelle funktionieren, Tool-Use und Orchestrierung sind lösbar. Nicht trivial ist jedoch die Wirtschaftlichkeit. Je agentischer ein System wird – also je mehr es eigenständig entscheidet und ausführt – desto stärker verhält es sich wie ein komplexes verteiltes System mit nicht-deterministischem Kern. Integration, Absicherung und Betrieb dominieren dann die Kostenstruktur. Der ROI scheitert also selten an der Inferenzleistung, sondern an der Annahme, die Autonomie eines KI-Agenten sei gleichbedeutend mit klassischer Workflow-Automatisierung.
(axk)