Agentic AIOps: KI-Agenten in kritischen Infrastrukturen

KRITIS fordert Determinismus, KI bietet Wahrscheinlichkeit. Die Lösung: Eine Architektur, die Agenten-Aktionen in auditierbare Einzelschritte zerlegt.

Artikel verschenken
vorlesen Druckansicht
, Vanessa Bahr / KI / iX

(Bild: Vanessa Bahr / KI / iX)

Lesezeit: 25 Min.
Von
  • Cornelius May
  • Eldar Sultanow
Inhaltsverzeichnis

Kann man KI-Agenten wirklich in kritischen Infrastrukturen einsetzen? Agentische Systeme erweitern klassische Automatisierung um probabilistische Entscheidungsfindung und erkennen so Störungen, können sie analysieren und beheben, noch bevor ein Mensch alarmiert wird. Weil sie aber auf Wahrscheinlichkeiten beruhen, kollidiert die Technik mit den deterministischen Anforderungen an KRITIS-Systeme. Am Beispiel eines durchgängigen Incident-Response-Szenarios lässt sich dennoch eine Referenzarchitektur entwickeln, die LLM-basierte Agenten on Premises so einbettet, dass jede Entscheidung nachvollziehbar, jede Aktion auditierbar und jeder Abbruch dokumentiert bleibt.

Die Einführung agentischer KI in den IT-Betrieb bringt eine probabilistische Entscheidungskomponente an die Stelle, die bisher deterministischen Skripten vorbehalten war: Statt fester Regeln – wenn CPU-Last > 90 Prozent, dann skaliere – analysieren LLM-gestützte Agenten komplexe Fehlerbilder, extrahieren Kontext aus Dokumentation und entwickeln dynamische Lösungsstrategien. Für KRITIS-Betreiber ist das zwar eine Chance, mit dem Fachkräftemangel und der steigenden Bedrohungskomplexität mitzuhalten, gleichzeitig entsteht aber ein neues Risikoprofil.

iX-tract
  • KI-Agenten können Incidents in KRITIS-Umgebungen autonom erkennen, aber nur mit strikten Policy-Gates, auditierbaren Entscheidungspfaden und einer menschlichen Freigabe fĂĽr kritische Aktionen.
  • In einer Referenzarchitektur muss jede Aktion eines Agenten mit Run-ID, Modell-Digest und Policy-Hash lĂĽckenlos belegbar sein.
  • Die Anforderungen lassen sich mit einer LangGraph-Orchestrierung realisieren, die dank OPA-Policy-Enforcement und WORM-Audit-Trails jede Entscheidung mit ĂĽberprĂĽfbaren Artefakten versieht. So lässt sich ein Vorfall lĂĽckenlos rekonstruieren.
Mehr zu IT-Security
Cornelius May
Cornelius May

Cornelius May arbeitet als DevOps Engineer bei einem global agierenden Beratungs- und Technologiekonzern. Er konzipiert cloud-native Infrastrukturen und skalierbare ML-Plattformen in Umgebungen mit hohen Anforderungen an VerfĂĽgbarkeit, Sicherheit und Compliance

Eldar Sultanow

Eldar Sultanow ist IT-Stratege bei Capgemini mit Schwerpunkt auf moderner Softwarearchitektur und Gutachter fĂĽr das Deutsche Zentrum fĂĽr Luft- und Raumfahrt.

Dabei gehen drei verschiedene Regulierungen auf den Einsatz von KI-Systemen ein, die sich gleichzeitig auch als Architekturanforderungen verstehen lassen: Die NIS2-Richtlinie verlangt nachweisbares Risikomanagement und dokumentierte Betriebsprozesse – als Teil der Sicherheitsorganisation unterliegt ein Agent, der bei der Incident Response Logdaten bewertet und Gegenmaßnahmen anstößt, denselben Anforderungen wie andere sicherheitsrelevante Systeme. Der EU AI Act klassifiziert KI-Systeme, die als Sicherheitskomponenten in KRITIS fungieren, potenziell als Hochrisiko-KI, die menschliche Aufsicht (Artikel 14) und automatische Protokollierung über den gesamten Lebenszyklus (Artikel 12) erfordert. Das BSI konkretisiert diese Vorgaben in der Orientierungshilfe für Systeme zur Angriffserkennung (OH SzA) und im AIC4-Kriterienkatalog.

Das war die Leseprobe unseres heise-Plus-Artikels "Agentic AIOps: KI-Agenten in kritischen Infrastrukturen". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.