ServiceNow will zur KI-Schaltzentrale fĂĽr Unternehmen werden
Klassisches IT-Service-Management ist nicht genug: Anbieter ServiceNow will sich neu erfinden und Firmen ein ganzes Ă–kosystem vernetzter KI-Systeme bieten.
(Bild: Jonas Härtfelder)
- Prof. Jonas Härtfelder
Im Mittelpunkt der diesjährigen Hauskonferenz Knowledge 2025 präsentierte ServiceNow eine strategische Neuausrichtung seiner Plattform: Aus der bisherigen "ServiceNow Platform" wird nun die "ServiceNow AI Platform". Sie soll künstliche Intelligenz, Daten sowie Workflows im gesamten Unternehmen vereinen. Ziel ist es, eine zentrale Plattform für produktive und skalierbare KI-Anwendungen zu schaffen. So will man sich eine Schlüsselposition im Wettbewerb um Unternehmens-KI sichern.
Im Kern der überarbeiteten Plattform stehen sogenannte "ready-to-work"-KI-Agenten. Diese autonom agierenden Software-Agenten gehen deutlich über herkömmliche virtuelle Assistenten hinaus: Sie sollen als eigenständige Teammitglieder Aufgaben übernehmen, Entscheidungsprozesse vorbereiten und Abläufe beschleunigen – und dies über sämtliche Systeme, Funktionen und Abteilungen hinweg.
Dabei betont ServiceNow ausdrücklich die Bedeutung einer durchgängigen Integration. KI-Agenten würden nicht isoliert arbeiten, sondern auf einer einheitlichen Plattform basieren, was in Live-Demonstrationen mit VISA, Google und Microsoft verdeutlicht wurde.
Kontrollturm fĂĽr KI
Mit der Zunahme autonomer Agenten – sei es über das eigene AI Agent Studio oder Drittanbieter – wächst gleichzeitig der Bedarf an zentraler Verwaltung und Kontrolle. Hier setzt ServiceNow mit dem neu vorgestellten AI Control Tower an. Diese zentrale Verwaltungsinstanz soll alle eingesetzten KI-Agenten überwachen und deren Aktivitäten und Ergebnisse dokumentieren. Das soll sicherstellen, dass Sicherheits- und Compliance-Standards eingehalten werden und Menschen die Kontrolle behalten.
Zusätzlich wurde mit der AI Agent Fabric eine weitere Schlüsselkomponente vorgestellt. Diese Kommunikationsschicht ermöglicht die Zusammenarbeit zwischen KI-Agenten innerhalb komplexer IT-Umgebungen. Unterstützt werden KI-Agent-zu-KI-Agent, KI-Agent-zu-Tool und sogar agentenübergreifende Systemkommunikation. Dabei setzt ServiceNow auf offene Protokolle wie das von Anthropic entwickelte Model Context Protocol (MCP) sowie das von Google eingeführte Agent2Agent-Protokoll (A2A), mit dem eine dynamische und echtzeitbasierte Informationsübermittlung möglich sein soll.
Videos by heise
Nemotron-15B fĂĽr Unternehmen
Ebenfalls wichtiger Gegenstand bei ServiceNows Hauskonferenz: eine vertiefte Partnerschaft mit Nvidia, vorgestellt von Nvidia-Chef Jensen Huang. Gemeinsam entwickelten die beiden Unternehmen das Sprachmodell Nemotron-15B – ein leistungsfähiges, Open-Source-basiertes Large Language Model (LLM), das speziell für den Einsatz in Unternehmen optimiert wurde. Die beiden Partner versprechen für Nemotron-15B niedrige Latenz, reduzierte Inferenzkosten und schnelle Reaktionszeiten. Trainiert wurde das Modell auf Nvidia NeMo mit branchenspezifischen ServiceNow-Daten. Im produktiven Einsatz wird Nemotron-15B über Nvidia Inference Microservices (NIM) angeboten und skaliert in GPU-optimierten Cloud-Umgebungen.
Mit der Transformation zur ServiceNow AI Platform vollzieht der Anbieter, ursprünglich bekannt für klassisches IT-Service-Management, eine deutliche Kehrtwende: ServiceNow hängt sich damit an das derzeitige Momentum der künstlichen Intelligenz, um Unternehmen ein ganzes Ökosystem vernetzter KI-Systeme zur Verfügung zu stellen. Das geht weit über das bisherige Portfolio bei Automatisierung und Workflow-Verwaltung hinaus. Ob ServiceNow damit tatsächlich neue Standards im Bereich Enterprise-KI setzt, dürfte sich in den kommenden Monaten zeigen. Der Kurs in Richtung KI-Zukunft ist jedenfalls klar abgesteckt.
(axk)