Business-KI mit wenig Trainingsaufwand: SAP kündigt SAP-RPT-1 an

SAPs relationale Foundation Models sollen Vorhersagen zu Geschäftsvorgängen ohne aufwendiges Training ermöglichen. Außerdem gibt es neue Agenten für SAP-Joule.

vorlesen Druckansicht 1 Kommentar lesen
SAP-Buchstaben an einem Glasgebäude

(Bild: Kittyfly/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Kaj-Sören Mossdorf
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Auf der SAP TechEd, die dieses Jahr sowohl in Berlin als auch virtuell stattfindet, hat der Softwarekonzern drei neuartige KI-Modelle für Unternehmen vorgestellt. Die SAP-RPT-1-Familie besteht aus zwei proprietären und einem Open-Source-Modell, das auf GitHub und Hugging Face zur Verfügung steht. Diese basieren dabei anders als Sprachmodelle wie ChatGPT nicht auf General-Purpose-Transformers, sondern auf Relational-Pretrained-Transformers.

Während erstere für lineare Text-Sequenzen optimiert sind, verstehen sich letztere besonders gut auf Datensätze in Tabellenform. Aus diesem Grund sollen sie sich im Speziellen für Geschäftsdaten eignen. Eine Forschungsgruppe der SAP hatte diesen Ansatz bereits im Juni auf der NeurIPS-Konferenz präsentiert.

Anders als bisherige Machine-Learning-Modelle, die für jedes Unternehmensszenario gesondert trainiert werden mussten, nutzt die neue Modell-Familie außerdem ein "In-Context-Learning" (ICL) genanntes Verfahren. Dr. Philipp Herzig, SAP CTO, vergleicht es in dem Blog-Eintrag zur Vorstellung mit einem Consultant, dem nur wenige Beispieldaten für korrekte Vorhersagen präsentiert werden müssen. Als Datengrundlage für das Open-Source-Modell dient dabei die "Tremendous TabLib Trawl"-Kollektion, kurz T4, die vergangenes Jahr veröffentlicht wurde. Aus dem vier Millionen Tabellen umfassenden Datensatz wurden drei Millionen Tabellen zum Finetuning verwendet.

In der Ankündigung hebt SAP die neue Modell-Familie für ihre Effizienz und – im Vergleich mit Large-Language-Modellen – geringe Fehlerquote hervor. Zur Evaluierung nutzten die Walldorfer Testszenarien, die den Herausforderungen der Kunden entsprechen sollen. Gerade im Bereich der Effizienz sollen sich die neuen Modelle besonders absetzen. Anders als LLMs würden sie für die gleiche Aufgabe einhunderttausendmal weniger Floating-Point-Operations (FLOPs) nutzen und trotzdem um den Faktor 50 schneller sein.

Interessierte können verschiedene Szenarien online ausprobieren. Das Unternehmen stellt dazu eine Umgebung bereit, in der entweder vordefinierte Beispiele ausprobiert werden können oder Vorhersagen für eigene Datensätze getroffen werden können. Der Datei-Upload im Portal ist dabei auf CSV-Dateien mit einer Größe von fünf Megabyte, beziehungsweise Tabellen mit 2073 Reihen und 50 Spalten begrenzt. Für Endkunden sollen die Modelle im laufenden Quartal über den Generative-AI-Hub der SAP-AI-Foundation zur Verfügung stehen.

Das Unternehmen kündigte außerdem eine Reihe neuer KI-Agenten für SAP Joule an. Dazu gehören neben einigen Lieferketten- und SAP-Ariba-Agenten auch weitere Helfer für SAP Concur. Beispielsweise gibt es nun einen Service, der Quittungen auf ihre Echtheit untersuchen kann. Erst vor Kurzem war bekannt geworden, dass Unternehmen immer häufiger gefälschte Belege in Spesenabrechnungen finden.

Auch weitere Cloud-Anwendungen erhalten Updates. Der Agent-Builder, mit dem Endkunden eigene KI-Agenten entwickeln können, war ursprünglich auf der SAP Sapphire Anfang 2025 angekündigt worden. Auf der TechEd kündigte das Unternehmen nun die generelle Verfügbarkeit bis Ende dieses Jahres an. Auch das Agent-To-Agent-Protocol soll dann unterstützt werden. In der AI-Foundation, sollen zudem Ende des Quartals neue LLMs für die ABAP-Entwicklung bereitstehen.

Videos by heise

Bereits jetzt stehen lokale Model-Context-Protocol-Server zur Verfügung, die den Zugriff auf SAP-spezifische Frameworks durch Code-Assistenten wie Cursor oder Windsurf ermöglichen. Interessierte finden in SAPs "Innovation-Guide" eine komplette Übersicht aller Ankündigungen.

Update

In einer früheren Fassung der Meldung wurde die "Tremendous TabLib Trawl"-Kollektion als Datengrundlage aller neu vorgestellten KI-Modelle bezeichnet. Tatsächlich ist sie aber nur die Grundlage des Open-Source-Modells. Wir haben die Formulierung korrigiert und bitten den Fehler zu entschuldigen.

(axk)