Studie: Bundesverwaltung soll bei generativer KI auf Eigenentwicklungen setzen

Bundesbehörden können laut einer Fraunhofer-Analyse bei großen Sprachmodellen viele austauschbare, Open-Source-basierte Lösungen jenseits von ChatGPT nutzen.

vorlesen Druckansicht 12 Kommentare lesen
Die Buchstaben KI, eine Waage und Warndreiecke schweben vor einem Laptop.

(Bild: song_about_summer/Shutterstock.com)

Lesezeit: 4 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Die dynamische Entwicklung generativer Künstlicher Intelligenz (KI), die vor allem die großen Sprachmodelle (LLMs) hinter ChatGPT, Gemini oder Claude verdeutlichen, stellt Staaten und Verwaltungen weltweit vor eine wichtige strategische Frage: Wie lassen sich solche Instrumente zur Textgenerierung, Wissenserschließung und Prozessunterstützung gezielt verwenden, ohne dabei die digitale Souveränität zu opfern?

Leistungsfähige moderne LLMs benötigen riesige Datenmengen, teure Hardware und viel Energie – Ressourcen, die heute primär von wenigen, zumeist außereuropäischen Tech-Giganten kontrolliert werden. Für den Staat ist es deshalb laut Experten entscheidend, sich Handlungsfähigkeit, Transparenz und Kontrolle über diese Schlüsseltechnologie zu verschaffen.

Das Kompetenzzentrum Öffentliche IT (Öfit) am Fraunhofer-Institut Fokus hat in einer jetzt veröffentlichten, vom Bundesinnenministerium geförderten Studie die LLM-basierten Systeme der Bundesverwaltung daraufhin untersucht, wie unabhängig sie aufgestellt sind. Digitale Souveränität bedeutet demnach, dass Deutschland zusammen mit Europa zentrale digitale Infrastrukturen, Daten und Rechnerinfrastrukturen eigenständig, sicher und nach individuellen Regeln gestalten und betreiben kann.

Die Analyse der LLM-Projekte erfolgte entlang von drei strategischen Zielen, die sich aus der Digitalpolitik des Bundes ableiten lassen: die Wechselmöglichkeit, also die faktische Verfügbarkeit alternativer Lösungen und die Austauschbarkeit von Systemkomponenten. Die Forscher blickten ferner auf die Gestaltungsfähigkeit, die etwa die eigenen technischen und organisatorischen Kompetenzen zur Bewertung, zum Betrieb und zur Weiterentwicklung von Systemen umfasst. Zudem fokussierten sie sich auf den Einfluss auf Anbieter, der durch Markt- und Verhandlungsmacht, etwa bei der Beschaffung, gewährleistet wird.

Die gute Nachricht der Studie lautet: Im Bereich der LLMs konnte im Gegensatz zu früher festgestellten "Schmerzpunkten" bei Bürosoftware oder Datenbankprodukten keine kritische singuläre Abhängigkeit von einem einzelnen Großkonzern festgestellt werden. Die Bundesverwaltung hat es demnach geschafft, für viele typische Anwendungsfälle LLM-basierter Systeme Eigenentwicklungen aufzubauen. Dadurch muss für einen Großteil der alltäglichen Aufgaben nicht zwingend auf die Produkte großer, oft nicht-europäischer Konzerne zurückgegriffen werden. Das mindert das Risiko von vornherein, in neue Interdependenzen gegenüber Dritten zu geraten.

Die Risiken für die staatliche Handlungsfähigkeit sind den Wissenschaftlern zufolge aus heutiger Sicht überschaubar, da die entwickelten Lösungen derzeit ausschließlich der Arbeitsunterstützung für Verwaltungsmitarbeitende dienen. Ein Ausfall würde die staatliche Handlungsfähigkeit nicht unmittelbar gefährden. Technisch gesehen trägt zur Souveränität bei, dass die LLMs meist auf eigener Hardware laufen und bei Bedarf mit geringem bis mittlerem Aufwand ausgetauscht werden können.

Auf der Ebene der Sprachmodelle selbst setzt die Bundesverwaltung mehrheitlich auf nicht-europäische Open-Source-Modelle, die in verwaltungsinterner Infrastruktur betrieben werden. Das stärkt laut der Untersuchung zwar die Wechselmöglichkeit, da die LLMs auf eigener Infrastruktur gehostet und bei Bedarf ersetzt werden können. Es verbleibe jedoch eine strategische Lücke: Angesichts des sich wandelnden Open-Source-Verständnisses im KI-Kontext empfehlen die Autoren dringend zu prüfen, ob die Entwicklung eines eigenen, offen bereitgestellten europäischen LLMs anzustreben sei. Ziel müsse es sein, eine dauerhafte Unabhängigkeit von marktbeherrschenden LLM-Anbietern zu erreichen und die Modelle auf einer eigenständigen europäischen Werte- und Normenbasis zu verankern.

Einschlägige LLM-Projekte bei Behörden sehen sich zudem mit Hürden konfrontiert, die weiteres Wachstum und Nachnutzbarkeit behindern. Dazu gehören laut der Studie als zu kompliziert wahrgenommene rechtliche KI-Vorschriften, die Entwicklungen verzögern und umfassende juristische Kompetenzen in den Ämtern erfordern. Diese Unsicherheiten und die teils als gering eingestufte rechtliche Kompetenz schränkten die Veröffentlichung der Entwicklungen als Open Source ein, heißt es. Ferner äußerten befragte Projektverantwortliche mehrfach den Wunsch nach einer KI-spezifischen Cloud-Infrastruktur, die mit entsprechend geschultem Personal ausgestattet ist, um den Betrieb zu vereinfachen.

Videos by heise

Die Studie enthält diverse Handlungsempfehlungen, um die digitale Souveränität nachhaltig zu sichern. Dazu zählen der Ausbau gemeinsamer LLM-Infrastrukturen über Ressortgrenzen hinweg und die Stärkung von Open-Source-Ansätzen. Zudem sollen einheitliche rechtliche Leitplanken etabliert werden etwa durch einen verpflichtenden "Souveränitätscheck" für kritische LLM-Projekte. Die Beschaffung sei über föderale Ebenen hinweg zu bündeln um Kriterien zur digitalen Souveränität durchzusetzen und die Verhandlungsmacht gegenüber großen Anbietern zu stärken. Bundesdigitalminister Karsten Wildberger (CDU) wertet die Ergebnisse als Bestätigung, "dass wir bereits auf dem richtigen Weg sind, ein solides Fundament für unabhängige KI‑Lösungen in der Bundesverwaltung" zu schaffen.

(nie)