Bundesagentur für Arbeit kommt bei Automatisierungsoffensive voran

Hunderttausende Stellenangebote wandern bei der Arbeitsbehörde dank KI direkt ins Vermittlungssystem, Studienbescheinigungen werden nicht mehr händisch geprüft.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen

Sven Schütt (IU), Moderator Rafael Bujotzek, Diana Knodel, Axel Domeyer (McKinsey) & Markus Schmitz

(Bild: Stefan Krempl)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Die von der Chefin der Bundesagentur für Arbeit (BA), Andrea Nahles, vor einem Jahr ausgerufene Automatisierungsoffensive macht Fortschritte. Mit Maschinenlernen sei die Nürnberger Behörde mittlerweile in der Lage, mehrere hunderttausend Stellenangebote ohne menschliches Zutun ins Vermittlungssystem "reinzusaugen", erklärte Markus Schmitz, Chief Information Officer (CIO) bei der BA, am Donnerstag bei einem Forum zu Künstlicher Intelligenz (KI) in Bildung und Arbeitswelt der IU Internationalen Hochschule (IU) in Berlin.

Dank der Technik sei das Amt zugleich in der Lage, Lösungen fürs hauseigene "Matching" von Angebot und Nachfrage sowie einen Abgleich von Arbeitsplatzanforderungen und Kompetenzen zu generieren. Einige hochelaborierte Arbeitgeber lieferten die benötigten Informationen zwar ohnehin schon passgenau digital. Vor allem Mittelständler "schieben uns unstrukturierte Daten rüber", klagte Schmitz aber auch. Die eigenen Mitarbeiter seien es jedoch leid, Stellenofferten ins System zu hacken. Die KI sei daher auf diesem Gebiet eine willkommene Hilfe. Weitgehend automatisiert habe die BA zudem die Bearbeitung von Anträgen zur Verlängerung von Kindergeld für Leute im Studium. Hier prüften KI-Lösungen inzwischen, ob eine vorgelegte Studienbescheinigung echt sei. Das sei gar nicht so einfach, da es hierzulande rund 500 Hochschulen gebe und es keine standardisierten Studiennachweise gebe.

Ferner habe die BA im Bereich Cybersecurity "Sachen im Einsatz, die ohne KI nicht denkbar wären", berichtete der Manager. Die Behörde sei ein "attraktives Angriffsziel". Ohne KI-getriebene Sicherheitsprogramme wäre sie daher "schon oft in Schlagzeilen gewesen". Die KI helfe etwa bei präventiven Auffälligkeitsanalysen. Ein großes Thema seien zudem die internen Dokumentationserfordernisse, die sich etwa über Spracherkennung KI-basiert nachkommen lasse. Insgesamt helfe Künstliche Intelligenz banal gesagt dabei, "dass wir effizienter und qualitätsvoller werden".

Im Herbst hatte die BA auf dem "Human Friendly Automation Day" bereits ein ausgefeiltes Filterprogramm für eingehende E-Mails vorgestellt. Mit neuen Systemen wie ChatGPT wird Schmitz zufolge auch eine "gezielte Lernbegleitung" denkbar. Gefragt seien individuelle Prognosen und Empfehlungen etwa für die Weiterbildung, nachdem ein schneller Vermittlungsprozess – anders als in Zeiten der Massenarbeitslosigkeit 2005 – nicht mehr in jedem Fall gefragt sei. Nun müsse es hingehen zu "Maßkonfektion" und dem Erkennen von Trends bei den Fähigkeiten von Arbeitssuchenden. Welche "Skills" gefragt seien, könne die BA aus den offenen Stellen am Markt sehen.

Um nicht wie die "österreichischen Kollegen" wegen Diskriminierung vor Gericht zu landen, hat sich die BA eine eigene KI-Strategie sowie eine "datenethische Leitlinie" gegeben, führte der IT-Experte aus. Der Mensch stehe dabei im Mittelpunkt und müsse von der Maschine vorbereitete Entscheidungen am Ende absegnen. Die Privatsphäre der Betroffenen sei zu schützen. "Wir bringen jeden Anwendungsfall in eine Risikomatrix", gab Schmitz ein Beispiel. Darin seien Maßnahmen zum Abschwächen potenzieller Gefährdungen vorgezeichnet. Ein Ziel sei es, Voreingenommenheit nicht in Algorithmen einzubauen. Ein solcher "Bias" könnte sich etwa schon einschleichen, wenn bestimmte Förderprogramme aus den vergangenen Jahren einfach fortgesetzt würden.

Systeme generativer KI, die neue Texte, Bilder, Musik oder Videos auf Basis vorhandener, oft geschützter Werke und damit trainierter grundlegender Modelle generieren, lösen laut Schmitz auch im öffentlichen Sektor die Angst aus: "Braucht man mich noch?" Für die BA und andere Behörden gelte hier: "Niemand wird gekündigt aufgrund von KI und Automatisierung." Generell seien Betriebe angesichts des Fachkräftemangels und eines drohenden altersbedingten Verlusts von 40 Prozent des Personals in der öffentlichen Verwaltung bestrebt, Fähigkeiten an Bord zu halten. Weiterbildung sollte aber immer gleich mitgedacht werden. Den CIO selbst treibt eher die Sorge um, dass die BA mit der geplanten europäischen KI-Verordnung als "Hochrisiko-Gebiet" eingestuft wird: "Das würde uns Dekaden zurückwerfen." Die Agentur würde auch "lieber in der Cloud arbeiten", dürfe das aber nicht, verweist Schmitz auf das Schrems-II-Urteil des Europäischen Gerichtshofs (EuGH). Dabei geht es aber allein um den Transfer persönlicher Daten aus der EU in die USA, der allenfalls US-Hyperscaler wie AWS, Microsoft und Google betrifft.

Von generativer KI seien Wissensarbeiter erstmals stärker betroffen als Handwerker und ungelernte Fachkräfte, hob IU-Chef Sven Schütt hervor. Jedes Lernangebot sollte daher KI beinhalten. Die Erfurter Hochschule selbst führe gerade Wahlmodule "für alle unsere Studiengänge" ein. ChatGPT & Co. ließen sich nutzen, um Lernen für die Studierenden deutlich besser und Bildung auf hohem Qualitätsniveau zugänglicher zu machen.

Generative KI habe besonders große, überwiegend positive Auswirkungen auf den Bildungssektor, bestätigte Andrew Goodman vom Beratungshaus McKinsey & Company. Es bringe nichts, den Einsatz solcher Systeme an Schulen zu verbieten. Vielmehr sollten Lehrer Hinweise zu deren Nutzung geben und KI-Basiskenntnisse vermitteln. Das sei auch an den späteren Arbeitsplätzen gefragt. Dozenten werde die Technik nicht ersetzen, aber deren Produktivität vergrößern.

Von einem Run auf Nachhilfekurse rund um ChatGPT berichtete Diana Knodel, Mitgründerin von Fobizz, einer Online-Trainingsplattform für Lehrer und Schulen. In wenigen Monaten hätten Pädagogen dort über 50.000 Fortbildungen absolviert. In vielen Bundesländern sei der Wunsch erkennbar, generative KI auf den Lehrplan zu hieven und prinzipiell auch anzuwenden, auch wenn ChatGPT aus Datenschutzgründen derzeit nicht im Unterricht direkt verwendet werde. Lehrer könnten es aber etwa für Korrekturen nutzen. Mittelfristig sei zu klären, welche Prüfungsformate überhaupt noch sinnvoll seien und welche Kompetenzen vermittelt werden müssen.

Mehr zu IT-Jobs und Gehältern:

(kbe)