CIO der Arbeitsagentur: "Wir haben uns eine eigene KI-Strategie gegeben"

Markus Schmitz, bis August CIO der Bundesagentur für Arbeit, über KI, Chatbots und Prozessautomatisierung bei der Bundesagentur für Arbeit.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen

(Bild: nitpicker/Shutterstock.com)

Lesezeit: 9 Min.
Inhaltsverzeichnis

Bei ihrem Amtsantritt 2022 hat die neue Chefin der Bundesagentur für Arbeit (BA), Andrea Nahles, eine Automatisierungsoffensive angekündigt. Markus Schmitz, der bis August Chief Information Officer (CIO) der BA war, erklärt, wie und wo die Behörde Künstliche Intelligenz einsetzt.

Herr Schmitz, eines der wenigen Beispiele für den KI-Einsatz bei der BA, die ich gefunden habe, ist die Überprüfung der Echtheit von Studienbescheinigungen. Wozu braucht man da KI?

Wir sehen, dass wir mit KI Dinge automatisieren können, an die wir a) bisher gar nicht gedacht haben – Stichwort: neue Arbeitsweisen –, oder die b) durch Automatisierung von Prozessen eine echte Unterstützung unserer Mitarbeitenden darstellen. Und deshalb ist das Thema Kindergeld ein sehr schönes Beispiel. Wenn ein Antrag auf Weiterbewilligung von Kindergeld gestellt wird und das Kind studiert, brauchen wir einen Nachweis über das Studium. Jede Universität hat eine andere Studienbescheinigung. Und in rund 150.000 Fällen pro Jahr müssen unsere Mitarbeiter entscheiden, ob das eine echte Studienbescheinigung ist. Wir bringen also ein Klassifikationsmodell zum Einsatz, das wir mit Studienbescheinigungen von allen 422 akkreditierten Hochschulen in Deutschland trainiert haben.

Im Moment definieren wir dann noch manuell, ab welcher Wahrscheinlichkeit wir die Empfehlung aussprechen, dass die Bescheinigung aus unserer Sicht nachvollziehbar authentisch ist. Wir könnten das Ganze auch "dunkel", also vollautomatisch, behandeln. Wir warten aber noch auf eine Ausnahmegenehmigung, weil das Bundeskassenrecht keine Vollautomatisierung bei der Leistungsbewilligung kennt.

Markus Schmitz ist Chief Information Officer (CIO) der Bundesagentur für Arbeit.

(Bild: Daniel Karmann / BA)

Für eine Vollautomatisierung ist es sicher am einfachsten, wenn es klare Entscheidungen gibt, ohne Ermessensspielraum. Aber wo gibt es denn kein Ermessen?

Das ist ein Thema, das mir sehr am Herzen liegt. Weil wir immer mehr in genau solche Entscheidungen und Fragestellungen hineingehen, haben wir uns eine eigene KI-Strategie gegeben, mit eigenen datenethischen Grundsätzen. Wir geben jeden Anwendungsfall in eine Risikomatrix ein. Dann schauen wir, wie kritisch, wie komplex ist das Ganze, welche Risiken ergeben sich daraus, wenn wir so etwas mit KI hinterlegen?

Ich gebe Ihnen ein Beispiel: unsere Reisekostenabrechnung. Wir haben unglaublich viele Reisen, weil natürlich die Berufsberaterinnen in die Schulen fahren. Viele davon sind einfach. Da steckt eine klare Logik dahinter: Wie viel Kilometergeld gibt es? Wie viel Verpflegungskosten und so weiter. Und da haben wir jetzt auch eine Lösung in unserem SAP-Workflow, das ist ganz klassisch automatisiert, da ist keine KI beteiligt.

70 Prozent unserer Reisekostenabrechnungsprozesse könnten wir damit "dunkel" abwickeln und dafür haben wir jetzt auch einen Ausnahmeantrag gestellt. Dort, wo wir komplexe Reisekonstellationen haben, weil es Auslandsdienstreisen sind oder Ähnliches, würden wir jetzt nicht in die Dunkelverarbeitung geben.

Und das Gleiche gilt, wenn wir jetzt einen neuen Anwendungsfall haben. Wir denken zum Beispiel gerade über einen Voice Bot für unsere Call-Center nach. Mir ist es wichtig, dass wir das am Anfang machen und nicht in irgendeine Lösung hineinstolpern und sagen, okay, dafür gibt es eine technische Lösung, Speech to Text, Text to Speech – wir nehmen die Standardlösung vom Markt.

Und wenn wir dann zu dem Ergebnis kommen – und das kann ich jetzt nicht in einer Prozentzahl ausdrücken – das ist im Moment eigentlich noch nicht geeignet für eine KI-gestützte Lösung, dann machen wir das im Zweifelsfall auch nicht. Und wir haben viele Themen. Spracherkennung in der Dokumentation ist ein großes Thema. Chatbots sind ein großes Thema im Call-Center-Umfeld.

Dieser Text stammt aus MIT Technology Review 6/2023

ChatGPT und Co. stellen infrage, inwiefern die klassische Wissensvermittlung im Klassenzimmer noch sinnvoll ist, wenn eine KI in Zukunft nahezu alles Wissen der Welt innerhalb von Sekunden in geforderter Form liefert. Wie kann Schule darauf reagieren? Dieser Frage geht die neue Ausgabe von MIT Technology Review nach. Highlights aus dem Heft:

Chatbots sind bei Ihnen teilweise schon im Einsatz, aber mein erster Eindruck war, dass das nichts mit dem zu tun hat, was wir jetzt unter generativer KI verstehen.

Wir haben damit während der Pandemie begonnen. Da hat noch niemand über ChatGPT gesprochen. Unsere Herausforderung ist, dass viele dieser wirklich spannenden neuen Lösungen, mit denen wir auch gerne experimentieren würden, vor allem cloudbasiert sind. Und wir dürfen derzeit keine Cloud-basierten Lösungen aus den USA nutzen.

Wir haben während der Pandemie alle Dienststellen geschlossen und sehr schnell diesen Textbot gebaut. Mit Fachdaten wurde der mit Inhalten – mit kuratierten Nutzereingaben – trainiert. Das sind Grundmodelle, die ein Stück weit auch auf die ChatGPT-Technologie zurückgehen.

Mit Bordmitteln haben wir damit, glaube ich, schon eine erste sehr gute User Experience aufgebaut. Der Vorteil ist, dass unsere Antworten stimmen, dass unsere Lösung nicht halluziniert. Der Nachteil ist eben, dass wir keine Marktlösung haben.

Wir prüfen gerade, inwieweit es Lösungen über Sandboxverfahren oder Ähnliches gibt, dass wir ChatGPT auch bei uns einsetzen können. Da steht die Regulatorik dazwischen. Aber das ist nicht nur bei der BA so, das ist bei der Rente so und bei den anderen großen Sozialversicherungen auch.