zurück zum Artikel

Mainframe: wir müssen ihn nicht mehr betreiben, aber wir wollen

Berthold Wesseler

Ablösen oder weiter betreiben? Die Datev bleibt beim Mainframe – und das nicht, weil sie es muss. Das Interview begutachtet das große Modernisierungsprojekt.

Bereits 1966 als IT-Dienstleister der steuerberatenden Berufe gegründet, hat die Datev von Anfang auf den Mainframe gesetzt – und tut das auch heute noch. Allerdings ist man in Nürnberg nicht betriebsblind oder blauäugig, sondern prüft immer wieder sehr genau mögliche Alternativen zum Mainframe und nutzt diese gegebenenfalls. Heute betreibt die Datev ein Rechenzentrum an mehreren Standorten mit Servern verschiedenster Hersteller – unter anderem auch Mainframes.

Die Mainframe-Interviews, Folge 11: Anwendungsmodernisierung bei der Datev

In der elften Folge der Mainframe-Interviews: Andreas Bechtloff, Product Owner für ein Mainframe-Modernisierungsprojekt bei der Datev eG.

Zur Rolle des Mainframe in der IT-Infrastruktur der Datev befragten wir Andreas Bechtloff. Er leitet dort als Product Owner ein Mainframe-Modernisierungsprojekt, das auf fachlicher Ebene Datenübermittlungsverfahren optimiert. Dabei geht es darum, wie Informationen von Steuerberatern und deren Mandanten geholt und bis hin zu externen Partnern wie der Finanzverwaltung übertragen werden. Die Leidenschaft für Großrechner begleitet Bechtloff schon fast sein komplettes Berufsleben: Auf die Mainframe-Programmierung spezialisierte er sich bereits während seiner Ausbildung zum Fachinformatiker für Anwendungsentwicklung.

Herr Bechtloff, die Datev setzt seit Jahrzehnten auf Mainframes. Was sind wichtigen Gründe dafür?

Das Rechenzentrum ist Dreh- und Angelpunkt unserer Prozesse. Unsere Mitglieder und Kunden verlassen sich darauf, dass die Anwendungen rund um die Uhr verfügbar sind. Hier kommen die Mainframes ins Spiel – sie garantieren eine schnelle, zuverlässige und nahezu ausfallfreie Verarbeitung.

Bei den großen Datenmengen, die zu gewissen Stichtagen – wie der Lohnverarbeitung oder dem Umsatzsteuer-Voranmeldungstermin – verarbeitet werden müssen, dürfen keine Fehler passieren. Des Weiteren sind die Prozesse und Systeme des Mainframes über die Jahre hinweg bis zum Maximum optimiert worden und die Menschen, die diese Plattform betreiben, sind absolute Koryphäen auf ihrem Gebiet. All das gewährleistet einen sicheren Betrieb.

Haben sich die Entscheidungskriterien im Laufe der Jahre verändert? Immerhin gab es vor 50 Jahren noch keine praktikable Alternative, während heute Hyperscaler und Serverhersteller den Mainframe ablösen wollen …

Kriterien änderten sich im Laufe der Jahre immer wieder, der Mainframe wurde auch schon einige Male für tot erklärt. Dennoch hat er seine Daseinsberechtigung immer wieder bewiesen.

Hyperscaler wie Amazon AWS zeigen, dass sie technisch gesehen ebenbürtig und als Plattform ernst zu nehmen sind. Hier kommen dann weichere Kriterien ins Spiel. Bei uns ist Datenschutz ein wichtiges, wenn nicht sogar das wichtigste Thema. Daher haben wir uns entschieden, auch in der Cloud-Welt eine eigene Infrastruktur aufzubauen. So haben wir vor Kurzem ein Cloud-natives RZ in Betrieb genommen, in das wir sukzessive mehr und mehr Aufgaben verlagern.

Bei unseren hochkritischen Anwendungen spielt der Mainframe da im Zusammenspiel nach wie vor eine große Rolle. Darüber hinaus wird auch Nachhaltigkeit ein weiteres Thema sein. IBM wirbt beispielsweise damit, dass der Mainframe hinsichtlich des Stromverbrauchs deutlich besser abschneidet als vergleichbare Server-Lösungen. Heute ist sicherlich auch die Time-to-market ein wesentlicher Treiber, doch dabei kommt es aber eher auf die eingesetzten Technologien als auf die darunter liegende Hardware an.

Warum ist in Ihren Augen der Mainframe heute und naher Zukunft leistungsstarken Server-Clustern oder auch Cloud-Lösungen nach wie vor überlegen?

Geht es heute wirklich noch um Überlegenheit? Wie in den Kriterien bereits erwähnt, werden in meinen Augen nicht mehr nur rein technische Anforderungen die Entscheidungen prägen. Am Ende wird auch Know-how ein wesentlicher Treiber sein.

IBM wirbt auf vielen Veranstaltungen gerne damit, dass Kunden künftig nicht mehr den Mainframe betreiben sollen, weil sie es müssen, sondern weil sie es wollen. Dafür gilt es Voraussetzungen zu schaffen, damit dies auch Wirklichkeit werden kann. Mit Linux on System Z sind beispielsweise marktübliche Technologien nutzbar – verbunden mit den Vorteilen der Maschine, das könnte zukünftig ein Wettbewerbsvorteil sein.

Mehr von iX Magazin Mehr von iX Magazin [1]

Für welchen Typ Anwendung setzen Sie den Mainframe heute bei der Datev ein – und für welche Anwendungstypen werden andere Plattformen genutzt?

Der Mainframe wird bei uns für Business-kritische Anwendungen verwendet, die in kurzer Zeit viele Daten verarbeiten müssen. Das erstreckt sich über alle großen Geschäftsfelder. Ob Lohnabrechnung, Übermittlung von Steuererklärungen oder Verarbeitungen innerhalb der Finanzbuchhaltung: überall wird der Mainframe verwendet.

Einige größere Anwendungen werden derzeit modernisiert, bei diesen Anwendungen wird heute auf intern gehostete Cloud-Lösungen gesetzt. Dies stellt aber bislang einen kleinen, wenngleich schon erwähnenswerten Teil des Workloads dar. Treiber sind hier vor allem wieder das Know-how, technologische Aktualität und Herstellerunabhängigkeit sowie Dev-Ops-Prozesse.

Diese Treiber sind für die aktuelle Entscheidung Richtung Portfolio-Entwicklung insofern relevant, weil der klassische Mainframe hier nicht die strategische Zielplattform ist. In einer ganzheitlichen Cloud-Architektur sehen wir aber sehr wohl Verwendung für ihn, beispielsweise als mit Linux betriebene Komponente.

Können Sie bitte am Beispiel einer solchen hochfrequentierten Anwendung einmal verdeutlichen, warum der Mainframe dafür die beste Plattform ist?

Spontan fällt mir der Lohn ein, der zum Stichtag mehrere Millionen Abrechnungen in kurzer Zeit verarbeiten muss. Dafür benötigt es sehr große Rechenkapazitäten und natürlich darf dabei kein Fehler passieren – beim Gehalt hört der Spaß auf. Gerade bei Batch-Verfahren punktete der Mainframe in der Vergangenheit hier im Vergleich zu anderen Plattformen enorm.

Wie sieht denn die IT-Infrastruktur der Datev heute aus – und wie sind die Mainframes darin eingebettet?

Wir betreiben ein Rechenzentrum an mehreren Standorten mit Servern verschiedenster Hersteller. Der Mainframe ist dabei dem Classic-RZ zugeordnet, in dem die Bestandssysteme laufen und die Prozesse über Jahre hinweg optimiert wurden. Über APIs wird daran beispielsweise das intern gehostete Cloud-native RZ angebunden. Unser Ziel ist es, die entsprechenden Anwendungen homogen in der für sie vorgesehenen Umgebung zu hosten. Dafür wird die Infrastruktur entsprechend erweitert.

Was heißt dabei Mainframe konkret? Könnten Sie bitte einmal anhand von ein paar Kennzahlen zur Konfiguration und zu den Workloads die Dimensionen verdeutlichen, von denen hier die Rede ist?

Die Rechenleistung unserer Mainframes beträgt derzeit 208.428 MIPS. Die CPU-Leistung wird beim Mainframe in MIPS gemessen; das bedeutet Millionen Instruktionen pro Sekunde, 208.428 MIPS sind somit 208 Milliarden Instruktionen pro Sekunde. Verarbeitet werden zum Beispiel jährlich 11,3 Millionen Übermittlungen im Kontext der Umsatzsteuervoranmeldung, 16,4 Millionen Steuererklärungen sowie die angesprochenen monatlich rund 14 Millionen Lohnabrechnungen.

Derzeit läuft ja ein groß angelegtes Mainframe-Modernisierungsprojekt. Worum geht es dabei konkret – und welche Technologien sind der Schlüssel?

Zum einen geht es darum, dass wir die Standard-Tools der Entwickler auch für den Mainframe zugänglich machen. Das beginnt bei der Entwicklung über eine Eclipse-basierende IDE, die Source-Verwaltung mit GitLab und Jenkins Build- und Deployment-Pipelines bis hin zu SonarQube-Scans für die Qualitätssicherung der Anwendungen. Darüber hinaus werden auch einige Anwendungen modernisiert. Dabei wird allerdings sehr fallbezogen entschieden, wie die jeweilige Modernisierung ablaufen soll. Das Spektrum der Optionen reicht vom autarken Neuschreiben bis hin zu hybriden Szenarien, bei denen nur neue Frontends gebaut werden. Beim Neuschreiben ist jedoch immer CloudFoundry die Zielplattform.

Welche Vorgehensweisen und Best Practices haben sich bei der Modernisierung bewährt? Und was würden Sie aus heutiger Sicht anders machen?

In meinem direkten Projektumfeld waren die entscheidenden Punkte, das Know-how der Experten zu nutzen und die Anwendung Bottom-Up zu untersuchen. Es ging darum, Use-Cases zu identifizieren, zu prüfen, was Mehrwert bringt und was zukünftig wegfallen kann. Letztendlich galt es eine Architektur zu erarbeiten, die sich hinsichtlich der Zukunft flexible Möglichkeiten offen lässt und leicht geändert werden kann.

Ein weiterer wichtiger Punkt war es, klein zu starten und sukzessive größere Anwendungsteile zu modernisieren. Auf diese Weise konnten wir mit den steigenden Anforderungen mitwachsen und unsere Architektur, wenn nötig, erweitern und verbessern. Unser Ziel war es, das Backend ohne Auswirkungen auf unsere beim Kunden installierte Software zu modernisieren. Die Erfahrung zeigt, dass es besser ist, die Modernisierung gemeinschaftlich anzugehen und etwaige Auswirkungen in Kauf zu nehmen.

Wenn wir einen Blick in die nähere Zukunft wagen: Bei der Digitalisierung von Wirtschaft, Justiz und Verwaltung kommen ständig neue Plattformen ins Spiel – wie bleiben Sie da mit den Mainframes am Ball?

Ich denke, ein wichtiger Schritt war es, die Standard-Tools für den Mainframe verfügbar zu machen sowie Automatisierung voranzutreiben. Neben den erwähnten Standardtools wie Jenkins und GitLab haben wir beispielsweise einen Service, der Db2-Datenbanken auf Knopfdruck provisioniert und für schnelle Tests nutzbar macht. Das ersetzt zwar nicht den Gang zum DB-Admin, bringt aber große Zeiteinsparung bei der Entwicklung. Zudem wird durch die Homogenisierung des Entwicklungsvorgehens das benötigte Spezialisten-Know-how ebenfalls verringert.

Gefragt sind Hybrid-Modelle, die COBOL-Anwendungen und neue Technologien unter einen Hut bringen. Wie handhaben Sie das bei der Datev?

Wichtig ist für uns, die Daten, die heute auf dem Mainframe liegen, für neue Geschäftsmodelle zugreifbar zu machen. Das gelingt bspw. durch REST-APIs, die durchaus in COBOL geschrieben sind. Weitere Strategien sind Replikationen auf andere Systeme. Im CICS-Umfeld gestaltet sich eine hybride Anwendungsarchitektur durch das System selbst als sehr einfach, hier haben wir IBM in der Vergangenheit auch einige Features abverlangt.

Größere Änderungen und Neuschreibungen auf dem Mainframe werden in Java realisiert. Auch Spring-Boot-Anwendungen beispielsweise laufen bei uns produktiv auf dem Mainframe.

Wenn wir in die Zukunft blicken: Wo sehen Sie bei der Datev künftige Einsatzgebiete, in denen die Mainframes Ihre Stärken ausspielen können?

Großes Potential sehe ich bei Linux on System Z. Wichtig ist aber vor allem, dass der Mainframe das Rückgrat darstellt und uns mit seiner Stabilität und Zuverlässigkeit überhaupt erst Zeit dafür verschafft, dass wir uns mit künftigen Einsatz-Szenarien und Technologien beschäftigen können. Das heißt im Umkehrschluss: Wir müssen die Plattform professionell und mit hohem Skill-Set betreiben und unsere Anwendungen weiterhin modern und effizient weiterentwickeln.

Herr Bechtloff, vielen Dank für das Interview! Einen grundlegenden Blick auf die Frage Should I stay or should I go? [2] wirft die zweite Folge der Mainframe-Interviews. In weiteren Ausgaben gibt es Details zum Thema Open Source auf dem Mainframe [3] und den exzellenten Berufschancen von Linux-Experten [4]. (fo [5])


URL dieses Artikels:
https://www.heise.de/-7316379

Links in diesem Artikel:
[1] https://www.heise.de/ix/
[2] https://www.heise.de/news/IBM-Mainframe-Should-I-Stay-or-Should-I-Go-6327622.html
[3] https://www.heise.de/news/Mainframes-in-der-modernen-IT-Mit-Open-Source-die-alten-Silos-oeffnen-7218385.html
[4] https://www.heise.de/news/Mainframes-Exzellente-Chancen-fuer-Linux-Admins-aber-Manager-muessen-umdenken-7143989.html
[5] mailto:fo@heise.de