Missing Link: "Wir brauchen einen Internet-Effekt für die Energiewirtschaft"

Mit einer Open-Source-Plattform als "Trafo" will der Übertragungsnetzbetreiber 50Hertz die Digitalisierung der Stromwirtschaft und die Energiewende beflügeln.

In Pocket speichern vorlesen Druckansicht 153 Kommentare lesen
Double,Exposure,Engineering,Working,With,Digital,Technology,Interfaces,Icon,And

(Bild: SOMKID THONGDEE/Shutterstock)

Lesezeit: 21 Min.
Inhaltsverzeichnis

Michael von Roeder merkt man die Ungeduld an, wenn es um die Digitalisierung der Elektrizitätswirtschaft und das Meistern der Energiewende geht. Der Digital- und IT-Chef des Berliner Übertragungsnetzbetreibers 50Hertz sieht die Strombranche bei der digitalen Transformation weit zurück hinter dem Telekommunikationssektor. Die massiven Auswirkungen, die das Internet und die Umstellung auf IP-Telefonie für letzteren gebracht haben, werden ihm zufolge aber auch schon bald in ähnlicher Form die noch behäbigere Welt der Energiewirtschaft und ihrer industriellen Ausrüster durcheinanderwirbeln.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Der studierte Technologie-Manager, der auch bereits bei der auf das Internet der Dinge spezialisierten Firma Sensorberg, Iconmobile und Vodafone führend tätig war, hält die Digitalisierung der Stromnetze und des Energiesystems für unerlässlich. Denn wie sollten sonst tausende neue Erzeuger erneuerbarer Energien mit Solaranlagen auf dem Dach und Windrädern einbezogen werden?

Zusammen mit dem Mutterkonzern, der belgischen Elia Group, will von Roeder daher eine Plattform schaffen für das Internet of Things (IoT) der Energiebranche. Die soll im Kern komplett offen und Open Source sein, um Lock-in-Effekte von Anfang an zu vermeiden und dem Anspruch der digitalen Souveränität gerecht zu werden. Stefan Krempl sprach für heise online mit dem Macher und Linux-Fan über das ambitionierte Vorhaben und erste Reaktionen darauf auch von Siemens Energy, GE & Co., die in diesem Bereich eigene, dem Internetmodell weniger gerecht werdende Pläne verwirklichen wollen.

heise online: Wie ist der Stand der Digitalisierung in der Energiewirtschaft?

Michael von Roeder, Chief Digital and IT Officer bei 50Hertz

Michael von Roeder: Wir sind noch ziemlich weit am Anfang. Es wird dazu zwar viel analysiert, geplant und diskutiert, aber nur ganz wenig implementiert. Beispielsweise tauschen die Kraftwerksbetreiber die Einsatzfahrpläne nach wie vor per E-Mail aus. Das ist zwar schon ein kleiner Fortschritt im Vergleich zu früher, wo sie angerufen oder gefaxt haben. Per Mail sind so wenigstens ein paar mehr Daten drin. Aber wir brauchen ein Echtzeit-System, um den Bedarf effektiv abzubilden.

Was genau leisten diese Fahrpläne?

Die Netzbetreiber treffen darin Aussagen, welche Leistung auf Basis von Wetterprognosen und anderer Parameter zu einem bestimmten Zeitpunkt erbracht werden soll. Die Erneuerbaren haben grundsätzlich einen gesetzlichen Vorrang. Wenn deren Einspeisung nicht ausreicht für das, was am Markt sozusagen bestellt worden ist, kommen die konventionellen Kraftwerke zum Zuge.

Grundsätzlich gibt es im Norden Deutschlands Überschüsse bei den Erneuerbaren, da dort mehr Wind weht. Im Süden ist dagegen der Verbrauch meist höher. Nur reichen die Leitungen oftmals nicht aus, um den produzierten Strom dorthin zu bringen. Viertelstundenweise erfolgt über die Pläne so ein Update, welches Kraftwerke was produzieren soll und wie Netzengpässe durch das Hochfahren von konventionellen Kraftwerken entschärft werden.

Gibt es zumindest gemeinsame Hard- und Software-Lösungen? Oder vielleicht auch schon eine übergreifende Plattform für das Internet of Things (IoT) für diesen Bereich?

Im Kern ist der Stand im Energiesektor wie im Telekommunikationsbereich vor 25 Jahren. Es gibt immerhin eine Redispatch-Plattform. Dabei geht es um die Koordination von Eingriffen in die Erzeugungsleistung von Kraftwerken, um Leitungsabschnitte vor einer Überlastung zu schützen. Das ist digitalisiert. Es ist aber alles proprietäre Software, die meist relativ kleine Dienstleister in Deutschland bauen. Es gibt einen eingeschränkten, sehr kleinen Anbietermarkt von wenigen Software-Anbietern, die spezifische Lösungen für die Energiewirtschaft verkaufen. Die wollen den Status quo erhalten und keine offene Plattform. Die Produkte reden zwar prinzipiell miteinander, aber Änderungen brauchen ewig.

Was sind die Folgen?

Sollte die Politik beispielsweise ihre Überlegungen weiterverfolgen, das Strommarktdesign zu ändern, würde die Implementierung in IT-Systeme sehr viel Zeit in Anspruch nehmen. Die Betreiber müssten Aufträge an die Software-Hersteller vergeben, die ändern das in ihrer Blackbox, dann kann es eingespielt werden. Das muss man dann auch so synchron machen über alle Netzbetreiber hinweg.

Was wäre eine Alternative?

Das Zielbild ist eine offene IoT-Plattform. Sie würde eine viel größere Flexibilität bieten – wie mittlerweile im Telekommunikationsbereich. So würden wiederum die Kosten sinken. Wir brauchen eine Art Internet-Effekt für die Energiewirtschaft. Zusammen mit unserer Mutterfirma, der belgischen Elia-Gruppe, wollen wir so eine Open-Source-Plattform bauen. Die Anfänge sind aber eher schmerzhaft für manche Beteiligte. Auch bei den bisherigen Telekommunikationsausrüstern wie Alcatel SEL oder Siemens musste mit dem Boom des Internets die bestehende Betriebstechnologie offenen, IP-basierten Systemen weichen. Es geht nun auch hier in der Energiebranche um eine vergleichbar umfassende Transformation.

Was genau steckt hinter der geplanten offenen Plattform? Wie soll sie technisch aussehen?

Wir brauchen unten einen "Cloud Native"-Stack. Also ein Instrument für eine Multi-Cloud-Umgebung, um eigene Anwendungen laufen und kleinere Dienste bündeln zu können. Es ist für uns keine Option, zu den Hyperscalern wie Amazon Web Services (AWS), Microsoft oder Google zu gehen. Der erste Grund dafür ist die digitale Souveränität: nötig ist ein offenes europäisches System. Zum anderen lässt sich ein Energienetz nicht direkt aus der Cloud fahren. Käme es zu einem Blackout, würden auch die Rechenzentren der Hyperscaler nicht mehr laufen. Das wäre nicht sinnvoll.

Gibt es weitere Vorteile?

Eine offene Plattform kann zudem helfen, die Resilienz zu stärken. Ich möchte ein Edge-System haben, mit dem die Datenverarbeitung möglichst nah an den Anwendern erfolgt, nicht zentral in Rechenzentren. In jeder Solarfarm sollte so eine Mini-Cloud mit dem Ausführungsstack laufen, in jedem Umspannwerk. Bei Störungen müssten solche Anlagen Systemzugriff haben, damit das lokal weiterlaufen kann.

Was ist weiter geplant? Wie sieht die Basistechnik aus?

Wir erfinden das Rad nicht neu. Wir nutzen den "Google Cloud Platform"-Stack (GCP) und erweitern ihn so, dass er vor Ort, also "on premise" auch ohne Verbindung nach außen laufen kann (Air Gap). Das Management erfolgt dabei nicht über den US-Konzern. Warum haben wir diesen überhaupt ausgewählt? Google hat als einziger Anbieter einen vollständigen Open-Source-Stack. Die denken da groß. Bei anderen Anbietern hat man dagegen immer irgendwelche proprietären Sachen. Die versuchen die Kunden mit Lock-in-Effekten einzufangen. Nachher explodieren dann die Kosten. Kriege ich dagegen den Netzbetreiber dazu, den offenen TCP-Stack zu verwenden, eröffnen sich ganz viele Möglichkeiten, ohne dass ich direkt auf dieser grundlegenden Ebene Geld verdiene.

Das heißt, Sie wollen versuchen ein Ökosystem zu schaffen?

Genau. Den Stack werden wir dazu mit Dritten teilen. Google macht dafür Änderungen etwa an der Cloud-Plattform Anthos, damit das Ding laufen kann vor Ort ohne ständige Verbindung nach außen. Das haben wir direkt mit den Zuständigen in Mountain View besprochen. Das ist quasi die Laufumgebung. Darunter liegt Hardware. Die haben wir definiert, die ersten vier Racks laufen auch schon seit ein paar Tagen. Das ist ein standardisierter Server-Schrank, wo alles drin ist, was ich dann horizontal skalieren kann. Auch das Design davon werden wir als Open Source veröffentlichen, damit andere das nutzen können.

In einem großen Datenzentrum sollen dann mehrere Racks zum Zug kommen, etwa in einem Umspannwerk aber eben nur eins. Das muss jetzt keiner so nehmen, aber wir stellen das Ganze kostenlos zur Verfügung und sagen: "Guck mal, hier sind die Bauteile, so steckst du sie zusammen. Die Komponenten kannst du kaufen beispielsweise von Cisco, Dell, HP und Juniper, damit wir auch hier herstellerunabhängig bleiben."

Gibt es dafür schon eine Blaupause?

Es gilt noch Fragen zu klären wie Haftung, Support und Lizenz, da kommen jetzt die Juristen zu Wort. Aber da wollen wir hin als Netzbetreiber. Warum? Unsere Aufgabe ist es, die Energiewende hinzukriegen. Das können wir nicht allein. Wenn wir das mit der Plattform schaffen und diese etwa Stadtwerken zur Verfügung stellen, können sie die Technik selber einbauen oder auf Dienstleister wie Capgemini, Accenture oder ein lokales Systemhaus setzen, die ihnen das auf Basis unseres Musters implementieren. So wollen wir in dem Ökosystem auch Geschäftsmodelle für andere schaffen.

Was folgt technisch eine Ebene höher?

Jetzt haben wir die Cloud-Native-Umgebung. Obendrauf wird Applikationssoftware benötigt. Dort bauen wir ein Scada-System zur industriellen Steuerung oder zumindest einen Teil davon, also quasi die eigentliche IoT-Plattform. Die Traditionalisten in der Branche sehen das natürlich anders und sagen, ausschließlich sie können so ein Scada-System bauen. Das ist aber keine Raketenwissenschaft. Deswegen machen wir das selbst. Wir werden auch diesen Teil als Open Source veröffentlichen.

Es geht also um den Ansatz "Public Money, Public Code"?

Ja. So ist es. Unsere Ideen haben wir bereits mit anderen Netzbetreibern besprochen, in der EU sowieso, aber etwa auch Brasilianer kamen schon deswegen auf uns zu. Auch Universitäten sollen das nutzen können, sodass Studierende damit experimentieren können. Heute ist der Zustand: es gibt wenige, die das alles in Closed Source machen mit einer monolithischen Client-Server-Architektur. Wir bauen das viel flexibler für die Cloud. Ein Software-Upgrade eines Systems dauert bei den Traditionalisten anderthalb Jahre und mehrere Millionen Euro. Bei uns wird das viel schneller und günstiger gehen.

Jetzt sind wir aber noch nicht ganz oben angekommen?

Nein. Das Gleiche werden wir tun für die Systemführung, also für das Ausbalancieren eines Stromnetzes. Oder im Bereich Offshore-Wind: Dafür sind ebenfalls Umspannplattformen nötig, die den Strom von den Windfarmen einsammeln, transformieren und an Land bringen. Die stehen in der Ost- und Nordsee. Dort herrschen andere Anforderungen. Man muss darauf achten: wie ist das Klima dort, was ist mit Wind und Welle. Dafür werden wir die gleiche Grundplattform nehmen. Nur dass sie dann nicht nur Volt oder Ampere misst, sondern etwa Temperaturen. Zudem könnte sie die Klimaanlage und den Brandschutz steuern.

Da lassen sich also Synergien nutzen?

Genau, auch das ist ja eine IoT-Plattform. Wir erhöhen also die Wiederverwendbarkeit von Komponenten, um andere Betriebsanlagen zu steuern. Da wird es teils auch Closed-Source geben. Das werden wir aber so integrieren, dass alle Bestandteile auf einer Datenplattform sind. Die allgemeinen Anforderungen sind dafür immer offene Programmierschnittstellen und Open Data.

Dazu führen wir eine aufreibende Diskussion mit der Industrie, denn die großen Ausrüster wollen ihre Daten nicht herausgeben. Die sagen: das sind unsere Ressourcen. Wir erwidern, wir wollen die Datenmodelle verstehen und direkt rankommen. Denn nur, wenn du perspektivisch diese ganzen Messwerte und Informationen verknüpfst, kommst du voran.

Das Datenteilen soll künftig in der EU ja auch vorgeschrieben werden.

Was wir vorausdenken, wird sowieso durchgesetzt werden mit dem Data Act. Das ist genau richtig, denn die Lieferanten sollen mit Daten kein Geld verdienen. Wir selbst versuchen, etwa mit dem Portal netztransparenz.de so viele Daten wie möglich in die Öffentlichkeit zu bringen. Wir haben jüngst einen Hackathon veranstaltet in Berlin, da haben wir unsere Datenpipes soweit wie möglich geöffnet. Das ist für uns eher ein technisches Thema: Wir sitzen auf diversen Altsystemen, die sich nicht von heut auf morgen abschalten lassen. Da ist es halt nicht so einfach. Deswegen auch die Idee mit der Plattform.

Warum bauen 50Hertz und die Elia Group nicht einfach auf Gaia-X? Die europäische Cloud-Initiative geht ja in eine ähnliche Richtung.

Wir sind Mitglied bei Gaia-X und ich hatte große Hoffnung darauf gesetzt. Doch dort wird zu viel Papier und zu wenig Software produziert. Und wenn man runterguckt in den Stack: die adressieren nicht das Problem, das für uns ganz am Anfang stand. Was ist denn unser europäischer Cloud-Native-Stack? Das kann ja nicht einfach Azure von Microsoft sein. Jetzt sagt Gaia-X: Nein, nein, wir haben ja noch eine Abstraktionsschicht oben drüber, deswegen geht das schon. Das löst aber nicht unser Problem, deswegen machen wir den Stack bis ganz runter und werden ihn einfach frei herausgeben. Wir können also nicht auf Gaia-X warten.

Zeichnen sich da nicht gerade konkrete Lösungen ab?

In diesen Standardisierungsgremien geht es auch um ganz eigene Agenden von beteiligten Unternehmen. Da passiert zu wenig am eigentlichen Inhalt. Konkret: Ich habe als junger Mensch an Linux mit rumgefummelt. Wie ist das entstanden? Erst gab es Unix, dann Minix: Das war schon ganz schön, aber konnte halt nicht so viel wie etwa das kommerzielle Santa Cruz Unix. Unsere Idee war, können wir nicht sowas selber machen? Linus Torvalds hat damit angefangen. In Deutschland gab es eine Szene, die sehr früh dabei war. Die Beteiligten haben einfach Software gebaut, und nicht über Standards geredet. Genau das machen wir bei der Elia Digital Platform (EDP).

So heißt die geplante offene Lösung?

Mein Traum wäre, dass EDP einmal für "Europäische Digitalplattform" steht. Das wird sich aber von selbst ergeben. Wenn wir gut sind, werden da Leute draufspringen und das verwenden. Dazu braucht es kein riesiges Standardisierungsgremium. Wir machen den Internetansatz. Bei den dortigen Requests for Comments (RCFs) haben auch ein, zwei Dudes einfach was aufgeschrieben oder gebaut und dann überlegt, wie kann man das kommunizieren, kommentieren und standardisieren.

Wie ist der Zeitplan?

Wir haben ein Stück Hardware mit kleinem Stack laufen, auch in der Google-Cloud. Das Ding wird natürlich bald ebenfalls auf Azure und Amazon laufen. Ich denke mal, Ende 2023 können wir damit rausgehen. Wir müssen ja von Grund auf alles bauen und sehr darauf achten, dass wir nur Open Source verwenden. Wir arbeiten da etwa auch mit HashiCorp zusammen, denn wir wollen keinen vollen Google-Lock-in haben.

Wie sieht es mit der IT-Sicherheit aus?

Verknüpft mit der Plattform ist zusätzlich eine Zero-Trust-Infrastruktur, die wir dringend brauchen. Wir haben Cyberrisiken, die mit der Umstellung auf TCP/IP noch größer werden. Umspannwerke werden digitalisiert, wir gehen in offene Systeme. Die erhöhen die Angriffsfläche für Cyberattacken massiv. Deshalb müssen wir auch bei uns das Zero-Trust-Prinzip wie in den USA voranbringen, wo das seit Anfang des Jahres vorgeschrieben ist durch einen Präsidentenerlass im Kritis-Sektor. In Europa zwar noch nicht. Aber auch da werden alle noch große Augen machen, weil sie das mit ihren derzeitigen IT-Infrastrukturen gar nicht hinkriegen.

Was sagen etablierte Akteure wie Siemens Energy, GE, Hitachi und PSI zu dem Vorhaben?

Die finden das natürlich nicht lustig. Wir wollen in einen Dialog mit ihnen kommen. Was wir hinkriegen müssen, ist ein Win-Win. Wir wollen ja nicht Siemens Energy oder GE killen. Sie sollen Teil des Ganzen werden. Aber mit ihren Ende-zu-Ende integrierten, vertikalen Blackboxen haben sie kein Zukunftsmodell am Start. Die können natürlich Closed Source auf Open Source laufen lassen. Aber die Grundplattform muss offen sein. Wir wollen keine neuen Software-Monopole erschaffen, sondern per Co-Kreation und Kollaboration diese Plattform voranbringen als quasi digitale Ebene auf dem Energiesystem.

Ist das ein harter Konfrontationskurs?

Nein. Wir fangen auch jetzt schon an zu überlegen, wie kann man kommerzielle Module in die Open-Source-Umgebung integrieren. Das machen wir erst einmal mit Octopus, das ist ein kommerzieller Anbieter, der die Geschäftsmodelle der Traditionalisten unter den Ausrüstern für die Energiebranche aufbricht.

Wir wollen so zeigen: wir können mit dafür offenen kommerziellen Unternehmen zusammenarbeiten und kriegen das technisch hin, das zu integrieren. Das Programm, das auf dem IoT-System aufsetzt, nennt sich Modular Control Center Software (MCCS). Das hat offene und kommerzielle Module. Siemens & Co. sollen also solche Komponenten zuliefern. Die haben viel Know-how, damit sollen sie Geld verdienen. Diese Module können durchaus proprietär sein. Dabei geht es um deren Forschungs- und Entwicklungsarbeit.

Nur im Moment ist der Streit eben: Die sagen, wir haben ja selber eine IoT-Plattform und die sollt ihr nehmen. Die ist aber Closed Source, sodass sie für uns nicht in Frage kommt.

Lassen sich über die IoT-Plattform auch Ausrüster aus heikleren Ländern wie China einbeziehen?

Wir sehen dieses Problem ja im 5G-Netz. 50Hertz unterliegt den WTO-Regeln und EU-Vorschriften. Wir können also etwa nicht Transformatoren ausschreiben für einzelne Länder, ohne dann den Auftrag an den besten Bieter zu geben. Nehmen wir an, Huawei gewinnt. Wenn wir dann zulassen, dass dann komplett vertikal integrierte geschlossene Systeme kommen, dann hole ich mir chinesische IT ins eigene Stromnetz. Das geht nicht.

Deswegen lautet unsere Strategie: Wir schneiden sozusagen den Software-Stack möglichst nah an der Hardware ab und ziehen die Daten auf unsere eigene Plattform. Damit könnte man Huawei-Hardware ins eigene Grid einbauen ohne das Risiko, dass irgendeine Fernsteuerung möglich ist oder Daten nach China abfließen. Das ist genau das, was auch europäische Anbieter verstehen sollen: die Daten gehören dem Netzbetreiber und am Ende der Öffentlichkeit.

Wo genau lassen sich die Verbindungen kappen?

Die interne Embedded-Software wird wohl weiter vom Hersteller kommen. Aber sozusagen die Sensorik sollen wir selber lesen können, also alle Sensordaten. Und auch die Aktoren wollen wir selber schreiben. Der Grund ist klar: Wenn das ein chinesischer Ausrüster so macht, könnten wir da aus Sicherheitsgründen nicht mitgehen. Ich kann mit unserem Open-Source-Ansatz also profitieren, auch von der chinesischen Innovation und den günstigen Preisen, ohne – und das ist das Entscheidende - die Kontrolle über die Steuerung und die Daten zu verlieren.

Was könnte man alles mit den Netzdaten machen, etwa im Bereich Forschung?

Das, was wir da bauen, ist ja skalierbar. Ich kann also die Logik dieser Software, mit der wir das gesamte Übertragungsnetz steuern, runterbrechen auf die Verteilnetze und auf Micro-Grids bis zum Wohnhaus. Das können wir aber nicht allein machen. Wir müssen erst die Grundlagen schaffen und zeigen, wir steuern damit das große Netz. Da kommen Universitäten und kleinere Firmen ins Spiel, die den Open-Source-Stack dann anpassen für den Einsatz in kleineren Zellen. Ein Lehrstuhl an der TU Dresden denkt etwa bereits darüber nach, wie zelluläre Systeme funktionieren können.

Wenn wir zeigen, dass wir nicht mehr diese Blackbox sind und nur noch auf den Daten sitzen, wird hoffentlich ganz viel Innovation passieren. Wir werden auch Geschwindigkeit gewinnen, denn solche Sachen müssen ja dezentral entwickelt werden. Wieder einmal ist Linux das große Vorbild: man kann damit Geld verdienen. In unserem Fall kann sich jemand etwa auf die ganzen Micro-Grids spezialisieren, womit wir zugleich die Interkonnektivät hinkriegen, ohne jahrelang in Kaffeekränzchen zu sitzen.

Welchen konkreten Vorteil bietet das dann für die Cybersicherheit?

Da kommen wirklich Leute, die behaupten, wenn es Open Source ist, ist es nicht sicher. Die haben noch nicht begriffen, dass Software mit offenem Quellcode sicherer gemacht werden kann als Closed Source. Da ist noch ganz viel Aufklärungsarbeit nötig. Zudem ist klar, dass wir weg müssen von einem Verständnis von IT-Security, das nur auf bestimmte Parameter abzielt. Dies gilt vor allem für das Energiesystem. Da brauchen wir auf jeden Fall Zero Trust.

Wieso soll man hier niemand mehr trauen können?

Was hilft es denn, wenn wir unsere Umspannwerke mit einem großem Zaun umgeben – im übertragenen Sinne mit einem virtuellen nebst Firewall und Air Gap –, aber der Angreifer geht auf eine Sicherheitslücke in Wechselrichtern, die 40 Prozent der Solaranlagen betreiben, und schaltet die alle auf einmal aus. Wir müssen also an die Enden der Energiesysteme denken, wo die Erzeugung stattfindet. Das sind halt nicht mehr nur RWE und EnBW, sondern auch die Bauern mit der Solarscheune. Sprich: Wir müssen das Energiesystem als Ganzes denken und eine gemeinsame, offene Architektur schaffen. Und die können wir nicht vorschreiben. Deswegen müssen wir in Vorleistung treten und die einfach mal hinstellen.

Im zweiten Teil des Interviews, das demnächst als "Missing Link" erscheint, geht es unter anderem um die Belastbarkeit der Energieversorgung durch neue Erzeuger im Heimbereich, mögliche Blackouts im Winter und Ladekapazitäten für die E-Mobilität. (bme)