MIT Technology Review 8/2021
S. 10
Aktuell
Meteorologie
Foto: Wolfgang Stieler

Deepmind versus Wetterdienst

Gemeinsam mit britischen Meteorologen entwickelte Deepmind ein verbessertes Wettervorhersagemodell. Die Briten sind jedoch nicht die Ersten – und auch nicht die Besten auf diesem Gebiet.

Eines muss man der Londoner KI-Schmiede Deepmind lassen: Sie hat ein Händchen für gute PR. Die Nachricht, dass die Google-Tochter gemeinsam mit dem nationalen britischen Wetterdienst ein neues, besseres Modell zur Vorhersage von Regenfällen entwickelt hat, wurde breit berichtet. Kein Wunder, denn die Regenvorhersage ist ein wunder Punkt in der Wettervorhersage. Wie viel Fortschritt steckt wirklich in dem „DGMR“, dem „Deep Generative Model of Rainfall“?

Existierende Vorhersagetechniken nutzen umfangreiche Computersimulationen der atmosphärischen Physik mit Auflösungen von wenigen Kilometern. Die eignen sich gut für längerfristige Vorhersagen. Kleinräumige Wetterereignisse wie Regenschauer oder gar Starkregen stellen aber auch moderne Wettermodelle auf eine harte Probe, weil auch sie die komplexe Physik der Wolkenbildung nicht vollständig abbilden können.

Um die Qualität numerischer Wettervorhersagen zu verbessern, rechnen Meteorologen deshalb mit Ensembles von Modellierungen, deren Ergebnisse eine statistische Verteilung ergeben. Für kurzfristige Regenprognosen – für die nächste Stunde etwa – lohnt sich das aber nicht. Der Rechenaufwand und die Rechenzeit wären zu hoch. Für das sogenannte Nowcasting – die Vorhersage des Wetters innerhalb der nächsten Stunden – kommt maschinelles Lernen ins Spiel: Bereits in den 1990er-Jahren trainierten Forscher verschiedene Algorithmen darauf, aus gemessenen Wetter-Daten Vorhersagen zu treffen – zunächst jedoch nur mit begrenztem Erfolg.

2019 stellten Google-Forscher dann ihre Version eines Nowcast vor. Die Kurzzeit-Wettervorhersage für wenige Stunden nutzt als Trainingsdaten für ein neuronales Netz Aufnahmen eines Regenradars. Viele Länder veröffentlichen im Laufe des Tages regelmäßig solche Radarmessungen, die zeigen, wie sich Wolken über den Tag bilden und bewegen. Setzt man diese Schnappschüsse zusammen, ergibt sich ein aktuelles Stop-Motion-Video, das zeigt, wie die Regenmuster über das Land ziehen.

Google-Entwickler Jason Hickey, Hauptautor des Modells, erklärte, man habe die Wettervorhersage einfach als eine Art komplexes Bilderkennungsproblem behandelt. Nach Angaben der Forscher habe sich der Nowcast im Vergleich mit drei in den USA häufig eingesetzten klassischen Prognosemodellen für Vorhersagen von fünf bis sechs Stunden als „klar überlegen“ gezeigt, schreibt Hickey. Die Google-Forscher blieben nicht allein – auch andere Forschungsteams zeigten interessante Ergebnisse: In Deutschland beispielsweise arbeiten Forschende am Verbundprojekt Deep Rain, das tiefe, neuronale Netze nutzt, um unentdeckte komplexe Muster in Regenradardaten zu entdecken und so auf kommende Starkregen-Ereignisse zu schließen.

Und auch Microsoft ist mit im Spiel: Forscher von Microsoft stellten kürzlich ein System namens DeepMC vor, das die Daten lokaler Sensoren und konventioneller Wetterprognosen wie die vom National Weather Service miteinander kombiniert. Auf der Basis der lokalen Daten berechnet das tiefe neuronale Netz die Abweichungen für den jeweiligen Standort. Das Unternehmen will das System beispielsweise für Landwirte, aber auch für regenerative Energieerzeuger verfügbar machen.

Anders als viele ihrer Kollegen trainierten die Forschenden bei Deepmind ein Deep Generative Network mit Regenradar-Daten – ein Netzwerk ähnlich den bekannten Generative Adversarial Networks, kurz GANs. Diese Art der KI wird darauf trainiert, neue Datenmuster zu erzeugen, die den realen Daten, mit denen sie trainiert wurde, sehr ähnlich sind. Normalerweise werden GANs beispielsweise verwendet, um Deepfakes oder auch mal einen gefälschten Rembrandt zu errechnen. In diesem Fall lernte DGMR, Radarbilder zu erzeugen und damit die Reihe der real aufgenommenen Messbilder fortzusetzen. Allerdings dient das generative Netzwerk nicht nur der Vorhersage, sondern es liefert – quasi nebenbei – auch eine Aussage über die Wahrscheinlichkeit, mit der diese Vorhersage eintrifft.

Für einen Praxistest bat das Forschungsteam 56 Meteorologen des Met Office, die nicht an der Forschung beteiligt waren, die Ergebnisse des DGMR mit Vorhersagen zu vergleichen, die von einer hochmodernen Physiksimulation und einem konkurrierenden Deep-Learning-Tool erstellt wurden. 89 Prozent gaben an, dass sie die Ergebnisse des DGMR vorziehen. Sie berücksichtigten dabei eine Reihe von Faktoren – einschließlich der Vorhersage des Ortes, des Ausmaßes, der Bewegung und Intensität des Regens.

„Grundsätzlich ist das Paper von Deepmind eine sehr interessante Arbeit mit beeindruckenden Resultaten, die gut evaluiert wurden“, sagt Sebastian Lerch vom Karlsruher Institut für Technologie (KIT), der ebenfalls an einem neuronalen Netz arbeitet, das die systematischen Fehler numerischer Wettermodelle korrigiert, um lokale Vorhersagen zu verbessern. „Es ist schwierig, die verschiedenen Arbeiten wie die von Google und Deepmind direkt miteinander zu vergleichen, weil sie verschiedene Datensätze und Benchmark-Modelle verwenden.“

„Im Kurzzeitbereich sind diese rein datengetriebenen Methoden durchaus besser als physikalische Wettermodelle. Aber die Verbesserungen werden immer geringer, je weiter man in die Zukunft schaut“, sagt Lerch. Denn die KI-Ansätze haben ein Problem: Sie berücksichtigen nicht automatisch Naturgesetze wie die Erhaltung von Energie und Masse. Sein Fazit: „Auf absehbare Zeit wird maschinelles Lernen numerische Wettermodelle nicht ersetzen.“ Will Douglas Heaven