IBM und Nasa entwickeln neues KI-Klimamodell

IBM will gemeinsam mit der Nasa ein Basismodell für die Wetter- und Klimasimulation entwickeln, das schneller und effizienter sein soll.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Alle Wetter von Galeriefotograf Banshee66

(Bild: Banshee66)

Lesezeit: 4 Min.

Computermodelle zur Vorhersage von Wetter und Klima beruhen meist auf numerischen Lösungen physikalischer Gleichungen, die das Wetter beziehungsweise das Klimasystem beschreiben. Das ist rechnerisch sehr aufwendig und kostet daher viel Energie und Zeit. Dass KI-Modelle sehr viel schneller und effizienter zu Ergebnissen kommen können, zeigte kürzlich Google Deepmind mit seinem Modell Graphcast: Das neuronale Netz berechnet eine globale Wettervorhersage für zehn Tage auf einem 28-km-Raster in nur einer Minute.

IBM will diesen Ansatz gemeinsam mit der Nasa jetzt noch ein ganzes Stück weitertreiben, und ein "Foundation Model" für die Wetter- und Klimaprojektion entwickeln. Erste Ergebnisse könnten bereits in einem Jahr vorliegen, sagt IBM. Das Modell soll dann bei Hugging Face veröffentlicht werden.

Anders als Graphcast oder auch das im Juli von Huawei vorgestellte Modell "Pangu Weather" soll dieses Foundation Model nicht nur mit Wetterdaten trainiert werden. Das Training beruht vielmehr auf dem MERRA2-Datensatz der Nasa, der neben Sensordaten auch Satellitenbilder und die Ergebnisse von numerischen Simulationen enthält. "Wir wollen versuchen, die gesamte Physik und Dynamik von Klima und Wetter in diesen Datensätzen der NASA zu erfassen", sagt Juan Bernabe-Moreno, Direktor von IBM Research Europe für Irland und Großbritannien und verantwortlich für die "Accelerated Discovery Strategy for Climate and Sustainability‟ bei IBM. Das so vortrainierte Modell kann dann mit weniger Daten im Finetuning für spezielle Aufgaben trainiert werden, wie zum Beispiel mittelfristige Wettervorhersagen, Extremwetter-Vorhersagen, die Berechnung der Zugbahnen von Wirbelstürmen – oder auch langfristige Klimaprognosen.

Wie genau die Architektur des Modells aussehen soll, ist allerdings noch nicht klar. "Wir diskutieren verschiedene Alternativen", sagt Bernabe-Moreno. Microsoft Research hatte im Januar mit ClimaX das weltweit erste Foundation Model für Wetter- und Klimaprognosen vorgestellt, das auf einer Vision-Transformer-Architektur beruht. "Wir werden natürlich auch die Learnings der Kollegen mit einbeziehen", sagt Bernabe-Moreno. "Denn wir haben nicht die Zeit, diese Ergebnisse zu ignorieren".

Denn auch wenn es bereits erste Ansätze wie die von Deepmind oder Microsoft gibt, bleiben noch viele technische und wissenschaftliche Fragen offen. Ein prinzipielles Problem solcher datengetriebener Ansätze beispielsweise ist die Tatsache, dass KI-Modelle auch komplett unphysikalische Lösungen produzieren können. Techniken, mit denen neuronale Netze dazu gebracht werden, physikalische Grundsätze wie Energie- und Massenerhaltung zu berücksichtigen, sind zurzeit noch Gegenstand aktueller Forschung.

Ein anderes, prinzipielles Problem ist die Tatsache, dass solche Systeme darauf ausgelegt sind, Muster und Regelmäßigkeiten in Trainingsdaten zu finden. "Extreme Wetterereignisse sind aber Ausreißer. Es ist also sehr schwierig, die Modelle drauf zu trainieren", sagt Bernabe-Moreno.

Die Forschenden suchen daher in den Daten gezielt nach solchen Extremereignissen, um dann "in verschiedenen Zeitfenstern um dieses Event" andere Daten zu finden, die für solch eine Situation charakteristisch sind.

"Zum anderen spiegeln die Daten, die wir haben, möglicherweise gar nicht die Zukunft des Klimas wider", ergänzt er. "Ein Hurrikan im Jahr 2024 kann zum Beispiel höhere Windgeschwindigkeiten haben als ein Hurrikan im Jahr 1933. Folglich könnten wir ihn nicht kommen sehen, wenn unsere Prognosen ausschließlich auf historischen Daten beruhen."

Wie soll dieses Problem gelöst werden? "Es tut mir leid. Auf viele dieser Fragen kann ich Ihnen nur sagen, dass wir das noch nicht wissen", sagt Bernabe-Moreno. "Es gibt noch viele offene Fragen. Haben wir die besten Daten genommen? Was für Beiträge zur Genauigkeit haben bestimmte Datensätze? Wie vermeiden wir Halluzinationen? Es gibt noch viele Unsicherheiten, aber unser Job ist, diese Unsicherheiten zu beseitigen."

(bsc)