Hauptsache, der Laden brummt
Man könnte meinen, für die IT-Branche ist alles nur ein Spiel. Ein wenig von einem Kleinkind hat sie ja: Stürzt sich hemmungslos auf jedes neue Spielzeug, schreit „Hier, hier, hier“, „Ich, ich, ich“, aber wenn es ans Zimmeraufräumen geht, wird es maulig: „Ich war das gar nicht“, „Jetzt bin ich müde“.
Fragt man nach dem derzeit schicksten und glänzendsten Spielzeug, lautet die Antwort unisono: KI, KI und noch mehr KI. KI in allen Farben und Formen, generative KI, symbolische, neuronale KI, KI als rationale, als visuelle, als manipulative Intelligenz und zur Mustervorhersage. Und überall nur pure Begeisterung, eine geradezu kindliche Freude über all die Spielzeuge und Möglichkeiten jetzt, die Möglichkeiten morgen und das schöne Leben, das uns die Möglichkeiten für übermorgen versprechen.
Haben wir da nicht was vergessen? Ach ja, KI kostet – kostet Geld, viel Geld. Von eskalierenden Kosten und unklarem Geschäftswert ist im aktuellen Gartner-Bericht zu lesen, der sich mit den Gründen abgebrochener GenAI-Projekte beschäftigt (siehe Seite 32). Und noch was? Ach ja, KI kostet vor allem Energie, viel Energie – und wie uns Mark Zuckerberg jetzt erklärte, doch viel mehr Energie als bisher gedacht (siehe Seite 11).
Zehnmal mehr Rechenleistung als sein Vorgänger soll Llama 4 brauchen. Dieser Vorgänger Llama 3.1 soll mit seinen 405 Milliarden Parametern 39,3 Millionen GPU-Stunden auf Nvidias H100-80GByte fürs Training benötigt haben, macht bei einer TDP von 700 W gut 27,5 GWh und 11 390 Tonnen CO₂e. Leider beziehen sich Metas Zahlen nur auf die GPUs. Eine ältere Studie zum 176 Milliarden Parameter umfassenden Modell BLOOM nimmt ein Verhältnis von 1 : 2 für GPUs zu den restlichen Servern an, macht gut 80 GWh und 34 000 t CO₂e. Das Gleiche rechnen wir noch mal für Storage, Netz, Kühlung und Leistungsverluste der Stromversorgung drauf, macht gut 160 GWh – ungefähr zwei Drittel dessen, was Deutschlands Kraftwerke in einer Stunde produzieren – und 68 000 t CO₂e.
Ach ja, war nicht in der letzten iX über Googles Umweltbericht zu lesen, dass der Scope 1 und 2, also der eigentliche Energieverbrauch, nur 25 Prozent des Fußabdrucks eines Cloud-RZs ausmacht, und der Scope 3, die vor- und nachgelagerte Wertschöpfungskette, mit 75 Prozent zu Buche schlägt? Also das Ganze mal 4, das wären 272 000 t CO₂e. Und mit Llama 4 das Ganze mal 10, also 2,7 Millionen Tonnen CO₂e.
Da das für Zuckerberg noch längst nicht das Ende der Fahnenstange ist und er lieber Kapazitäten aufbaut, bevor er sie benötigt, hat er Metas Investitionen in Server, Rechenzentren und Netzwerkinfrastruktur allein im zweiten Quartal 2024 um etwa 33 Prozent auf 8,5 Milliarden US-Dollar erhöht. Dass da keines der in den letzten Jahren von allen Cloud-Spielkindern so vollmundig propagierten Umweltschutzziele zu erreichen ist, versteht sich von selbst. Aber Klimaschutz war ja auch das Spielzeug von gestern. Wird Zeit, dass das mal jemand wegräumt.