KI-Update Deep-Dive: Stromfresser Künstliche Intelligenz

Wie stark treibt der Boom generativer KI den Strombedarf der IT in die Höhe?

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 2 Min.

In Zeiten hoher Strompreise und des Klimawandels ist der Stromverbrauch eines Gerätes immer von Interesse. Erst recht, wenn es sich um hunderte oder tausende Geräte handelt – nämlich energiehungrige Prozessoren, die sowohl für das Training als auch die Anwendung generativer Künstlicher Intelligenz gebraucht werden. Wie viel Strom KI tatsächlich frisst und wie die Unternehmen mit den Kosten dafür umgehen, erklärt Christof Windeck aus dem Hardware-Ressort der c’t in der neuesten Ausgabe des KI-Updates.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

"Zunächst einmal ist KI nicht gleich KI", erklärt Windeck. "Mit diesem Begriff bezeichnet man ganz unterschiedliche Dinge, die kaum mehr Gemeinsamkeiten haben, als dass sie Daten verarbeiten. Also schlucken sie auch unterschiedlich viel Strom." Ein KI-Algorithmus, der das Pageranking einer Suchmaschine steuert oder Bilder der Handykamera aufhübscht, verbraucht nicht wesentlich mehr Strom als andere Apps.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Bei generativer KI ist es vor allem das Training, was derzeit extrem energiehungrig ist. "Beim Training lernt das Modell anhand oft gigantischer Testdatensätze, was es später während der Nutzung genau tun soll." Damit man die großen Sprachmodelle schnell trainieren kann, werden mehrere hundert Server mit mehreren tausend KI-Beschleunigern zusammengeschlossen. "Mit dem Strom, der für etwas in der Größenordnung von GPT-3 benötigt wird, könnte man ein Einfamilienhaus 30 Jahre lang heizen", gibt Windeck zu bedenken. Darum investieren die größten KI-Betreiber sehr viel in regenerative Energie.

Ein anderer Weg, Strom beim Training zu sparen, wären laut Windeck kleinere Modelle: "Weil sie für das Training weniger als 1000 GPU-Stunden brauchen, ließen sie sich eben auch in kürzeren Abständen mit neuen Daten trainieren." Zum Beispiel für eine Firma, die Support anbietet und Anfragen für ein neues Produkt mit einem KI-Algorithmus beantworten möchte, wäre das ein attraktives Modell. "Die Aktualität ist da durchaus ein interessantes Argument."

Später in der Nutzung, beim sogenannten Inferencing, kommt es sehr auf die Art der Anfrage an das System an, wie viel Rechenleistung dafür verbraucht wird, erklärt der Hardware-Experte. Langfristig gesehen würden sich nur Geschäftsmodelle durchsetzen, bei denen der Energiebedarf sich refinanziert durch das, was die Leute bereit sind, dafür herzugeben – "ob Du mit Daten bezahlst oder mit Werbung oder wie auch immer."

(igr)