COâ‚‚-Bilanz von KI-Projekten ermitteln
Um Energiebedarf und Emissionen des Betriebs generativer KI-Modelle bei Cloud-Dienstleistern zu ermitteln, gibt es Werkzeuge, die den CO₂-Fußabdruck schätzen.
- Boris Ruf
KĂĽnstliche Intelligenz verbraucht viel Energie. Einerseits beim iterativen Training von KI-Modellen, bei dem man groĂźe Datenmengen verarbeitet und Millionen von Parametern justiert, andererseits aber auch beim Betrieb. Denn jede Abfrage aktiviert Millionen von Parametern, durch die das Modell den richtigen Output erzeugt. Im Gegensatz zu einem klassischen API-Zugriff, der in der Regel nur einen Wert aus einer Datenbank abruft, findet bei jeder Interaktion mit einem KI-Modell eine komplexe Operation statt. Ein Prozess, der aufgrund der nicht linearen Natur im Gegensatz zu einer Datenbankabfrage auch schwer durch Caching zu optimieren ist.
Eigene Modelle werden in der Praxis nur wenige KI-Anwender trainieren, und selbst das Feintunen kann zeitaufwendig und teuer sein. Zum freien Download stehen nur Open-Source-Modelle zur Verfügung. Diese lassen sich in der eigenen IT-Umgebung betreiben, was vollen Zugriff auf die Infrastruktur und detaillierte Messungen, auch des Stromverbrauchs, ermöglicht.
Der Betrieb der passenden Hardware hat dabei jedoch seine eigenen Tücken. Der unkomplizierteste Ansatz bleiben die Cloud-Angebote, die auch die beliebtesten proprietären KI-Modelle enthalten und die Anbieter auf Pay-per-Token-Basis abrechnen. Der Zugriff erfolgt über eine API, der Stromverbrauch erfolgt in einem möglicherweise weit entfernten Rechenzentrum – und macht sich nicht auf der eigenen Stromrechnung bemerkbar.
Das war die Leseprobe unseres heise-Plus-Artikels "CO₂-Bilanz von KI-Projekten ermitteln". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.