ChatGPTs Stromverbrauch: Zehnmal mehr als bei Google

KI ist Ressourcen-hungrig. Wie sehr, zeigt eine Studie. Jede ChatGPT-Anfrage kostet zehnmal so viel Energie wie eine Google-Suche.

In Pocket speichern vorlesen Druckansicht 157 Kommentare lesen
A,Person's,Head,Covered,By,An,Ai-labeled,Dark,Cloud

(Bild: photoschmidt/ Shutterstock.com)

Lesezeit: 3 Min.

"Der Stromhunger künstlicher Intelligenz nimmt weiter zu, belastet die Stromnetze, erhöht die Treibhausgasemissionen und verschärft die Umweltprobleme", heißt es in einer Untersuchung von BestBrokers, die sich den Energieverbrauch von ChatGPT genauer angesehen haben. Eine einzige Anfrage an den KI-Chatbot soll demnach 2,9 Wattstunden verbrauchen. Das sei zehnmal mehr als eine reguläre Google-Suchanfrage an Strom verbrauche – die liege nämlich bei 0,3 Wattstunden.

Auf ein ganzes Jahr betrachtet hat ChatGPT derzeit einen Bedarf von 226,82 Millionen Wattstunden – nur für das Beantworten von Nutzeranfragen. Laut der Forscher ergeben sich daraus Kosten in der Höhe von rund 30 Millionen US-Dollar. Dabei wird von 100 Millionen aktiven Nutzerinnen und Nutzern pro Woche ausgegangen, die jeweils etwa 15 Anfragen pro Woche stellen. Das ist freilich noch keine besonders hohe Zahl an Anfragen. Dass eine Anfrage 0,0029 Kilowattstunden bedarf, hat das Electric Power Research Institute (EPRI) ausgerechnet.

Daraus ergibt sich auch, dass die täglichen Anfragen auf etwa 214 Millionen geschätzt werden. Diese bedürfen dann einer halben Million Kilowattstunden Energie. Das wiederum sei etwa 22.000-mal so viel wie ein durchschnittlicher US-Haushalt verbrauche (etwa 29 kWh am Tag). Das bedeutet laut Untersuchung auch: "Mit der Energie, die ChatGPT in einem Jahr verbraucht, könnten etwa 3,13 Millionen Elektrofahrzeuge mit einer durchschnittlichen Batteriekapazität von 72,4 kWh vollständig aufgeladen werden. Das sind fast 95 % aller Elektroautos auf den Straßen der USA Ende 2023." Die Autoren stellen weitere Vergleiche an: Der ChatGPT Jahresverbrauch entspricht demnach rund 140.000 Stunden Videostreaming und dem täglichen Aufladen von fast 50 Millionen Smartphones ein ganzes Jahr lang. Zu guter Letzt: "Der Energieverbrauch von ChatGPT für die Bearbeitung von Anfragen übersteigt den gesamten Stromverbrauch von zwölf kleinen Ländern und Territorien, darunter Gibraltar, Grenada, Dominica, Samoa und die Britischen Jungferninseln. Er könnte sogar ganz Finnland oder Belgien einen ganzen Tag lang mit Strom versorgen."

Den Autoren der Studie ist durchaus bewusst, dass Anfragen an ChatGPT sehr unterschiedlich in Länge und damit auch Energiekosten sein können. Sie sagen, grobe Berechnungen des Verbrauchs seien dennoch möglich. Funktionen, wie der neue Voice Mode von ChatGPT seien nicht bedacht, sie könnten den Verbrauch deutlich erhöhen.

(Bild: Best Brokers)

Zu den Nutzungskosten kommen die Kosten für die Entwicklung der KI-Modelle und Dienste hinzu. Best Brokers geht davon aus, dass das Training von GPT-4 100 Tage gedauert hat und 62.318,800 kWh verbraucht hat. Das entspricht Kosten in Höhe von 8,2 Millionen US-Dollar – allein für den Energieverbrauch. Das Handelsblatt und weitere Quellen rechnen mit Kosten in Höhe von insgesamt 78 Millionen US-Dollar für die Entwicklung von GPT-4. Sam Altman, CEO von OpenAI, hatte laut Wired sogar von mehr als 100 Millionen US-Dollar gesprochen.

Laut einer Berechnung der Stanford University ist das teuerste Modell Googles Gemini Ultra, dessen Entwicklung 191.400.000 US-Dollar gekostet haben soll. Metas Llama 2 liegt demnach bei niedrigen 3,9 Millionen US-Dollar.

(emw)