Nachhaltigkeitsforscher: Umweltauswirkungen von KI sind ein großer dunkler Fleck

KI verschlinge viele Ressourcen und habe oft negative Folgen für Gesellschaft und Umwelt, meint das Projekt SustAIn. Die Politik müsse handeln.

In Pocket speichern vorlesen Druckansicht 30 Kommentare lesen
Education,Technology,Concept.,Edtech.,Ai,(artificial,Intelligence).

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Künstliche Intelligenz (KI) gilt als digitale Schlüsseltechnik für schier alle Lebensbereiche. Der immense Ressourcen- und Energieverbrauch einschlägiger Systeme wie ChatGPT mit massiven negativen Folgen etwa für Umwelt und Klimaschutz wird aber größtenteils vernachlässigt, monieren Forscher des Projekts SustAIn. Die von den EU-Gesetzgebungsgremien derzeit in einem stockenden Prozess verhandelte KI-Verordnung sollte ihnen zufolge erste europaweit geltende Pflichten bringen, KI-Produkte nachhaltiger zu gestalten. Das EU-Parlament habe einige wichtige Schritte in diese richtige Richtung unternommen. Die im Ministerrat vertretenen nationalen Regierungen seien aber dagegen, was sich als fatal herausstellen könnte und "fahrlässig" sei.

Im Rahmen der staatlich geförderten Forschungsinitiative haben die zivilgesellschaftliche Organisation AlgorithmWatch, das Institut für ökologische Wirtschaftsforschung und das DAI-Labor der TU Berlin an einem Nachhaltigkeitsindex für KI gearbeitet. Dabei geht es vor allem darum, wie die Folgen von KI-Systemen für das Klima und die Umwelt gemessen und transparent gemacht werden können. So sollen etwa Organisationen, die selbst KI entwickeln oder sie extern einkaufen, mit einem digitalen Werkzeug für Selbsteinschätzungen ihre einschlägigen Systeme auf den Nachhaltigkeitsprüfstand stellen können.

Derzeit sei der detaillierte Ressourcenverbrauch von KI ein großer dunkler Fleck, verdeutlichte Kilian Vieth-Ditlmann, stellvertretender Leiter des Politik-Teams von AlgorithmWatch, die Ergebnisse am Mittwoch: "Wir kennen die Emissionen digitaler Infrastrukturen, haben aber keine genauen Zahlen zu KI-Systemen." Deren CO₂-Ausstoß und Frischwasserverbrauch etwa seien nicht hinreichend transparent. Man könne aber nur schwer etwas regulieren, "was man nicht sieht", da die Daten fehlten. So gebe es aktuell viele Diskussionen über hypothetische künftige Gefahren der Technik, während die aktuellen schädlichen Auswirkungen meist ignoriert würden.

Anbieter großer Sprachmodelle wie GPT, LaMDA oder LLaMA gäben oft allenfalls an, wie hoch der direkte Energieverbrauch und die Emissionen für einen Trainingszyklus seien, schreiben die Forscher in ihrer am Mittwoch veröffentlichen 3. Ausgabe des Magazins SustAIn. Das sei völlig unvollständig. Sie verdeutlichen dies an vorliegenden Zahlen des Bloom-Modells. Durch den Stromverbrauch während der Trainingsphase sind demnach etwa 24,7 Tonnen CO₂-Äquivalente emittiert worden. Wenn aber die Hardware-Produktion und die Betriebsenergie in die Rechnung einflößen, verdoppele sich dieser Wert bereits. Darin sind allerdings noch nicht die kontinuierlichen Emissionen während der Anwendung des Modells enthalten. Erste Indizien wiesen darauf hin, dass diese "sehr hoch sind – sowohl bei der Herstellung der notwendigen Hardware für die Anwendung als auch bei ihrem Betrieb".

Unternehmen können laut dem Team bereits jetzt einen Großteil der Daten, die zur Beurteilung der Nachhaltigkeit von KI-Systemen notwendig sind, automatisch aufzeichnen und melden. Das seien etwa die Betriebsdaten von Computersystemen, also wie häufig Berechnungen durchgeführt werden und wie lange diese Prozesse dauern. Es mangele nicht an technischen Möglichkeiten zur Messung, sondern am politischen Willen, KI besser zu gestalten.

Zudem wird den Wissenschaftlern zufolge der Wasserfußabdruck von KI-Systemen – das für die Stromerzeugung und die Kühlung der Server verbrauchte Frischwasser – noch zu wenig beachtet. Selbst wenn der Bedarf für die Chip-Produktion außen vor bleibe, verdampften beim Training großer Sprachmodelle Millionen Liter Frischwasser für die Kühlung der Kraftwerke und Server. ChatGPT benötige zudem 500 Milliliter Wasser für einen einfachen Dialog mit 20 bis 50 Fragen und Antworten. Bei über 100 Millionen aktiven Nutzern sei der Verbrauch "schwindelerregend".

"Deshalb müssen wir über den gesamten Lebenszyklus hinweg messen, wie sich KI-Systeme auf das Klima auswirken – angefangen bei der Rohstoffgewinnung bis hin zur Entsorgung", fordern die Forscher. Nur so ließen sich "auf einer soliden Wissensbasis fundierte Entscheidungen treffen" und gezielte Maßnahmen ergreifen. Vieth-Ditlmann lobte, dass das EU-Parlament diesen Ansatz zumindest für Hochrisiko-Systeme und Basismodelle mittrage. Vor allem Deutschland und Frankreich plädierten dagegen für Selbstregulierung ohne konkrete Anforderungen für das Messen der Umweltauswirkungen. Auch Bundeswirtschaftsminister Robert Habeck (Grüne) ignoriere die berechtigten Forderungen der EU-Abgeordneten, obwohl diese nicht mit einem großen bürokratischen Aufwand verknüpft wären.

Das Team hat 13 übergeordnete Kriterien mit über 40 Indikatoren zur Bewertung der Nachhaltigkeit von KI-Systemen identifiziert und auf dieser Basis einen Fragebogen für Organisationen entworfen. Ein Beispiel: Das soziale Nachhaltigkeitskriterium "Selbstbestimmung und Datenschutz" erfordere es, Nutzern etwa über Opt-in- oder Opt-out-Funktionen die Kontrolle über die Verwendung ihrer persönlichen Informationen einzuräumen. In 48 bis 66 Fragen sollen Firmen oder öffentliche Stellen zudem etwa angeben, ob sie einem Verhaltenskodex folgen oder für die von ihnen genutzten Rechenzentren und die Hardware Nachhaltigkeitszertifizierungen vorliegen. Der Fragebogen wird nach einem Punkte- und Ampelsystem ausgewertet.

Zugleich kritisieren die Forscher personalisierte Werbung als "massenhaftes Sammeln von Daten durch digitale Identifikatoren und KI-basierte Systeme" mit schädlichen Wirkungen. Entsprechende Server verbrauchten viel Energie, verursachten CO₂-Emissionen und führten dazu, dass Menschen weitere ressourcenintensive Konsumgüter und Dienstleistungen kauften. Auch die damit verknüpften Datenverarbeitungsprozesse sollten daher zurückgefahren oder solche Anzeigenmodelle untersagt werden.

(bme)