Missing Link: Künstliche Intelligenz und Nachhaltigkeit – und ewig grüßt der Rebound-Effekt
Die Digitalkonzerne versprechen eine bessere Welt – mit Hilfe von Künstlicher Intelligenz. Doch wie sieht es aus mit dem Energiebedarf und dessen Fortschritt?
Was ist dran am Versprechen, durch digitale Technologien würde unsere Welt nicht nur besser, schneller und demokratischer, sondern auch noch nachhaltiger? Stichwort: Videokonferenz statt Flug in der Business-Klasse? Oft passiert das Gegenteil, mögliche oder tatsächliche Einsparungseffekte werden durch veränderte oder vermehrte Nutzung zunichte gemacht oder sogar ins Negative verkehrt, das nennt man dann Rebound-Effekt.
Wie sieht es mit Künstlicher Intelligenz aus, einer der gegenwärtig lautesten Trends, mit dem insbesondere die Digitalkonzerne zu beiden Seiten des Pazifiks die Welt mal wieder verbessern, sprich weiter beschleunigen und gleichzeitig energetisch verschlanken wollen?
Anmerkung aus aktuellem Anlass: Hier wird viel die Rede sein von exponentiellem Wachstum im Zusammenhang mit Technologie. Derzeit beschäftigt uns vorrangig ein ebenfalls exponentiell sich verbreitendes Phänomen, die Corona-Pandemie, neben der Erderwärmung ein weiteres globales Phänomen, dass der Menschheit zu entgleiten droht. Vielleicht gibt diese Krise Anlass zur Hoffnung insofern, als dass eine Infragestellung des höher, weiter, schneller im Kapitalismus in Zukunft stärker Gehör finden mag.
Der Energiehunger der KI
Applied Materials ist einer der größten Zulieferer der Halbleiterindustrie, sein Chef Gary Dickerson warnte kürzlich auf einer Konferenz in San Francisco, bis 2025 könnten KI-Prozesse zehn Prozent des weltweiten Energieverbrauchs von Rechenzentren beanspruchen, wenn bis dahin keine wesentlichen Innovationen bei Materialien, Chipherstellung oder Design gelängen – derzeit sind sie für gerade einmal 0,1 Prozent verantwortlich.
Dickerson versicherte, das sei ein worst-case Szenario, die grundsätzliche Einschätzung wird in der Branche aber durchaus geteilt. Denn das Trainieren und Ausführen von Dingen wie Deep-Learning-Modellen bringt das Bearbeiten großer Datenmengen mit sich, was Speicher und Prozessoren extrem beansprucht. Eine Studie der Forschungsgruppe OpenAI besagt, dass sich der Rechenaufwand für große KI-Modelle bereits alle dreieinhalb Monate verdoppelt – es handelt sich also um eine exponentielle Steigerung, ähnlich wie bei Moores Gesetz.
Damit ein Kind lernt, was ein Eichhörnchen ist, reicht meist eine Begegnung mit einem einzigen Exemplar. Damit eine Software zuverlässig Eichhörnchen identifizieren kann, beispielsweise auf Fotos, muss sie mit Millionen Trainings-, Demo, und Testbildern in vielen Iterationsschleifen gefüttert werden, bis sie dann schlussendlich eine Trefferquote erreicht, die zufriedenstellend und mit der von menschlichen Vergleichspersonen vergleichbar ist, typischerweise oberhalb von 97 Prozent.
Wissenschaftlerinnen der Universität von Massachusetts haben gerade berechnet, das Training eines einzigen solchen Modells verursache den gleichen CO2-Ausstoss wie 315 Flügen zwischen San Francisco-New York, nämlich 284 Tonnen. Insbesondere drei Trends werden diesen Aufwand voraussichtlich in Zukunft noch verstärken:
- Immer mehr Audio- und Videodaten werden als Trainingsdaten verwendet, diese ziehen einen erheblich höheren Speicher- und Verarbeitungsaufwand nach sich als Texte und Bilder.
- In vielen neuen Anwendungsfeldern, wie etwa dem autonomen Fahren, wird eine Vielzahl an Sensoren verbaut, die einen breiten Datenstrom liefern, der zum Training der entsprechenden Modelle verwendet wird.
- Durch die Etablierung des 5G-Standards in der mobilen Datenübertragung werden immer größere Bandbreiten beim Transport von und zu Rechenzentren möglich.
Die Lösung: noch mehr KI!
Was sagt die Industrie zu den Warnungen vor immer größerem Energieverbrauch? Einige Ansätze, die derzeit diskutiert werden, sind folgende:
- Bei allen großen Cloud-Anbietern geht der Trend zur Spezialisierung: Statt dass Rechenzentren eine breite Palette an Aufgaben erledigen, werden diese zunehmend ausschließlich für Spezialaufgaben eingesetzt, das nennt sich dann Hyperscale.
- Viele Firmen entwickeln spezialisierte Computerchips für KI-Anwendungen, so hat z.B. Tesla einen eigenen Chip für autonomes Fahren entwickelt. Fortschritte bei der Kühlung und anderen Technologien wird ebenfalls noch als Potenzial gesehen.
- Tech-Konzerne arbeiten an Mikro-KI-Lösungen, die lokal auf Geräten laufen. Ziel ist es, bestehende Deep-Learning-Modelle zu verschlanken, ohne deren Fähigkeiten zu schmälern. Seit Mai letzten Jahres wird Google Assistant auf den Telefonen der Nutzer ausgeführt, ohne dass Anfragen an einen Remote-Server gesendet werden.
- Größte Hoffnungen setze die Branche jedoch auf KI selbst. Google sei es mit Hilfe von maschinellem Lernen gelungen, ihre Kühlkosten um 40% zu senken, heißt es immer wieder.
KI soll also die Probleme lösen helfen, die sie selbst verursacht hat, das erinnert an Baron Münchhausen, dem bekanntlich gelungen ist, sich am eigenen Schopfe aus dem Sumpf zu ziehen. Mit derlei technologischen Zirkelschlüsse sind wird endgültig in einer soluzionistischen Feedbackschleife gelandet. Als "Solutionism" bezeichnet Evgeny Morozov die Vorstellung, dass Technologie mit dem richtigen Code, den richtigen Algorithmen und Robotern alle Probleme der Menschheit wird lösen können. Wen das nicht überzeugt, der wird dann darauf verwiesen, ein Großteil des Stroms stamme eh aus erneuerbaren Energien. So argumentiert auch Tesla, wenn es um deren Batterien für Elektroautos geht.