KI-Update Deep-Dive: Deutschlands Weg zur KI-Infrastruktur
Deutsche KI-Rechenzentren sollen eine Alternative zu US-Anbietern bieten. Doch der Bau einer souveränen Infrastruktur ist von vielen Unbekannten geprägt.
Souveräne KI-Leistung aus dem Untergrund
Rechenzentren sind der Motor der aktuellen KI-Entwicklung, doch der Wettbewerb ist hart. Während US-Konzerne wie Amazon, Google, Meta und Microsoft zusammen rund 650 Milliarden Dollar in KI-Infrastruktur investieren wollen – eine Summe, die den deutschen Bundeshaushalt übersteigt – stellt sich die Frage, wie Deutschland in diesem Feld mithalten kann. Eine Antwort darauf soll der Bau heimischer Rechenzentren sein. Eines davon wurde in diesem Monat von der Telekom in München eröffnet. Christof Windeck, Redakteur beim c't Magazin, war vor Ort und gibt in der neuen Folge des KI-Updates einen Einblick in die Pläne für den Standort Deutschland und die damit verbundenen Herausforderungen.
Die Telekom wirbt damit, dass Daten, die Kunden in dieser souveränen, deutschen KI-Cloud verarbeiten, vor dem Zugriff ausländischer Behörden geschützt seien. Das Rechenzentrum, das in Kooperation mit dem Chiphersteller Nvidia betrieben wird, soll im Endausbau mit rund 10.000 KI-Beschleunigern ausgestattet sein. Laut Telekom entspreche das dann „ungefähr 50 Prozent der gesamten KI-Rechenleistung, die derzeit in Deutschland verfügbar ist“, sagt Windeck. Das zeige jedoch vor allem, wie wenig öffentlich buchbare KI-Rechenleistung es in Deutschland bisher gibt.
Eine weitere Besonderheit ist der Standort. Das Rechenzentrum wurde in nur sechs Monaten in einem bestehenden, sechsstöckigen Keller eines ehemaligen Bankgebäudes im Münchner Tucherpark errichtet. Gekühlt wird es unter anderem mit Wasser aus dem nahegelegenen Eisbach, sagt Windeck. Ein Wehr staut den Eisbach, um das Kühlwasser für das unterirdische Rechenzentrum zu entnehmen, wobei gesetzliche Vorgaben zum Schutz der Umwelt eingehalten würden.
KI fĂĽr die Industrie statt fĂĽr den Massenmarkt
Die Telekom und Nvidia zielen mit dem Angebot nach eigener Aussage auf „Industrial AI“. Es gehe also nicht darum, große Sprachmodelle wie die von OpenAI zu entwickeln, sondern KI-Leistung für Industriepartner bereitzustellen. „Für diese europäischen oder auch deutschen Hersteller, die das mal nutzen sollen, kann eben auch diese digitale Souveränität sehr wichtig sein“, meint der c't-Redakteur. Als möglicher Kunde war etwa Siemens bei der Eröffnung vertreten. Ein bereits konkretes Projekt ist die Initiative Soofi, die das Rechenzentrum für die Entwicklung eines souveränen europäischen Sprachmodells nutzen will. Dieses LLM soll europäischen Unternehmen als Basis für eigene KI-Anwendungen dienen. Im Vergleich zu anderen großen Sprachmodellen wie OpenAIs GPT-4 ist es aber deutlich kleiner mit nur einem Bruchteil der Parameter.
Ein zentrales Problem, das Windeck erklärt: „Es gibt einfach die Nachfrage in Europa überhaupt nicht.“ Viele deutsche Unternehmen seien noch zurückhaltend. Der Telekom-Vorstandsvorsitzende Tim Höttges habe bei der Eröffnung betont, man gehe bewusst „in Vorleistung“, um ein souveränes Angebot zu schaffen, nachdem sich viele Kunden über die Abhängigkeit von US-Anbietern beklagt hatten.
Das Rennen um die europäischen KI-Fördermittel
Laut Windecks Einschätzung verfolgt die Telekom mit dem schnellen Aufbau des Rechenzentrums auch ein strategisches Ziel: „Mit diesem Rechenzentrum bewirbt sich die Telekom natürlich“ um Fördermittel aus dem Programm der „European AI Gigafactories“, mit dem die EU den Aufbau von KI-Infrastruktur unterstützen will. „Mindestens eine muss nach Deutschland kommen“, zitiert Windeck den Telekom-Chef.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Im Vergleich zu anderen geplanten Projekten in Deutschland, wie dem der Schwarz-Gruppe (Lidl, Kaufland) im brandenburgischen Lübbenau mit 200 Megawatt, oder gar in den USA, wo von mehreren Gigawatt die Rede ist, sei das Münchner Rechenzentrum mit einer geplanten Leistung von bis zu 20 Megawatt eher klein. Zudem bauen auch die großen US-Anbieter wie Microsoft und Amazon ihre Kapazitäten in Deutschland massiv aus.
Das Konzept der "Industrial AI" für spezialisierte Anwendungen im deutschen Mittelstand klingt zwar vielversprechend. Doch ob die Investitionen in die teure Infrastruktur sich am Ende auszahlen, ist ungewiss. Das grundlegende Problem fasst Christof Windeck zusammen: "Es bleibt eigentlich so, dass man nicht genau weiß, wer wie wirklich Geld damit verdienen kann, weil man noch nicht genau weiß, wer wie was tatsächlich dafür bezahlt." Solange erfolgreiche Anwendungsfälle und Geschäftsmodelle im Verborgenen bleiben, wird die Zukunft der souveränen KI-Infrastruktur in Deutschland ein Wettlauf mit vielen Unbekannten bleiben.
(igr)