Bit-Rauschen: OpenAI-Chef Altman will die Chipbranche umkrempeln

Die KI-Firma OpenAI giert nach Rechenleistung und spricht über Billioneninvestitionen. Intel patzt bei seinen Compilern und kündigt 1,4-Nanometer-Technik an.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
,
Lesezeit: 9 Min.
Inhaltsverzeichnis

Der KI-Hype galoppiert weiter: Sam Altman, Chef der ChatGPT-Firma OpenAI, will angeblich das ganz große Rad drehen. Nach Informationen des Wall Street Journal sucht er Investoren, um mit der wahnsinnigen Summe von 7 Billionen US-Dollar die Halbleiterbranche umzukrempeln. Dabei geht es wirklich um Billionen, nicht um eine Fehlübersetzung von "billion". Diese Geschichte stützt sich zwar nur auf die üblichen "informierten Kreise", aber trotzdem lässt sich einiges daraus lesen.

Denn bisher verdienen viele Entwickler und Betreiber von großen KI-Modellen damit noch kein Geld. So ist beispielsweise OpenAI einerseits stolz darauf, innerhalb von nur zehn Jahren auf über 2 Milliarden US-Dollar Umsatz hochgeschossen zu sein. Experten schätzen jedoch, dass diesen Einnahmen ein Mehrfaches an Ausgaben gegenübersteht. Erst in einer glorreichen Zukunft will OpenAI mit dann verbesserten KI-Modellen richtig absahnen.

Der Haken: Bisher fehlt die Rechenleistung. Nvidia kann gar nicht genug KI-Rechenbeschleuniger liefern und die der Konkurrenz waren lange nicht gut genug. Wenn OpenAI für den Erfolg aber tatsächlich viel mehr Chips braucht, dann wird es schwierig. Denn mal eben so auf die Schnelle lässt sich auch mit sehr viel Geld keine bessere Halbleiterbranche aus dem Boden stampfen. Vom Reißbrett bis zur Chip-Fab dauert es Jahre, ganz abgesehen von den nötigen Fachleuten, Zulieferern und Materialien. Und der Nvidia-Erfolg kam nicht etwa über Nacht, sondern in diesem Jahr feiert die CUDA-Schnittstelle zur Programmierung der Rechenbeschleuniger schon ihren 17. Geburtstag.

Somit ist bisher nicht erkennbar, in welchem Zeitrahmen sich der Rechen- und Ressourcenbedarf für immer größere KI-Modelle mit den damit erzielbaren Einnahmen in lukrativen Einklang bringen lassen wird.

Die Praxistauglichkeit der KI enttäuscht bisher, wenn man als Beispiel auf den Microsoft Copilot blickt, hinter dem ja die Technik der eng mit Microsoft verbandelten Firma OpenAI steckt. Nach den Erfahrungen der c’t-Kollegen Stefan Wischner und Jan-Keno Janssen fällt der teuer zu bezahlende Copilot zurzeit selbst mit Stützrädern noch vom Fahrrad – er funktioniert schockierend schlecht.

Trotzdem gelingt es Microsoft, sich als KI-Innovator zu verkaufen und bekam daher aus der Politik viel Lob für die Ankündigung, satte 3,2 Milliarden in Deutschland zu investieren, siehe Seite 16. Das Geld soll unter anderem in riesige Rechenzentren im Rheinischen Braunkohlerevier fließen. Am Ende fließt das meiste davon jedoch wohl wieder in die USA, denn das Teuerste an den Rechenzentren dürften die Server sein und darin wiederum die Halbleiter von AMD, Intel und Nvidia.

Microsoft gehört zu den großen Nvidia-Kunden und hofft auf bevorzugte Belieferung mit den knappen KI-Beschleunigern. Außerdem hat Microsoft den eigenen KI-Chip Maia 100 entwickelt, der sich sogar fürs Training von KI-Modellen eignen soll.

Die Microsoft-Rechenzentren in Nordrhein-Westfalen sollen "mehrere Hundert" Megawatt (MW) Strom verbraten, das ist eine bisher in Deutschland noch seltene Größenordnung. Unter anderem in Berlin und Hanau sind aber Rechenzentren ähnlicher Dimension geplant.

Bisher ist kein Ende des KI-Hypes in Sicht. Der Börsenwert von Nvidia liegt bei über 1,8 Billionen US-Dollar, zwischenzeitlich war er höher als der des Handelsgiganten Amazon. Sogar die Aktie des Serverzulieferers Supermicro durchbrach kurz die 1000-Dollar-Marke.

Intels Fertigungssparte "Intel Foundry" setzt voll auf KI und zog erste Aufträge fürs Chip-Packaging an Land. Man munkelt, von Nvidia, weil TSMC keine Kapazitäten mehr hat. Vor allem konnte Intel melden, für Microsoft mindestens einen Chip mit Intel-18A-Technik fertigen zu dürfen. Man habe mittlerweile Vorverträge im Wert von insgesamt rund 15 Milliarden US-Dollar eingesammelt. Ab 2026 will Intel auch Chips mit nominell kleinsten Strukturen von 14 Ångström beziehungsweise 1,4 Nanometern fertigen, also mit der Technik namens "Intel 14A".

Intels Fertigungssparte will ab 2026 Chips mit 1,4-Nanometer-Strukturen produzieren, genannt Intel A14. TSMC plant die eigene 14A-Technik, Samsung ab 2027 SF1.4.

(Bild: Intel)

Zur KI-Euphorie passt schlecht, dass Intel die neue Chipfabrik in Ohio etwas später in Betrieb nehmen will als zuvor geplant. Auch TSMC und Samsung strecken angeblich die Zeitpläne für ihre neuen US-Fabs. Konkrete Gründe nennen die Firmen zwar nicht, aber Branchenkenner schätzen die Nachfrage in vielen Bereichen schwächer ein als erhofft, aber die Baukosten sind hoch.

Die Intel-Fab in Magdeburg wird vermutlich sehr ähnlich aufgebaut sein wie die in Ohio. Für Magdeburg holt Intel gerade die ersten Baugenehmigungen ein. Gegner des Projekts dürften die Gelegenheit nutzen, um ihre Kritik vorzubringen. Ein Fertigungswerk braucht nun einmal Ressourcen wie Energie, Wasser und Material, verursacht Verkehr und stößt auch Gase aus. Das passt nicht jedem Anwohner, trotz der schönen Arbeitsplätze.

Intel kämpft derzeit noch an anderen Fronten: Wie in c't berichtet, verlor man in Deutschland eine Patentklage gegen die US-Firma R2 Semiconductors. Darin ging es um Schutzrechte für interne Spannungsregler in Intel-Prozessoren. In den USA kam R2 damit nicht durch, aber in Deutschland darf Intel einige ältere Prozessoren bis zur Generation Alder Lake (Core i-12000) nicht mehr verkaufen. Das ist zwar ärgerlich, aber laut Intel kein großer finanzieller Schaden.

Peinlicher ist für Intel, dass das Industriegremium Standard Performance Evaluation Corporation (SPEC) eine Benchmark-Schummelei rügte. Es geht um mehr als 1000 SPEC-CPU2017-Resultate, die nun als ungültig gebrandmarkt wurden. Laut SPEC baute Intel in eine ältere Version des Compilers oneAPI-DPC++/C++ unzulässige Optimierungen ein. Dieser Trick beschleunigte den Teilbenchmark namens xalancbmk dermaßen stark, dass das Gesamtergebnis eines SPEC-CPU2017-Laufs um 4 bis 9 Prozent anstieg. Dabei habe die Optimierung außerhalb des Benchmarks keine nennenswerten Effekte, beschleunigt also andere Programme nicht auch.

Mehr zu SPEC:

SPEC CPU2017: Ergebnisse

Beispiel für SPEC-CPU2017-Ergebnis mit unzulässigem Intel-Compiler

  • "SPEC has ruled that the compiler used for this result was performing a compilation that specifically improves the performance of the 523.xalancbmk_r / 623.xalancbmk_s benchmarks using a priori knowledge of the SPEC code and dataset to perform a transformation that has narrow applicability. In order to encourage optimizations that have wide applicability (see rule 1.4 https://www.spec.org/cpu2017/Docs/runrules.html#rule_1.4), SPEC will no longer publish results using this optimization. This result is left in the SPEC results database for historical reference."

Weiteres Beispiel

Die Schummelei traf vor allem SPEC-Benchmarkwerte der Anfang 2023 vorgestellten Xeon-SP-Typen der vierten Generation Sapphire Rapids. Beim Nachfolger Emerald Rapids kam durchweg eine neuere Compilerversion ohne verbotene Optimierungen zum Einsatz. Als Strafe und zur Abschreckung löscht die SPEC die falschen Benchmarkdaten nicht, sondern belässt sie einem Vermerk für jeden sichtbar in der Datenbank unter spec.org.

Zum Patchday am 13. Februar meldete AMD im "Security Bulletin" AMD-SB-7009 insgesamt vier Sicherheitslücken, die fast alle Prozessoren mit Zen-Kernen betreffen: Ryzen ab Ryzen 3000, Athlons und Epycs ab der ersten Generation. Mehrere davon gehören zur höchsten Risikostufe "High". Die Flicken gegen die Lücken kommen in Form von BIOS-Updates, in denen jüngere Versionen der AMD-Firmwarekomponente AGESA stecken. Für einige Ryzen-Mainboards wurden die Patches bereits mit BIOS-Updates Ende 2023 ausgespielt, aber für viele Serverboards kamen sie jetzt erst heraus.

Die Fehler hatte die US-Sicherheitsfirma IOactive aufgedeckt. Sie betreffen nicht die Rechenwerke der Prozessoren, sondern den Zugriff auf den Flash-Speicher für das UEFI-BIOS der Mainboards. Die Firmware muss unzulässige Zugriffe darauf blockieren, damit sich der BIOS-Code nicht manipulieren lässt. Die meisten der Lücken lassen nur bei physischem Zugriff auf betroffene Systeme ausnutzen und teilweise sind dazu sogar Admin-Rechte nötig. Bei Desktop-PCs im Büro oder daheim sind sie also weniger gefährlich als bei Notebooks, die sensible Daten speichern. Vor allem bei Servern gilt ein von böswilligen Admins manipulierbares UEFI-BIOS als hohes Sicherheitsrisiko.

Anfang Februar veröffentlichten AMD-Programmierer neue Patches für kommende Linux-Kernels. Diese Codeschnipsel beschreiben Funktionen der ab Herbst erwarteten Ryzen- und Epyc-Prozessoren mit Zen-5-Kernen. Aus den Linux-Patches lasen Experten heraus, dass die AVX-Einheiten der Zen-5-Kerne manche Befehle deutlich schneller verarbeiten können als ihre Vorgänger. Allerdings lässt sich daraus kaum ableiten, wie stark die Performance dadurch steigen wird.

Doch Mitte Februar erschienen angebliche Benchmark-Messungen von frühen Zen-5-Mustern. Demnach legte die Geschwindigkeit im Singlethreading-Lauf des Cinebench um rund 40 Prozent zu. Das wäre ein enorm hoher Leistungssprung, der bei einem CPU-Generationswechsel bisher selten aufgetreten ist. Wer die Messungen durchgeführt hat und unter welchen Bedingungen, ist aber unklar. Es handelt sich also um Spekulationen, die jedoch die Vorfreude auf einen heißen Hardwareherbst anheizen.

ARM kündigt die nächste Generation der "Neoverse"-Kerne für Serverprozessoren an, und zwar in den Varianten V3, N3 und E3. Sie sollen deutlich schneller rechnen als ihre Vorgänger N2 und V2. Letztere setzen derzeit unter anderem Nvidia (Grace, 72 × Neoverse V2), Amazon (Graviton4, 96 × V2) und Microsoft (Cobalt 100, 128 × N2) ein. Amazon Graviton3, Ampere Altra/Altra Max und der Rhea-Prozessor der European Processor Initiative (EPI/SiPearl) nutzen noch Neoverse N1/V1.

ARM offeriert stärkere CPU-Kerne für Server, nämlich Neoverse V3, N3 und E3. Ein Neoverse-V3-Prozessor soll rund 50 Prozent schneller sein als einer mit N2-Kernen.

(Bild: ARM)

Zum Bit-Rauschen gibt es regelmäßig auch einen Podcast.

c’t – Europas größtes IT- und Tech-Magazin

Alle 14 Tage präsentiert Ihnen Deutschlands größte IT-Redaktion aktuelle Tipps, kritische Berichte, aufwendige Tests und tiefgehende Reportagen zu IT-Sicherheit & Datenschutz, Hardware, Software- und App-Entwicklungen, Smart Home und vielem mehr. Unabhängiger Journalismus ist bei c't das A und O.

(ciw)