AMD bestätigt Zen-6-Prozessoren für 2026 und nennt erste Zen-7-Details
Die AMD-Führungsriege präsentierte auf dem Financial Analyst Day viele Pläne für die kommenden Jahre. Vieles blieb unkonkret, aber es gab spannende Details.
Roadmap: AMD-Prozessorkerne bis Zen 7
(Bild: AMD)
Nach den hervorragenden Ergebnissen des dritten Quartals 2025 präsentierte sich die AMD-Führungsmannschaft um Lisa Su auf dem Financial Analyst Day selbstbewusst und bester Laune. Weil sich Analysten derzeit vor allem für KI-Themen interessieren, spielten diese eine große Rolle. Überraschungen versteckten sich aber anderswo.
So erwähnte AMD erstmals öffentlich die CPU-Kerngeneration Zen 7, die wohl ungefähr 2028 auf Zen 6 folgen könnte. Zen 6 ist weiterhin für 2026 geplant, das ist ebenso wie die Fertigung mit TSMC N2 – später wohl auch bei TSMC in den USA – längst bekannt.
Leider gab es nur spärliche Details zu Zen 7, konkret erwähnt wurden zusätzliche KI-Datentypen und vor allem eine "New Matrix Engine". Dabei dürfte es sich um die gemeinsam mit Intel in der x86 Ecoystem Advisory Group erdachten Advanced Matrix Extensions for Matrix Multiplication (ACE) handeln.
Videos by heise
KI-Beschleuniger für CPU-Kerne
In aktuellen x86- und ARM-Prozessoren für Notebooks und Desktop-PCs stecken außer CPU-Kernen und einer eingebauten GPU (Integrated Graphics Processor, IGP) auch spezialisierte KI-Rechenwerke alias Neural Processing Units (NPUs). Die NPUs sind dabei typischerweise auf maximale Effizienz ausgelegt, sie sind für nicht allzu anspruchsvolle KI-Algorithmen gedacht, die im Hintergrund mitlaufen und nicht zu viel Strom fressen sollen. Etwa Bildverbesserung in Videokonferenzen, Klangverbesserung von Audio, Transkription.
Die spezialisierten KI-Rechenwerke sind meistens Matrix-Multiplikatoren, im Falle der NPUs für kurze Ganzzahldatentypen wie Int8 oder Int16, manchmal auch FP16-Gleitkommazahlen.
Die maximale KI-Rechenleistung liefern bei den meisten aktuellen Prozessoren die Shader oder Tensoreinheiten der IGP. Manche verarbeiten auch genauere KI-Datentypen wie BF16.
Apple hat nun beim M5 auch den IGP-Kernen jeweils KI-Rechenwerke eingebaut.
Intel liefert aktuelle Xeon-Versionen bereits mit Advanced Matrix Extensions (AMX) in den CPU-Kernen. Für Client-CPUs gibt es AMX aber noch nicht; dort wird aber mit einer kommenden CPU-Generation AVX10.1 erwartet. Auch diese Vektor-Rechenwerke eignen sich für bestimmte KI-Algorithmen und verarbeiten Datentypen wie Int8 und BF16.
Einheitliche KI-Rechenwerke für x86
Eine öffentliche Spezifikation der Advanced Matrix Extensions for Matrix Multiplication (ACE) gibt es anscheinend bisher nicht. Doch laut einer AMD-Pressemeldung sollen ACE die Fähigkeiten für Matrixmultiplikationen standardisieren, um Entwicklern "nahtlose" Programmiermöglichkeiten für unterschiedliche Prozessoren bereitzustellen, und zwar von Mobil- bis zum Serverprozessor.
Neue Sicherheitsfunktion ChkTag
In derselben erwähnten Pressemeldung kündigen AMD und Intel auch die Funktion x86 Memory Tagging alias ChkTag an. Laut einem Blogbeitrag von Intel scheint es sich dabei um ähnliche Funktionen zu handeln, wie sie Apple in Form von Memory Integrity Enforcement (MIE) in seine jüngsten ARM-Chips für Smartphones, Tablets und Notebooks eingebaut hat, also in A19 und A19 Pro (iPhone 17, 17 Pro, 17 Pro Max, Air). Vermutlich beherrscht auch der M5 MIE, doch bisher ist dazu keine Information auf dem Apple-Server zu finden – obwohl Apple MIE für "die wichtigste Verbesserung der Speichersicherheit in der Geschichte der Betriebssysteme für Privatleute" hält (the most significant upgrade to memory safety in the history of consumer operating systems).
MIE nutzt unter anderem eine Erweiterung der 2018 mit ARMv8.5 angekündigten Memory Tagging Extension (MTE) namens Enhanced MTE (EMTE), das ARM als optionales Feature ab ARMv8.7 beschreibt (FEAT_MTE4, Enhanced Memory Tagging Extension).
(ciw)