Apple-Technik erklärt: Wie die GPU funktioniert

Grafikchips wurden für die Darstellung digitaler Inhalte erfunden, leisten heute aber viel mehr, als Texte und Bilder zur Anzeige an den Monitor zu liefern.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
, Sdecoret, stock.adobe.com

(Bild: Sdecoret, stock.adobe.com)

Lesezeit: 21 Min.
Von
  • Nico Ernst
Inhaltsverzeichnis

Neben der CPU ist die GPU das größte und teuerste Bauteil auf einem Logic Board – und das gilt auch, wenn diese Graphics Processing Unit wie im Falle von M1 oder A15 zusammen mit dem Hauptprozessor in einem System-on-Chip (SoC) integriert ist. Die Unterschiede zwischen dem M1 und dem M1 Pro und besonders dem M1 Max finden sich überwiegend bei der GPU – sie macht beim M1 Max rund ein Drittel der Chipfläche aus.

Mehr zum Apple M1:

Nicht nur Apple ist die GPU also immer wichtiger. Den Trend haben die beiden großen Grafikchiphersteller AMD und Nvidia gesetzt. Der A100 von letzterem Anbieter ist mit 826 Quadratmillimetern einer der größten je in Serie hergestellten Chips, selbst der für ein System-on-Chip sehr große M1 Max wirkt dagegen mit 432 Quadratmillimetern recht klein. Warum aber werden die GPUs immer größer? Die vereinfachte Antwort: Anders als bei den CPUs ist bei einer GPU mehr tatsächlich immer besser.

Das liegt an der Funktionsweise einer modernen GPU. Bei den schnellsten Modellen rechnen Tausende von völlig gleichen Shader-Rechenwerken gemeinsam. Mit den Kernen von CPUs lässt sich das nicht vergleichen, denn die Shader sind alleine zu gar nichts gut: Sie müssen in je nach Hersteller unterschiedlich angelegten Gruppen zusammengefasst und von dem integrierten Steuerprozessor sowie dem Grafiktreiber des Betriebssystems koordiniert werden, um sinnvolle Arbeit zu leisten.