Spielekonsole Xbox Series X: 8K-Gaming mit Hardware-Tricks
Seite 2: Hybrid-Raytracing
AMD erweitert die Textureinheit (Texture Mapping Unit, TMU) um einen Raytracing-Beschleuniger: Eine TMU kann so wahlweise vier Texturen pro Takt filtern oder vier Strahlenoperationen pro Takt berechnen. Die Angaben passen zu einem frĂĽheren AMD-Patent (PDF), das einen Hybridansatz unter Einbeziehung der Shader-Kerne beschreibt.
Demnach schickt ein Shader-Kern eine Beschleunigungsstruktur (Bounded Volume Hierarchy, BVH) samt Hinweisadresse (Pointer) zur Textureinheit, deren Ray-Intersection-Engine einen festgelegten Strahlenbereich mithilfe von Daten aus dem Cache auf Kreuzungspunkte testet. Das Ergebnis sendet die Textureinheit zurück zum Shader-Kern, der daraufhin den nächsten zu testenden Strahlenbereich übermittelt (BVH-Traversal).
Für die Leistungsfähigkeit nennt Microsoft Kenngrößen von 380 Mrd. Raytracing-Ops pro Sekunde für Box-Nodes innerhalb der BVH (52 CUs × 4 Operationen × 1825 MHz) beziehungsweise 95 Mrd. Raytracing-Ops pro Sekunde bei den Triangle-Nodes. Dabei handelt es sich aber um den maximalen theoretischen Durchsatz – mit Nvidias Ansatz lassen sich die Zahlen nicht direkt vergleichen.
GPU-Aufbau der Xbox Series X (3 Bilder)
(Bild: Microsoft)
Flexibilität zulasten der Leistung
Unterm Strich erscheint AMDs Implementierung flexibler als Nvidias Fixed-Function-Lösung der Grafikkartenserie RTX 2000. Die Anpassungen an den Textureinheiten sollen nur wenig Fläche kosten, Raytracing-Berechnungen aber um den Faktor 3 bis 10 beschleunigen. Ohne Raytracing liegt kaum Hardware brach, da die Compute Units dann schlicht wie bisher arbeiten und etwa die Farbabstufungen von Materialoberflächen berechnen.
Auf der Schattenseite müssen Entwickler genau abwägen, wie sie die Ressourcen verteilen möchten. Die Erweiterung der Textureinheiten ergibt Sinn, da Strahlenoperationen zu Beginn eines Bildes starten und die Texturierung erst zum Schluss erfolgt.
Machine Learning
Mittels Machine Learning will Microsoft die Bildqualität steigern und nennt explizit Auflösungsskalierung als möglichen Einsatzzweck. Nvidia füttert bei Deep Learning Super Sampling (DLSS 2.0) beispielsweise eine KI mit hochauflösendem Bildmaterial, um niedrigere Auflösung mehr oder weniger akkurat hochzuskalieren. Ein KI-Denoiser, der fehlende Strahlen beim Raytracing auffüllt, wäre ebenfalls denkbar.
Von eigenständigen ML-Kernen wie Nvidias Tensor-Cores ist keine Rede. Microsofts eigene Schnittstelle DirectML läuft auch auf Shader-Kernen und kann schlanke Datenformate wie INT8 und INT4 zur Beschleunigung nutzen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(mma)