Blender 3.6 LTS: Raytracing-Support auf Intel Arc und AMD Radeon ausprobiert

Wir haben geprüft, wieviel Zeit man mit der Raytracing-Unterstützung über HIP und oneAPI in Blender 3.6 LTS spart. Dabei erwartete uns eine kleine Überraschung.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Lesezeit: 3 Min.

Nach jahrelangem Warten unterstützt die Cycles-Engine der Blender-Version 3.6 LTS nun auch die Raytraing-Einheiten von AMD und Intel. Damit lässt sich die nötige Renderzeit teils drastisch verkürzen und damit im Produktiveinsatz auch Energie sparen.

Das vor wenigen Tagen erschienene Blender 3.6 ist eine Long-Term-Support-Variante (LTS), die einen Haufen neuer Features integriert, darunter die Integration von Geometry Nodes, Im- und Export von Punktwolken oder Light-Tree-Support in Cycles - Details hierzu haben wir zeitnah zum Launch aufgeschrieben. Wir haben uns im Rahmen eines Tests die neue Fähigkeit der Cycles-Render-Engine angesehen, nicht nur mit Nvidias Raytracing-Einheiten, sondern auch mit den Pendants in Intels und AMDs modernen Grafikchips umzugehen.

Bei Nvidia nutzt Blender dafür das Nvidia-proprietäre Optix-Plugin, AMD wird über HIP+RT versorgt und bei Intel kommt die oneAPI mit Embree v4 zum Einsatz.

HIP+RT (links) sowie oneAPI+Embree müssten explizit unter "Edit" - "Preferences" - "System" ausgewählt werden.

Wir haben uns den Performancegewinn in drei der offiziellen Cycles-Demoszenen angesehen, um nicht einem zufälligen Ausreißer in die eine oder andere Richtung bei nur einer Szene aufzusitzen.

"Classroom" nutzen wir seit Jahren als Benchmark-Szene für CPUs und Grafikkarten, der Gooseberry-Benchmark rendert einen Frame aus dem Animationsfilm Cosmos Laundromat - First Cycle und schließlich die aufwändige Lone-Monk-Szene. Bei letzterer deaktivierten wir die für RT-Berechnung die automatisch gesetzte Option "Open Shading Language" (OSL), da sich die Berechnungszeit ansonsten merklich verlängerte.

Die Classroom-Szene hat schon von vorn herein die kürzeste Berechnungszeit und profitiert bei allen drei Herstellern prozentual am wenigsten vom RT-Einsatz. Zwischen 12 und 35 Prozent schneller ging es bei AMDs Radeon und Nvidias GeForce RTX. Intels Arc lag mit 19 Prozent mittendrin.

Die Benchmark-Szene Gooseberry profitierte mit 25 bis 48 Prozent am stärksten. Hier konnte Intels Arc am wenigsten zulegen, gefolgt von AMD mit 40 Prozent und Nvidia (48 Prozent).

Beim einsamen Mönch, der Szene mit der insgesamt längsten Berechnungsdauer, verschluckte sich die Arc-Grafikkarte und stürzte - unabhängig von der OSL-Nutzung - ab. Bei den AMD-Karten maßen wir 17 bis 19 Prozent kürzere Zeite, die getesteten Nvidia-Karten legten hingegen um satte 45 Prozent zu.

Die Blender-Ankündigung spricht bei AMDs Radeon noch davon, das wie bei der Vorabversion ein spezieller Betatreiber nötig seium die RT-Einheiten zu verwenden. Bei unseren drei Tests erlebten wir dann eine kleine Überraschung: So lief Blender sowohl auf zwei Radeon Pro W7000 als auch auf der Gamer-Radeon RX 7900 XTX mit den jeweils aktuellen Treibern 23Q2 respektive Adrenaline 23.7.1. Bei Intels Arc A770 LE und Nvidias GeForce RTX 4090 nutzten wir die aktuellen Versionen Game on Drivers 4502 respektive Game Ready Driver 536.40.

(csp)