Display-Technik im Praxistest: Was HDR, 144Hz und Co. wirklich an Energie kosten

Nicht nur die Helligkeit eines Monitors, auch VRR, G-Sync und Co. beeinflussen den Energieverbrauch. Wir haben gemessen, welche Einstellung was kostet.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen

(Bild: c't)

Lesezeit: 19 Min.
Inhaltsverzeichnis

Gängige Schreibtisch-Monitore gelten nicht unbedingt als Stromfresser, insbesondere seit die meisten mit LED-Hintergrundbeleuchtung arbeiten. Genügsame 20 Watt und weniger sind in den Standardeinstellungen inzwischen erreichbar und auf dem EU-Energielabel abgedruckt – selbst bei 27-Zoll-Geräten. Im Vergleich zu den immer größeren Fernsehern also eher Kleinkram. Doch passt der Eindruck noch in Zeiten von wachsenden Bildschirmflächen, hohen Bildfrequenzen, diversen Beleuchtungszonen, HDR, OLED und mehr? Denn nicht alles davon berücksichtigt das Energielabel.

Mehr über Monitore

Wir haben uns daher die Frage gestellt, wie groß die Auswirkungen der diversen Einstellmöglichkeiten und Funktionen von modernen Bildschirmen auf den Stromverbrauch eigentlich sind. Schließlich laufen die bei vielen den ganzen Tag und bei manchen auch noch den ganzen Abend. Da summieren sich auch kleine Verbräuche zu relevanten Summen, wo man es nicht vermutet. Ob sich etwa eine Farbkalibrierung signifikant auswirkt, ob ein Monitor mit 120 Hz mehr verbraucht als mit 60 Hz und bei welchen Display-Techniken die Schwankungen besonders groß sind, soll dieser Artikel herausfinden.

Vorweg sei gesagt, dass diese Ergebnisse lediglich Anhaltspunkte sein können und sich nicht alle verallgemeinern lassen. Denn dazu gibt es schlicht zu viele Faktoren, die Einfluss auf den Energiebedarf nehmen. Ebenso ist die Menge an Monitormodellen unüberschaubar und nicht jeder Hersteller löst vergleichbare Aufgaben auf die gleiche Weise.