Intel forscht: Schöne Theorien zum Cloud Streaming – und ernüchternde Zahlen

Intels Research Scientist Daniel Pohl referierte über drei Kernthemen des Cloud Gaming: verbesserte Spieloptik, Latenzbekämpfung und Probleme, die Cloud-Streaming-Anbieter am liebsten verschweigen würden.

In Pocket speichern vorlesen Druckansicht 93 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Roland Austinat

Der Abschlussvortrag der Konferenz Cloud Gaming 2012 kam aus Deutschland. Genauer: von Daniel Pohl, Research Scientist bei Intel. In seinem technisch erfrischend fundierten Beitrag behandelte Pohl gleich drei Punkte, die in den 15 vorangegangenen Sessions so gut wie nicht erwähnt wurden.

"Spiele, die aus der Cloud gestreamt werden, sind derzeit mit denen auf dem lokalen Rechner identisch", sagte Daniel Pohl. "Dabei steckt in der Cloud mehr Rechenpower, so dass sie bei grafisch besseren Versionen punkten könnte." Zu den dort einsetzbaren Verfahren gehören Ray Tracing, Voxel Rendering und fotorealistisches Rendering. Voxel Rendering punktet in einem von Pohl gezeigten Beispiel mit "Millionen von Bäumen und Milliarden von Gräsern", fotorealistisches Rendering dringt mit Intels Embree-Kernel-Technik auch in "normale" CPU-Gefilde vor – das Ergebnis sind beeindruckende Grafiken, die leider noch nicht in Echtzeit berechnet werden können.

Daniel Pohl, Research Scientist von Intel

Anders sieht es mit Ray Tracing aus: Schon seit 2004 beschäftigt sich Pohl mit Ray-Tracing-Versionen bekannter 3D-Shooter wie Quake 3 und Return to Castle Wolfenstein. Letztgenannter Titel läuft in den Intel-Laboren flüssig und in Echtzeit – auf Xeon-Phi-Koprozessorkarten, die mit über 50 Kernen und mehr als 8 GByte GDDR5-Speicher ausgerüstet sind. Ein Cloud-Rechner kann bis zu acht solcher Karten ansteuern, mehrere Rechner lassen sich zu Clustern kombinieren. Die noch nicht erhältliche Karte mit dem Codenamen Knights Corner skaliert dabei linear mit Bildschirmgröße und Framerate: Eine Karte produziert zwei Tablet-Streams, für einen High-End-PC kommen vier Karten zum Einsatz. Allerdings sind die Hardwarekosten nicht gering. "Möglicherweise wäre das etwas für Premiumdienste oder lokale Entertainment-Center, die sich so von PCs und Konsolen absetzen können", sagte Pohl.

Von der Zukunft zurück in die Gegenwart: Latenz ist eines der Hauptprobleme des Cloud Streaming. "Dabei denken die meisten sofort an das Internet, doch der heimische PC enthält viele versteckte Latenzerzeuger", erklärte Pohl. Der USB-Port wird beispielsweise nur alle acht Millisekunden ausgelesen, drahtlose Tastaturen oder Systeme wie Microsofts Bewegungssteuerung Kinect verschlechtern diesen Wert noch: "Ich habe mit OpenNI eine Latenz von 60 ms gemessen", so Pohl. Außerdem muss der lokale Rechner die Eingabe des Spielers verarbeiten und das aus der Cloud erhaltene Bild dekomprimieren.

In der Cloud selbst sind die Datenströme nicht immer latenzoptimiert, was Intel mit der Direct-I/O-Technologie in den Griff zu bekommen versucht. Doch selbst mit geschwindigkeitsoptimierten Treibern, besserer Datenverarbeitung und latenzfreien Monitoren – herkömmliche Bildschirme weisen bis zu 45 Millisekunden native Latenz auf – sinkt die Gesamt-Latenz laut Pohl allenfalls von rund 234 auf 115 Millisekunden. Für eine weitere Absenkung könnte eine gesteigerte Bildwiederholfrequenz sorgen, welche die beim Buffering anfallenden Latenzzeiten halbiert. In Pohls Beispiel käme man so auf 97 Millisekunden. Doch mit 120 statt 60 Hz steigt die erforderliche Bandbreite – das eigentliche Problem beim Cloud Streaming.

"Cloud-Gaming-Dienste wie OnLive fordern für eine Auflösung von 1280 × 720 Bildpunkten bei 60 fps mindestens 5 MBit/s", rechnete Pohl vor. Umgerechnet bedeutet das jedoch für den Anwender, dass beispielsweise der US-Kabelriese Comcast nach rund 110 Stunden Cloud Gaming im Monat die Leitung dicht macht. Nur: "Diese Auflösung nutzen nach einer Steam-Umfrage vom Juli 2012 nur noch ein Fünftel aller PC-Spieler. Fast ein Drittel ist schon mit einer Horizontalauflösung von 1920 Punkten dabei." Und für 2013 fassen nach Intel-Voraussagen Hersteller von Premium-Notebooks und -Desktops bereits die 4K-Marke ins Auge, bei der zehnmal mehr Pixeldaten durch die Leitungen fließen würden. Bei 250 GByte/Monat blieben gerade mal elf Stunden Cloud Gaming pro Monat übrig. Ernüchternde Zahlen, die nicht ganz zu den schönen Theorien der Cloud-Streaming-Experten passen wollen – doch von denen hatten viele die Konferenz noch vor Pohls Vortrag bereits wieder verlassen. (uh)