Auflösung aufgeblasen
Mit einer Software für Multi Core-Rechner lässt sich die Auflösung von Videos auf das Vierfache steigern, ohne dass die Bildqualität leidet.
- Kate Greene
Forscher bei Intel Research haben einen neuartigen Algorithmus (PDF) entwickelt, der die Auflösung eines Films in Echtzeit deutlich erhöhen kann. Die Technologie mit dem Namen "Super Resolution" läuft bereits auf Multi Core-Maschinen mit zwei Kernen – skaliert aber auch auf mehrere Hundert hoch. Potenziell lassen sich damit Aufnahmen billiger Webcams ebenso "aufblasen" wie alte Heimvideos oder DVDs, aus denen man HD-Streifen machen könnte.
Intels Super-Resolution-Forschung ist Teil eines Großprojektes, mit dem die interessantesten Anwendungen gefunden werden sollen, die die Multicore-Technologie adäquat ausnutzen, erläutert Jerry Bautista, Co-Direktor des "Tera-Scale Computing Research"-Programmes bei dem Chipriesen. Multi-Core-Rechner sind aktuell für Endkunden mit bis zu vier Kernen zu haben, Intel besitzt aber bereits erste Experimentalchips mit bis zu 80. Und je mehr sich die Forscher ihrem Ziel nähern, die Leistung zahlreicher Kerne auch auf den Desktop-Markt zu holen, desto intensiver arbeiten Intels Software-Ingenieure an neuen Technologien, die diese Power auch ausnutzen können. Bessere Videoqualität sei hier eine der Top-Prioritäten auf Intels To-Do-Liste, sagt Bautista. Die Tera-Scale-Technik ermögliche eines Tages Billionen Berechnungen pro Sekunde.
Die Idee, Videos mehr Auflösung zu verpassen, ist nicht allerdings neu. Super-Resolution-Ideen existieren bereits seit den achtziger Jahren, erläutert Peyman Milanfar, Professor für Elektrotechnik an der University of California in Santa Cruz. In früheren Tagen hätten die Algorithmen aber noch nicht sehr gut funktioniert. Die langsamen Rechner taten ihr übriges. 2003 entwickelten Milanfar und seine Forschungsgruppe jedoch erstmals besonders effiziente Algorithmen. Doch auch mit diesen war eine Echtzeitnutzung nicht möglich. Dennoch hilft die Arbeit des Forschers nun Intel und anderen Firmen, die an Auflösungsverbesserern werkeln.
Super-Resolution-Algorithmen blasen Videoaufnahmen in zwei Schritten auf. Zuerst werden Pixel in den Einzelbildern analysiert, um zu sehen, wie schnell jeder Bildpunkt sich bewegt – und in welche Richtung. Wenn beispielsweise ein Auto eine Straße herunterfährt, werden sich die Pixel, aus denen es besteht, auf eine vorhersehbare Art bewegen, erklärt Oscar Nestares, leitender Forscher bei Intel.
Die im ersten Schritt gesammelten Daten werden dann verwendet, um die Bewegungen der neuen Pixel zu bestimmen, die ergänzt werden müssen, um die Videoauflösung zu erhöhen. Das Ergebnis ist ein klareres Bild, das dem Betrachter so vorkommt, als sei es zur gleichen Zeit wie das Original entstanden. "Wir versuchen einfach, Informationen zu sammeln, die zwischen den Einzelbildern fehlen", erläutert Intel-Mann Bautista. "Das ist nur machbar, in dem wir so viele Daten wie möglich erfassen und damit dann bessere Schätzungen vornehmen können, wo die Zwischen-Bildpunkte hingehören."
Der größte Unterschied des Intel-Algorithmus im Vergleich zur Konkurrenz: Er kann die Arbeit tatsächlich in Echtzeit erledigen und dennoch ein so genanntes "robustes Resultat" erzielen. Das bedeutet, dass gleichzeitig auch noch fehlerhafte Bildpunkte herausgefiltert werden, die etwa von elektrischem Rauschen im Kamerasensor oder Staub auf der Linse ins Bild gelangen können. Diese Pixel führen dazu, dass das System schlechter abschätzen kann, wo sich die Teilbilder hinbewegen – das Video wirkt unecht.
Auf dem Intel-Campus in Santa Clara führte Nestares eine Demonstration auf einer Dual-Core-Maschine durch – gezeigt wurde, wie einer Webcam-Aufnahme eine höhere Auflösung verschafft werden kann. Der Algorithmus konnte den Pixeloutput insgesamt vervierfachen, ohne dass es zu Abspielverzögerungen kam. Der Super-Resolution-Code ist so geschrieben, dass er mit der Anzahl der Prozessorkerne skaliert: Je mehr zur Verfügung stehen, desto mehr Last wird auch geteilt. "Dann kümmern sich die Kerne jeweils um verschiedene Bereiche des Videos", erläutert Nestares.
Allerdings wird es noch ein wenig dauern, bis man damit wirklich aus einer DVD eine HD-DVD zaubern kann: Laut Intel wären 150 Kerne notwendig, um diese Umwandlung in Echtzeit vorzunehmen – solche Prozessoren existieren bei dem Chiphersteller noch nicht einmal im Labor.
William Freeman, Professor für Elektrotechnik und Informatik am MIT, sieht jedoch einen echten kommerziellen Bedarf für eine solche Auflösungsverbesserung. Immer mehr Menschen kauften HDTV-Fernseher, doch die meisten Inhalte seien noch immer nicht in diesem Format verfügbar. "Da gibt es eine echte Nachfrage. Die Leute wollen sich auf ihren tollen HDTV-Bildschirmen auch entsprechend hochauflösende Filme anschauen."
Doch zunächst wird Intel seinen Echtzeit-Algorithmus noch nicht kommerzialisieren. Neben den fehlenden Chips für die DVD-Umwandlung muss sich erst einmal innerhalb der Firma eine passende Produktgruppe für die Vermarktung finden. Erste Gespräche laufen bereits. (bsc)