Kontrast-Trickkiste: HDR-Fotografie

Seite 2: Was ist HDR?

Inhaltsverzeichnis

Die Notwendigkeit, hohe Kontraste in Bilddateien zu speichern (um Beleuchtungsverhältnisse realistisch zu simulieren), ergab sich bereits Ende der 80er-Jahre des vorigen Jahrhunderts bei der Entwicklung von 3D-Rendering- Verfahren. Das noch heute benutzte Dateiformat *.hdr wurde von Greg Ward 1989 entwickelt. Inzwischen sind eine Reihe weiterer Formate hinzugekommen . Die meisten 3D-Programme, wie sie von Architekten, Designern, Trickfilmern und Spieleentwicklern benötigt werden, können solche HDR-Dateien erzeugen. Sie enthalten nicht nur die Oberflächeneigenschaften der virtuellen Welt, sondern auch die Lichtquellen selbst, und dienen oft als Umgebung (dann in Würfel- oder Kugelform) für die eigentlichen Objekte beziehungsweise Akteure.

Relativ neu ist die Erzeugung eines HDR-Bildes aus mehreren Fotos. Bei ausreichendem Belichtungsumfang enthält ein so komponiertes HDR-Bild den gesamten Helligkeitsumfang der Szene. HDR-Bilder lassen sich kalibrieren, sodass jeder Tonwert einer bestimmten Beleuchtungsstärke (gemessen in Candela/m2) entspricht. Dies geschieht durch Mitfotografieren einer Fläche mit definierter Beleuchtungsstärke oder einfacher durch Rückschluss aus den Aufnahmedaten: Wenn ISO-Wert, Blende und Belichtungszeit gegeben sind, stehen die vom Bildsensor erfassten Helligkeitswerte zu den absoluten, vom Motiv ausgehenden Lichtstärken in einem festen Verhältnis. Für fotografische Zwecke ist das Wissen um die realen Lichtstärken jedoch nur in Ausnahmefällen notwendig, hier genügt meist die originalgetreue Widerspiegelung der relativen Beleuchtungsstärken.

Von HDR spricht man, wenn Helligkeitsunterschiede ab 10.000:1 (Dynamikumfang 4 oder 13,3 EV) erfasst und gespeichert werden können – dies ist annähernd auch der Kontrastumfang, den unser Auge „mit einem Blick“ erfassen kann. Alles, was darunter liegt, wird mit LDR (Low Dynamic Range) bezeichnet. Die meisten HDR-Dateiformate erlauben noch deutlich höhere Dynamikbereiche. Ein weiteres Merkmal von HDR-Bildern ist der lineare Zusammenhang zwischen den Farbtonwerten und den Helligkeitswerten, die sie repräsentieren. Bei gewöhnlichen 8- oder 16-Bit-Bildformaten ist der Zusammenhang nichtlinear (gammaverzerrt). Bei dem auf PCs üblichen Gammawert von 2,2 liegt zum Beispiel ein 50%-iges Grau nicht bei Tonwert 127 oder 128 (die Hälfte vom Maximaltonwert 255 bei 8-Bit-Farbtiefe), sondern beim Tonwert 186.

Bei den von einer Digitalkamera gelieferten Bilddaten wird der erfassbare Dynamikbereich vor allem durch den kleinen Wertebereich begrenzt. Die gleichmäßige Abstufung der Tonwerte (Quantisierungsschritt genannt) schränkt den nutzbaren Dynamikumfang weiter ein. Eine „Farbtiefe“ von 8 Bit pro Kanal (beziehungsweise 24 Bit pro RGBPixel)) bedeutet: Die Helligkeit jeder der drei RGB-Farben wird auf einer Skala von 0 bis 255 gemessen und angegeben (8 Bit = 1 Byte = 255 mögliche Werte). Der theoretische Dynamikumfang beträgt damit 255:1 oder 2,4 (entspricht acht EV-Stufen – siehe Kasten „Zwischen Licht und Schatten“). Berücksichtigt man den relativen Fehler, der durch die gleichbleibenden Quantisierungsschritte zu dunklen Werten hin stark ansteigt, sinkt der praktisch verwertbare (rauschfreie) Dynamikumfang sogar auf etwa 1,6 (5,3 EV-Stufen).

Damit ist das 8-Bit-Format eigentlich nur für Fotos an ausgesprochen trüben Tagen oder in homogen ausgeleuchteten Innenräumen ausreichend. In der Mehrzahl der Fälle ist es vom Dynamikumfang des Motivs überfordert, was sich (außer in verrauschten Tiefen) auch in fehlender Ausdifferenzierung von dunklen und hellen Bildbereichen äußert. Oft – das muss der Vollständigkeit halber gesagt werden – ist letzteres aber nicht weiter schlimm, manchmal unterstützt es sogar die Bildwirkung, weil unwichtige Details unterdrückt werden. Will man möglichst viel Motivkontrast einfangen, hilft eine erhöhte Farbtiefe nur wenig weiter. In einer 16-Bit-Datei lassen sich theoretisch 16 EV-Stufen oder ein Dynamikbereich von 4,8 (65.535:1) erfassen. In der Praxis steigt auch hier der Fehler durch die gleichbleibenden Quantisierungsschritte bei geringen Helligkeiten rasch an. Die eigentliche Begrenzung stellt jedoch der Dynamikumfang des Sensors dar: Er liegt bei etwa 1.000:1, also knapp zehn EV-Stufen; Profikameras bieten etwas mehr. Ein großer Teil des Speicherplatzes einer 16-Bit-Datei wird demnach gar nicht beziehungsweise nur mit Rauschen gefüllt.

Bei HDR-Bildern stehen pro Kanal und Pixel 32 Bit zur Verfügung (zumindest während der Verarbeitung im Computer; die Speicherung erfolgt je nach Dateiformat teilweise mit weniger Bits). Rein rechnerisch lassen sich damit über 4 Milliarden (232) Helligkeitsabstufungen darstellen. Bei Wahl gleich großer Abstufungen (Quantisierungsschritte) ergibt sich ein Dynamikbereich von 9,6 (Zehnerlogarithmus von 232). Das ist viel, für manche Szenen – etwa wenn die Sonne selbst im Bild ist – aber immer noch zu wenig. Deshalb wird für die Darstellung der Helligkeitswerte keine lineare, sondern eine logarithmische Skala verwendet: Bei kleinen Werten sind die Abstufungen klein, bei größeren Werten sind auch die Abstufungen größer. Diese logarithmische Kodierung trifft sich zudem gut mit der ebenfalls logarithmischen Empfindlichkeitskurve des menschlichen Auges.

Die Größe der Helligkeitsdifferenz, die wir gerade noch erkennen können, wächst ebenfalls mit der absoluten Helligkeit und beträgt etwa 1 Prozent von letzterer. Bitte verwechseln Sie diese nichtlineare Skala nicht mit der Nichtlinearität einer Gammaverzerrung. Das den Bilddaten schon in der Kamera aufgeprägte Gamma verändert nicht die Größe der Abstufungen auf der Skala – jede Farbe kann jeden Tonwert zwischen 0 und 255 annehmen –, sondern die Zuordnung einer bestimmten Helligkeit zu einem bestimmten Tonwert. Letztere folgt der Gammafunktion (y = x1/gamma), während die Skala selbst linear bleibt. Bei HDR-Bildern bleibt die Zuordnung linear (Helligkeit und Tonwert sind proportional, das heißt, eine verdoppelte Helligkeit wird von einem ebenfalls doppelt so großen Tonwert repräsentiert), der Schritt zum nächsten erlaubten Tonwert (Quantisierungsschritt) wird jedoch mit zunehmender Helligkeit größer.

Für uns bedeutsam, weil sichtbar, ist nicht die absolute Helligkeitsdifferenz zwischen zwei Bildpunkten, sondern die Differenz relativ zur Grundhelligkeit. Wie gesagt muss diese unter 1% liegen, damit sie noch nicht als Helligkeitsstufe im Bild sichtbar wird. Diese relative Differenz bleibt bei HDR-Bildern über den gesamten Helligkeitsbereich konstant. Bei 8- und 16-Bit-RGB-Bildern steigt sie dagegen bei geringen Helligkeiten stark an. Die Gammaverzerrung mindert diesen Effekt etwas, kann ihn jedoch nicht völlig beseitigen. Logarithmische Skalen erlauben die Erfassung fast beliebig großer Dynamikbereiche. In der Praxis muss man einen Kompromiss zwischen Dynamikbereich, relativem Fehler und Dateigröße finden. HDR-Dateien sind in der Regel nicht nur sehr groß, sie lassen sich auch schlecht komprimieren. Es existieren bereits zahlreiche, für unterschiedliche Aufgaben entwickelte Dateiformate mit spezifischen Vor- und Nachteilen.

Wegen des großen Dynamikumfangs lässt sich ein HDR-Bild auf keinem üblichen Medium direkt ausgeben – es ähnelt darin einem Raw-Bild, das ja auch erst in ein RGB-Bild konvertiert werden muss. Bei HDR besteht die Konvertierung vor allem in einer Einschränkung des Kontrastumfangs, dem Hinzufügen der Gammakurve und der Umsetzung in ein 8- oder 16-Bit-RGB-Format. Das nennt sich „Tone Mapping“ und ist eines der schwierigsten, noch immer nicht befriedigend gelösten Aufgaben der HDR-Technik. Bevor wir dazu kommen, müssen wir aber erst einmal das Basismaterial für ein HDR-Bild fotografieren und zu einem HDR zusammenfügen.