Kontrast-Trickkiste: HDR-Fotografie

Seite 4: Synthese des HDR aus Einzelbildern

Inhaltsverzeichnis

In FDRTools kann man anhand der Histogramme sehr schön verfolgen, welche Helligkeitsbereiche der Einzelbilder im HDR-Bild zusammengesetzt werden.

Die Synthese des HDR-Bildes aus den Einzelbildern ist der theoretisch wie technisch einfachste Teil, hat aber ein paar Tücken. Mathematisch ergibt sich der Helligkeitswert eines Bildpixels aus der auf die Sensorzelle fallenden Lichtmenge, die (außer von Motivhelligkeit, Blende und einigen weiteren Faktoren) linear von der Belichtungszeit abhängt. Eine Halbierung der Belichtungszeit halbiert die Lichtmenge und damit den Pixel-Tonwert, eine Verdopplung sollte auch den Pixel-Tonwert verdoppeln.

Ein HDR-Programm, das man mit den Einzelbildern füttert, muss aus den korrespondierenden Bildstellen nur die am zuverlässigsten belichteten Pixel heraussuchen (die, deren Tonwerte im Mittelfeld liegen) und die Tonwerte je nach Belichtungsabweichung von einem „Normal“ korrigieren. Das Normal kann ein beliebiges Bild aus der Serie sein. Hat beispielsweise ein Pixel in diesem Bild den Tonwert 50, sollte das korrespondierende Pixel im Foto mit vierfacher Belichtungszeit (+ 2 EV) den Tonwert 200 haben. Dividiert man alle Tonwerte des letztgenannten Fotos durch 4 (allgemein: durch die Zweierpotenz der EV-Abweichung), erhält man die „wahren“ Pixelwerte, die denen im Normalfoto entsprechen müssten. Die im Normalfoto unterbelichteten Bereiche erhalten dabei Tonwerte zwischen 0 und 1, überbelichtete Bereiche erhalten Tonwerte über 255.

In der Praxis läuft es so ähnlich, allerdings müssen die Gammaverzerrung der Pixelwerte und eventuelle weitere, von Sensor und Kamera hinzugefügte Abweichungen von der Linearität korrigiert werden. Wenn die korrespondierenden Pixel mehrerer Einzelbilder verwertbar sind (was bei Belichtungsabständen kleiner/gleich 2 EV eigentlich immer der Fall ist), werden deren (angepasste) Pixeltonwerte in der Regel gemittelt. Das soll zufällige Fehler verringern und wirkt sehr effektiv gegen Rauschen, kann aber auch erwünschte Tonwertdifferenzierungen (den Detailkontrast) verringern. Welchen konkreten RGB-Wert ein bestimmtes Pixel bei der Synthese letztlich zugewiesen bekommt, ist bei unkalibrierten HDR-Bildern weniger wichtig und von Programm zu Programm verschieden.

Bei einem kalibrierten HDR-Bild entspricht der angezeigte Wert der Helligkeit in cd/m2. Die Belichtungsunterschiede sollte ein HDR-Programm aus den EXIF-Daten der Einzelbilder auslesen oder direkt aus den Pixeldaten ermitteln können. Photoshop CS2 bietet nur ersteres, Photomatix beherrscht beides, HDR-Shop und FDRTools errechnen die Belichtungsunterschiede selbst. HDR-Shop gestattet zudem, die Unterschiede manuell einzutragen. Wichtig für die automatische Erkennung ist eine korrekte Positionierung der Einzelbilder sowie eine exakte Kamerakurve. Die Positionierung korrigieren alle diese Programme automatisch. Für die Ermittlung der Kamerakurve gibt es unterschiedlich komfortable Funktionen. Photoshop gestattet dies erst in Version CS3. Photomatix erkennt keine EXIF-Daten in JPEG-Dateien, welche die Endung JPE tragen. Hier hilft das Umbenennen in JPG. Schwieriger kann es werden, wenn die EXIF-Belichtungsdaten nicht verwendet werden dürfen, weil man zum Beispiel für einige Fotos der Serie ein Graufilter verwendet hat, für andere nicht.

Photoshop und Photomatix bieten keine Möglichkeit, vorhandene EXIF-Belichtungsdaten zu korrigieren. Ausweg: Speichern Sie mindestens eines der mit Graufilter aufgenommenen Fotos in einem Bildformat, das EXIF nicht unterstützt, und dann wieder zurück in eine JPG-Datei. Die EXIFDaten werden auch entfernt, wenn Sie das Bild in einem Bildbearbeitungsprogramm öffnen, den Inhalt auswählen und kopieren und in ein neues, gleich großes Bild einfügen. Sobald nur in einem Bild der Serie die EXIFDaten fehlen, erlauben sowohl Photoshop als auch Photomatix die manuelle Eingabe der Belichtungsdaten für alle Bilder. In Photoshop muss dies dann leider für alle Bilder manuell geschehen, Photomatix schlägt wenigstens für die Bilder mit EXIF-Daten sinnvolle Werte vor. Lediglich in HDR- Shop und FDRTools gibt es die ganze Problematik nicht, da diese Programme die Belichtungsunterschiede aus den Pixelwerten ermitteln können.

Die von der Kamera bedingten Nichtlinearitäten lassen sich als Kamerakurve messen und speichern und dann auf andere Bilder derselben Kamera anwenden. Benötigt wird dazu eine Bilderserie mit relativ geringen Belichtungsunterschieden (EV bis 1 EV). Aus den Abweichungen der Tonwerte von den theoretischen Tonwerten wird die Kamerakurve automatisch ermittelt. Wenn keine individuelle Kamerakurve vorhanden ist oder ermittelt werden kann, wird die Gammakurve verwendet, die zum Farbprofil gehört. Als Messbilder eignen sich beispielsweise leicht unscharf gestellte Fotos eines weißen Blatt Papiers. Die Lichtverhältnisse müssen bei der Aufnahmeserie unbedingt konstant bleiben.

Photomatix zeigt das Histogramm und den Kontrastumfang des aus dem Stillleben geschaffenen HDR-Bildes: mehr als 5 Mio.:1 oder 22 EV-Stufen.

Wo das 8-Bit-RGB bei 255 an die obere Helligkeitsgrenze stößt, ist bei 32 Bit noch lange nicht Schluss.

Deshalb ist Tageslicht am besten, denn die meisten elektrischen Lampen flackern im 100-Hertz-Rhythmus, was bei Belichtungszeiten im Bereich von hundertstel Sekunden zu Fehlern führen kann. Die Kamerakurve wird unter dem Namen der Kamera gespeichert und dient zur korrekten Umrechnung der Ursprungstonwerte in die Tonwerte des HDR-Bildes. Prinzipiell könnten die Programme nun bei der HDR-Synthese die passende Kamerakurve anhand der EXIF-Daten heraussuchen. Mit HDR-Shop und FDRTools muss die Auswahl aber noch manuell erfolgen. Photomatix kann zwar intern eine Kamerakurve ermitteln, diese jedoch nicht speichern.