HDR-Aufnahmetechnik mit Raw-Workflow

Die Seite wird erstellt Tizian Dick
 
WEITER LESEN
HDR-Aufnahmetechnik mit Raw-Workflow
HDR-Aufnahmetechnik mit Raw-Workflow
                      Gregor Fischer, Klaus Hesse-Camozzi

         Institut für Medien- und Phototechnik, Fachhochschule Köln,
                        Betzdorfer Str. 2, D-50679 Köln
                       eMail: gregor.fischer@fh-koeln.de
             URL: http://www.f07.fh-koeln.de/fakultaet/personen/
                      professoren/gregor.fischer/index.html

                          Nils Kohlhase, Volker Zimmer

                               Leica Camera AG,
                     Oskar-Barnack-Str. 11, D-35606 Solms
                    eMail: volker.zimmer@leica-camera.com
                      URL: http://www.leica-camera.com

Zusammenfassung Im Rahmen eines Kooperationsprojekts der Fachhochschule Köln
mit der Leica Camera AG wurde ein vollautomatisches HDR-Demonstrationssystem
entwickelt. Der Aufbau basiert auf einer eigenentwickelten Ansteuersoftware für Leicas
High-End-Mittelformatkamera S2 und einer neuartigen HDR-Bildverarbeitungs-
software. Das Besondere an der realisierten Lösung sind der vollautomatische Ablauf,
der durchgängige Rohdaten-Workflow und das Standard-Rohdatenformat DNG mit 24
Bit Farbtiefe. Dadurch werden trotz der hohen Auflösung von 37 Mega-Pixeln eine
enorme Verarbeitungsgeschwindigkeit, eine anspruchsvolle Bildqualität ohne
Begrenzung des Farbumfangs und eine perfekte Flexibilität für die Anbindung an
bestehende Software (z.B. Photoshop) geschaffen. Der Versuchsaufbau wurde auf der
Photokina präsentiert und mit großem öffentlichen Interesse aufgenommen.

1 Einführung
HDRI (High Dynamic Range Imaging) bietet die Möglichkeit, die enorm
großen Helligkeitsunterschiede (Dynamikumfang), die in der Realität
vorkommen, detailgenau darzustellen – von den tiefsten Schatten bis in die
hellsten Lichter. Dazu nimmt die Digitalkamera den gesamten Dynamikumfang
der Szene in verschiedenen Belichtungen auf, die dann zu einem HDR-Bild
kombiniert und verarbeitet werden (s. Abb. 1).[1]-[6] Um diesen hohen
HDR-Aufnahmetechnik mit Raw-Workflow
Dynamikumfang auf die niedere Dynamik eines Ausgabemediums, z.B. einen
Monitor,   anzupassen,     werden    spezielle  Bildverarbeitungsverfahren
angewendet, die als sogenannte Tonemapping-Algorithmen bekannt sind.[18]-[32]

                           Aufnahmen verschiedener Belichtung

                                           	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  

        Abb. 1: Ablauf HDR-Aufnahmetechnik: eine Belichtungsreihe (oben) über den
       gesamten Dynamikumfang der Szene wird aufgenommen und zu einem HDR-Bild
                                  (unten) kombiniert.

Der Workflow (s. Abb. 2) verfügbarer kommerzieller Softwarelösungen (z.B.
Adobe Photoshop) ist durch einen manuell aufwendigen Workflow für den
Anwender und durch eine HDR-Bildstruktur gekennzeichnet, die als RGB-Bild
mit 32 Bit pro Farbe und Pixel ein vergleichsweise hohes Datenvolumen
umfasst.
Üblicherweise wird z.B. über die Bracketing-Funktion der Kamera eine
Belichtungsreihe der kontrastreichen Szene aufgenommen.            In einem
geeigneten Bildbearbeitungsprogramm werden dann die einzelnen Rohbilder
einer    Raw-Konvertierung      mit   Weißabgleich      und     Demosaicking
(Farbinterpolation) unterzogen. Durch die Anzahl von Bildern und die drei
Farben pro Pixel entstehen temporär sehr große Datenmengen. Diese
Zwischenbilder werden dann zu einem einzigen Bild mit drei Farben und einer
erhöhten Wortbreite (z.B. 32 Bit) kombiniert und zusammengefasst (Block
„Exposure Fusion“). Das Ergebnisbild wird am Ende des Aufnahmeteils in eine
HDR-Bilddatei (z.B. Dateiformate .exr oder .hdr) abgespeichert.
Dieses HDR-Bild wird in einer sich anschließenden HDR-Verarbeitung über
ein Tonemapping in seiner Dynamik auf einen geringeren Kontrastumfang
HDR-Aufnahmetechnik mit Raw-Workflow
reduziert und über ein geeignetes Farbmanagement in ein Standardformat (z.B.
Adobe RGB) fertig prozessiert.

       Raw Aufnahmen

       1                      WB +            1

                                                                Exposure Fusion
                         Farbkorrektur I +
        Pixel x 2 Byte    Demosaicking       Pixel x 3
                                             x 2 Byte
                                                                                                  HDR-
       ...

                          ...
                                             ...
                                                                                   HDR
                                                                                               Dateiformat
                                                                                  Pixel x 3
                                                                                               .hdr, .exr ...
                                                                                  x 3|4 Byte
       n                      WB +            n
                         Farbkorrektur I +
        Pixel x 2 Byte    Demosaicking       Pixel x 3
                                             x 2 Byte

      HDR Capture

           HDR                                           Color Rendering                       Output Color     Adobe RGB
                         Tone Mapping                    (inkl. Farbkorrektur
        Pixel x 3                                                  II)
                                                                                                 Space          Pixel x 3
        x 3|4 Byte                                                                                              x 1 Byte

      HDR Processing

    Abb. 2: Traditioneller Workflow zur Erzeugung (Capture, oben) und Verarbeitung
         (Processing, unten) von HDR-Bilddaten. Die blauen Kästen bezeichnen
              Bildverarbeitungsroutinen, die die Bilderscheinung festlegen.

2 HDR-Raw-Konzept
Ein wesentlicher Nachteil des bisherigen Verfahrens ist das hohe
Datenvolumen des HDR-Bildformats durch die angewendete Farbinterpolation
und ein resultierender hoher Rechenaufwand. Für Leicas S2
Mittelformatkamera entstehen hier bei 32 Bit Farbtiefe (wie z.B. im Fall *.hdr)
Dateigrößen von ca. 450 MByte pro Bild.
Der Workflow mit HDR-Raw-Bildformat löst das Problem, indem die
Vorverarbeitung in das HDR-Processing verschoben und die Exposure Fusion
auf dem nativen Bayer-Farbmosaik arbeitet1 (s. Abb. 3, vgl. [5]). Dadurch
entfällt die rechenaufwendige Farbinterpolation (Demosaicking), und die
Verarbeitungszeit zur Fusionierung der Belichtungsreihe reduziert sich auf ca.

1
   Der vorliegende Ansatz geht davon aus, dass sich die Rohdatensignale ideal
intensitätslinear verhalten, wie es z.B. bei Leicas S2 durch eine kamerainterne
Linearisierung gegeben ist. So kann eine aufwendige Linearisierung (vgl.[8]-[10])
entfallen.
HDR-Aufnahmetechnik mit Raw-Workflow
ein Drittel. Auch die Dateigröße der HDR-Raw-Datei schrumpft auf ein Drittel
gegenüber den bekannten HDR-Formaten.

              Raw Aufnahmen

               1                                             1

                                                                                        Exposure Fusion
               Pixel x 2 Byte                               Pixel x 1
                                                            x 2 Byte
                                                                                                                               HDR-Raw-
              ...

                                                        ...
                                                                                                           HDR
                                                                                                                               Dateiformat
                                                                                                          Pixel x 1
                                                                                                                                 .dng ...
                                                                                                          x 3|4 Byte
               n                                             n
               Pixel x 2 Byte                               Pixel x 1
                                                            x 2 Byte

              HDR Capture

                                       Pixel x 3
                                       x 3|4 Byte

     HDR                WB +                                                         Color Rendering                          Output Color    Adobe RGB
                   Farbkorrektur I +            Tone Mapping                         (inkl. Farbkorrektur
Pixel x 1           Demosaicking                                                               II)
                                                                                                                                Space         Pixel x 3
x 3|4 Byte                                                                                                                                    x 1 Byte

              HDR Raw Processing

 Abb. 3: Neuer Workflow zur Erzeugung (Capture, oben) und Verarbeitung (Processing,
                          unten) von HDR-Raw-Bilddaten

               Raw Aufnahmen

               1                                    1
                                                                  Exposure Fusion

                   Pixel x 2 Byte               Pixel x 1                           Pixel x 1                          Pixel x 1
                                                x 2 Byte                            x 3|4 Byte                         x 2|3 Byte
                                                                                                                                HDR-Raw-
               ...

                                             ...

                                                                                         Tone Mapping I                         Dateiformat
                                                                                                                                  .dng ...

               n                                    n
                   Pixel x 2 Byte               Pixel x 1
                                                x 2 Byte

              HDR Capture

                                        Pixel x 3
                                        x 3|4 Byte

      HDR                WB +                                                         Color Rendering                          Output Color     Adobe RGB
                    Farbkorrektur I +           Tone Mapping II                        (inkl. Farbkorrektur
 Pixel x 1           Demosaicking                                                                II)
                                                                                                                                 Space         Pixel x 3
 x 3|4 Byte                                                                                                                                    x 1 Byte

              HDR Raw Processing

        Abb. 4: Workflow wie in Abb. 3 mit dem Unterschied eines zusätzlichen in den
                 Aufnahmeteil vorgezogenen ersten Teils Tone Mapping I.
HDR-Aufnahmetechnik mit Raw-Workflow
Der Ablauf kann innerhalb des HDR-Processings noch weiter modifiziert
werden, indem das Tonemapping zweistufig aufgebaut wird, um die
Kontrastanpassung – oder zumindest einen Teil dessen – schon in der Raw-
Datei zu verankern (s. Abb. 4). Dazu wird die Tonemapping-Methode bereits
innerhalb der HDR-Aufnahme angewendet. So kann schon ein herkömmliches
Raw-Format mit 16 Bit Farbtiefe ausreichen, um den verbleibenden
Dynamikumfang der Raw-Bilddaten zu übertragen.
Ein Vorteil der HDR-Rohbilddaten          im Gegensatz      zu allen anderen
Bildformaten ist ihr unbegrenzter Farbumfang. Auch bei der Komprimierung
des Kontrastumfangs durch das spezielle Tonemapping (s. Abschnitt 3.4)
bleiben Farbdetails und lokaler Kontrast vollständig erhalten. Das Ergebnis ist
eine brillante Bildqualität ohne zugelaufene Schatten oder ausgefressene
Lichter.

3 HDR-Demonstrationssystem
Im Rahmen eines Kooperationsprojekts mit der Leica Camera AG wurde ein
vollautomatisches HDR-Demonstrationssystem (vgl. [6]) entwickelt, das das
obige HDR-Workflowkonzept auf Rohdatenbasis umsetzt.
Der Aufbau basiert auf einer erweiterten Ansteuersoftware für Leicas High-
End-Mittelformatkamera S2 und einer proprietären HDR-Bildverarbeitungs-
software.

3.1 HDR-Raw-Workflow mit DNG-Bildformat
Das System besteht aus drei Softwaremodulen, die nacheinander ablaufen und
den Rohdatenworkflow ausführen:
    1. Ein vollautomatisches Ansteuerprogramm
        Es kommuniziert mit der S2 Kamera per USB-Schnittstelle, nimmt die
        Kameraeinstellungen vor und löst die Belichtungen selbständig aus.
        Dieser Teil der Software fügt anschließend die aufgenommenen
        Belichtungen zu einer DNG-Rohbilddatei mit einer Farbtiefe von
        24 Bit zusammen. Das Programm bietet ein GUI zur komfortablen
        Einstellung aller nötigen Parameter zur Steuerung des HDR-Ablaufs
        durch den Bediener (s. Abb. 5). Die Software wurde in der Program-
        miersprache C-Sharp (C#) erstellt.
    2. Ein Matlab-Bildverarbeitungsprogramm
        Es wendet eine eigene Variante von Tonemapping auf die Rohbild-
        daten der 24 Bit DNG-Datei an (siehe Abschnitt 3.4) und speichert das
        modifizierte Rohbild ebenfalls als 24 Bit DNG-Datei ab.
HDR-Aufnahmetechnik mit Raw-Workflow
3.   Adobe Photoshop mit Adobe Camera Raw Rawkonverter Plug-In
         Diese Standardsoftware enthält alle notwendigen Funktionen zur
         elektronischen Entwicklung von Rohbilddaten und verhält sich zu den
         erzeugten obigen 24 Bit DNG-Bilddateien kompatibel. Das Tool
         gestattet, die 24 Bit Raw-HDR-Bilder wie „normale“ Rohbilder der
         Kamera zu lesen und professionell zu verarbeiten.

Die Automatisierung des Ablaufs und die Bildübergabe vom ersten
Softwaremodul zu dem nachfolgenden Matlab-Teil wurde über einen Hotfolder
realisiert. Dadurch laufen diese Softwaremodule in verschiedenen Prozessen
voneinander völlig entkoppelt und ohne Benutzereingaben automatisiert ab,
und die Multi-Core-Prozessorstruktur kann rechentechnisch optimal ausgenutzt
werden.

Abb. 5: Graphisches User-Interface zur Steuerung der HDR-Funktionalität. Der gesamte
      Ablauf wird durch einen einzigen Click auf den Capture-Button ausgelöst.
3.2 HDR-Belichtungsautomatik
Der Belichtungsablauf setzt sich aus folgenden Teilabläufen zusammen:
    • Aufnahme einer Normalbelichtung
    • Ausgehend von der Normalbelichtung: Aufnahme einer Reihe von
        Unterbelichtungen,      um      übersteuerte    Lichter    aufzulösen.
        Die Zeitenreihe wird innerhalb einer Iterationsschleife aufgenommen.
        Dabei wird jedes Bild auf übersteuerte Pixel analysiert und jeweils so
        lange die Belichtungszeit um einen voreingestellten Faktor erniedrigt,
        bis nur noch eine zulässige Anzahl von Pixeln im Bild übersteuert
        sind. Die Übersteuerungsschwelle sowie die zulässige Pixelanzahl
        sind per GUI frei einstellbar.
    • Ausgehend von der Normalbelichtung: Aufnahme einer Reihe von
        Überbelichtungen, um untersteuerte Schattenbereiche mit höherer
        Signalgenauigkeit ohne sichtbares Bildrauschen darzustellen.
        Die Zeitenreihe wird auch hier innerhalb einer Iterationsschleife
        aufgenommen. Dabei wird jedes Bild auf untersteuerte Pixel analysiert
        und jeweils so lange die Belichtungszeit um einen eingestellten Faktor
        erhöht, bis nur noch eine zulässige Anzahl von Pixeln im Bild
        untersteuert sind. Die Untersteuerungsschwelle sowie die zulässige
        Pixelanzahl sind per GUI frei einstellbar.

3.3 Fusionierung der Rohbilddaten
Die Normalbelichtung bestimmt die Signalstärke der Bildsignale und legt das
Ursprungsarbeitsbild mit 32 Bit Farbtiefe fest.
Die Fusionierung geschieht sukzessive bildweise und führt jeweils eine Unter-
oder Überbelichtung („Rohbild int 16 Bit“) mit dem Arbeitsbild („float 32 Bit“)
gemäß Abb. 6 zusammen.
Durch den „ExposureFactor“ wird das Rohbildsignal auf den Wertebereich des
Arbeitsbildes normiert. Die „Blending-LUT“ legt ein variables Mischungs-
verhältnis zwischen Arbeits- und Rohbild abhängig vom Signalpegel fest.
Durch eine geeignete Belegung dieser Kennlinie lassen sich verschiedene
Signalüberblendungen zwischen Roh- und Arbeitsbild einstellen (vgl. [11]-
[17]):
    • Last Sample before Saturation[14]-[17]
    • Lineare Mischung innerhalb eines Übergangsbereichs
    • konstantes SNR
Je nach Überblendungsfunktion ergibt sich ein unterschiedlicher Verlauf des
Signal-Rausch-Abstands (SNR) über dem Signalpegel.
Nach diesem Schema werden alle unter- und überbelichteten Rohbilder
nacheinander mit dem Arbeitsbild zusammengeführt. Allerdings wird in jedem
Durchgang der ExposureFactor neu als Verhältnis zwischen den linearen
Pixelwerten von Roh- und Arbeitsbild bestimmt, um Schwankungen der
Belichtungen auszugleichen.
Nachdem alle Rohbilder in das Arbeitsbild integriert wurden, wird schließlich
noch die maximale Helligkeit auf den Weißpunkt der Farbtiefe der
Ausgangsdatei (hier: DNG mit 24 Bit2) normiert. Dadurch ist eine bestmögliche
Unterbringung der Bilddynamik in den Wertebereich der Ausgangsdatei
gewährleistet.

                                                     float 32 Bit
                                      Int -> Float

                                     Blending-LUT    float 32 Bit
                               1                     0…1

          Rohbild int 16 Bit
                                                                    x          Exposure
                                                                                Factor

                                               Max
                                                               -
                                              1            +

          Arbeitsbild float 32 Bit                                      Arbeitsbild 32 Bit
                                                           x        +

    Abb. 6: Schema zur Fusionierung eines 16 Bit Rohbilds mit dem 32 Bit Arbeitsbild.
    Durch geeignete Wahl der Blending-LUT lassen sich verschiedene Übergänge und
     damit unterschiedliche Charakteristika des Verlaufs des Signal-Rausch-Abstands
                                       realisieren.

3.4 Tonemapping auf Rohbilddaten
Die selbstentwickelte HDR-Verarbeitung beinhaltet zwei Verarbeitungsschritte:
    1. Die Restauration übersteuerter Lichterbereiche, damit an diesen
         Bildstellen keine Fehlfarben durch eine veränderte Farbstimmung der
         RGB-Farbanteile entsteht (Abb. 7)
    2. Die eigentliche Dynamikkompression (Tonemapping) durch eine
         Dämpfung des Großflächenkontrasts (niedrige Ortsfrequenzanteile)
         bei gleichzeitigem Erhalt des Detailkontrasts (hohe Ortsfrequenz-
         anteile)

2
 32 Bit sind laut DNG-Spezifikation[33] zwar möglich, allerdings haben sich 32 Bit nicht
kompatibel zur Photoshop-Verarbeitung herausgestellt.
Abb. 7: Bildausschnitt, der im Vergleich des korrigierten (rechts) mit dem
  unkorrigierten Bild (links) die Wirkungsweise der Korrekturfunktion „Highlights
 Repair“ zeigt. Die magentafarbige Farbstörung der übersteuerten Bildbereiche ist im
                             linken Bild gut zu erkennen.

Als Tonemapping-Verfahren kommt ein modifiziertes Multiskalen-Retinex-
Derivat ([1] Seite 281ff, [18]-[20]) zum Einsatz. Dieser Algorithmus wurde auf
folgende Eigenschaften hin entwickelt und optimiert:
    • Erhaltung einer natürlichen Farberscheinung
    • Vermeidung von Halo-Artefakten

Die natürliche Farberscheinung wird u.a. dadurch sichergestellt, dass die
Farbverhältnisse zwischen den linearen RGB-Farbsignalen des Farbmosaiks
nach der Dynamikkompression unverändert bleiben. Diese Vorgabe wird durch
die Verarbeitungsstruktur gemäß Abb. 8 erreicht, indem eine glatt verlaufende
Helligkeitsmaske multiplikativ mit den RGB-Rohsignalen verknüpft wird. Die
Helligkeitsmaske wird durch das Verhältnis eines dynamikkomprimierten
Luminanzsignals „LTM“ zum Luminanzsignal „L“ gebildet. Zur
Dynamikkompression könnte hier jedes beliebige Tonemapping-Verfahren
eingesetzt werden. Der Multiskalen-Retinex als Tonemapper hat die Vorteile,
dass er
    • als lokaler Tonemapping-Operator den Detailkontrast im Bild erhält
         und damit zu einem natürlichen Kontrastempfinden führt,
    • sich gut hinsichtlich der Kompressionsstärke steuern lässt ([1],
         Parameter „k“) und
    • sich durch die Separation in oktavische Frequenzbänder robust gegen
         Halo-Artefakte auch bei hohen Kompressionsgraden verhält.
Die Steuerung der Kompressionsstärke geschieht adaptiv an den individuellen
Kontrastumfang der Szene angepasst mit dem Ziel, ausgangsseitig einen
vorgegebenen Kontrastumfang (z.B. an die Dynamik des Ausgabemonitors
angepasst) zu erreichen.
Bayer Raw   Luminanz-     L         Tone Mapping
               Trafo                    Retinex

                                                        LTM

                                           1/x      x
                                                    Helligkeitsmaske
                          RGBBayer
                                                    x            Bayer Raw TM

     Abb. 8: Verarbeitungsschema zur Dynamikkompression (Tonemapping) auf
                                  Rohbilddaten.

4 Ergebnisse
Die Bildbeispiele in Abb. 9 und Abb. 10 stammen von dem Photokina-Exponat
und stellen ein aus dem Raw-HDR-Format entwickeltes Bild ohne und mit
Anwendung des eigenen Tonemappings gegenüber. Dessen Wirkungsweise
und die Qualitätsverbesserung durch das HDR-System werden deutlich.

5 Fazit
Im Rahmen eines Kooperationsprojekts mit der Leica Camera AG wurde ein
vollautomatisches HDR-Demonstrationssystem entwickelt. Das System erstellt
eine Belichtungsreihe von Rohbilddateien, die den gesamten Dynamikumfang
der Szene überstreicht, und kombiniert die Aufnahmen erstmalig im DNG-
Format mit einer Farbtiefe von 24 Bit. Anschließend wird der hohe
Dynamikumfang der Rohbilddaten noch durch ein proprietäres Tonemapping-
Verfahren komprimiert, so dass das Bild für eine Darstellung auf einem
normalen Ausgabemedium wie z.B. Monitor angepasst ist.
Abb. 9: Durch Adobe Camera Raw entwickeltes Raw-HDR-Bild ohne Tonemapping.
Die enorme Lampenhelligkeit führt zu deutlich ausgefressenen Lichterbereichen, die
   nicht der menschlichen Wahrnehmung bei Betrachtung der natürlichen Szene
                                  entsprechen.

 Abb. 10: Dasselbe Bildbeispiel inklusive Tonemapping. Die Lichter- und auch die
Schattenbereiche sind deutlich besser durchgezeichnet, die gesamte Bilderscheinung
  kommt der Wahrnehmung der Originalszene trotz reduzierter Ausgabedynamik
                                  erstaunlich nah.
Das System ist durch folgende Besonderheiten gekennzeichnet:
     • HDR-Automatik
     • Durchgängiger Rohdaten-Workflow
     • Proprietäres Tonemapping mit natürlicher Farberscheinung
     • Tonemapping auf Rohbilddaten
     • HDR-DNG mit 24 Bit Farbtiefe

 Durch den konsequenten Rohdatenworkflow werden insbesondere bei der
 Fusionierung der Belichtungsreihe sowohl die Rechenzeit als auch das
 Datenvolumen der HDR-Bilddatei auf ca. ein Drittel erheblich reduziert.
 Die Anwendung des Tonemappings auf Rohdaten ermöglicht die Integration
 dieses Teils der HDR-Bildverarbeitung unmittelbar in die Rohbilddaten. Der
 eigenentwickelte Tonemapper erhält dabei eine natürliche Farberscheinung
 nahezu ideal.
 Die Verwendung von DNG als Standardrohbildformat für das HDR-Bild bringt
 zwei Vorteile mit sich:
     • Die erzeugten und verarbeiteten HDR-Bilder verhalten sich
         kompatibel zu „normalen“ Rohbilddateien der Kamera und lassen
         sich flexibel mit kommerzieller Rawkonverter-Software öffnen und
         bearbeiten.
     • Durch die Darstellung der HDR-Bilddaten als Rohbilddaten im
         nativen Farbraum der Kamera ist der Farbumfang unbegrenzt. Zudem
         ist die Farbdarstellung im DNG-Format genau definiert, sie bleibt
         auch in den HDR-verarbeiteten (d.h. getonemappten) Bilddaten
         erhalten.

 Das System wurde auf dem Leica-Stand auf der Photokina 2010 präsentiert und
 in seiner besonderen Ausführung und hinsichtlich der erreichten Bildqualität
 mit großem öffentlichen Interesse aufgenommen.

 Literatur
[1]  E. Reinhard, G. Ward, S. Pattanaik, P. Debevec: High Dynamic Range
  Imaging. Elsevier, 2006.
[2] M. A. Robertson, S. Borman, R. L. Stevenson: Dynamic range
  improvement through multiple exposure. In: Proc. IEEE Int'l Conf. Image
  Processing 3, Seite 159-163, 1999.	
  
[3] T. Mertens, J. Kautz, F. Van Reeth: Exposure Fusion. In: Proc. 15th
  Pacific Conf. Computer Graphics and Applications, Seite 382-390, Oktober
  2007.
[4] A. Goshtasby: Fusion of multi-exposure images. Image and Vision
   Computing 23, Seite 611–618, 2005.
 [5] D. Tamburrino, D. Alleysson, L. Meylan, S. Süsstrunk., Digital camera
   workflow for high dynamic range images using a model of retinal processing.
   In: Proc. SPIE, Band 6817, 2008.
 [6] S. M. O’Malley: A simple, effective system for automated capture of high
   dynamic range images. In: Proc. IEEE Int'l Conf. Computer Vision Systems,
   Seite 15–22, 2006.
 [7] K. Hesse-Camozzi: Automatisierter HDR-Workflow für das Leica S2
   Mittelformatsystem. Bachelorarbeit IMP, Fachhochschule Köln, 2011.
 [8] C. Manders, C. Aimone, S. Mann: Camera response function recovery
   from different illuminations of identical subject matter. In: Proc. IEEE Int'l
   Conf. Image Processing, Seite 2965–2968, 2004.
 [9] J. Herwig, J. Pauli: Recovery of the response curve of a digital imaging
   process by data-centric regularization. In: Proc. VISAPP 1, Seite 539-546,
   2009.
[10] P. E. Debevec, J. Malik: Recovering high dynamic range radiance maps
   from photographs. In: Proc. 24th Conf. Computer Graphics and Interactive
   Techniques, Seite 369–378, 1997.
[11] K. Kirk, H. J. Andersen: Noise characterization of weighting schemes for
   combination of multiple exposures. In: Proc. British Mach. Vis. Conf. 3, Seite
   1129–1138, 2006.
[12] A. Bell, C. Seiler, J. N. Kaftan, T. Aach: Noise in high dynamic range
   imaging. In: Proc. IEEE Int’l Conf. Image Processing, Seite 561–564, 2008.
[13] M. Granados, B. Ajdin, M. Wand, C. Theobalt, H.-P. Seidel, H. P. A.
   Lensch: Optimal HDR reconstruction with linear digital cameras. In: Proc.
   IEEE Conf. Comp. Vis. Pat. Rec., 2010.
[14] D. Yang, A. El Gamal: Comparative analysis of SNR for image sensors
   with enhanced dynamic range. In: Proc. SPIE, Band 3649, Seite 197-211,
   1999.
[15] A. El Gamal, High dynamic range image sensors: Tutorial Int'l Solid-State
   Circuits Conf., Februar 2002.
[16] S. Kavusi, A. El Gamal: Quantitative study of high dynamic range image
   sensor architectures. In: Proc. SPIE 5301, Seite 264-275, Januar 2004.
[17] D. Yang, B. Fowler, A. El Gamal, H. Tian: Image sensor with ultrawide
   dynamic range floating-point pixel-level ADC. IEEE J. Solid-State Circuits 34,
   Seite 1821–1834, 1999.
[18] Z.-U. Rahman, D. J. Jobson, G. A. Woodell: Multi-scale retinex for color
   image enhancement. In: Proc. IEEE Int’l Conf. on Image Processing III, Seite
   1003–1006, 1996.
[19] Z.-U. Rahman, D. Jobson, G. Woodell: A multiscale retinex for color
   rendition and dynamic range compression. In: Proc. SPIE 2847, Seite 183–
   191, 1996.
[20] Z.-U. Rahman, D. J. Jobson, G. A. Woodell: Retinex processing for
   automatic image enhancement. J. Electron. Imaging 13, Seite 100-110, 2004.
[21] G. W. Larson, H. E. Rushmeier, C. D. Piatko: A visibility matching tone
   reproduction operator for high dynamic range scenes. IEEE Trans. Vis.
   Comput. Graph. 3(4), Seite 291– 306, 1997.
[22] K. Devlin, A. Chalmers, A. Wilkie, W. Purgathofer: Tone reproduction
   and physically based spectral rendering. Eurographics, STAR, Seite 101-123,
   2002.
[23] J. M. DiCarlo, B. A. Wandell, Rendering High Dynamic Range Images. In:
   Proc. SPIE 3965, Seite 392-401, 2000.
[24] E. Reinhard, K. Devlin: Dynamic range reduction inspired by
   photoreceptor physiology. IEEE Trans. Vis. Comput. Graph. 11(1), Seite 13–
   24, 2005.
[25] E. Reinhard, M. Stark, P. Shirley, J. Ferwerda: Photographic tone
   reproduction for digital images. ACM Transactions on Graphics 21, Seite
   267–276, Juli 2002.
[26] J. Kuang, G. M. Johnson, M. D. Fairchild: icam06: A refined image
   appearance model for HDR image rendering. J. Vis. Commun. Image
   Represent 18 (5), Seite 406–414, 2007.
[27] M. Maitre, Y. Chen, F. Tong: High dynamic range compression using a
   fast multiscale optimization. In: Proc. Int’l Conf. Acoustics, Speech and Signal
   Processing, Seite 541 – 544, 2008.
[28] M. Kim, J. Kautz: Characterization for High Dynamic Range Imaging. In:
   Proc. Eurographics, Seite 691-698, April 2008.
[29] O. Pirinen, A. Foi, A. Gotchev: Color high dynamic range imaging: The
   luminance–chrominance approach. Int’l Journal Imaging Systems and
   Technology 17, Seite 152-162, 2007.
[30] P. Irawan, J. A. Ferwerda, S. R. Marschner: Perceptually based tone
   mapping of high dynamic range image streams. In: Proc. EGSR 05, Seite 231–
   242, 2005.
[31] G. M. Johnson, M. D. Fairchild: Rendering hdr images. In: Proc.
   IS&T/SID 11th Color Imaging Conference , Seite 36-41, 2003.
[32] M. Kuhna, M. Nuutinen, P. Oittinen: Method for evaluating tone mapping
   operators for natural high dynamic range images. In: Proc. SPIE 7876, Seite
   161, 2011.
[33] Abdobe Systems Inc., Digital Negative (DNG) Specification, Version
   1.3.0.0, Juni 2009.
Sie können auch lesen