High Dynamic Range Image

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von HDRI)
Wechseln zu: Navigation, Suche
Mittels Belichtungsreihe erstellte Nachtaufnahme von New York
Bamberger Tor bei Nacht in Kronach. Belichtungsreihe aus drei Bildern
HDR-Bild, zusammengestellt aus 3 Bildern

Ein High Dynamic Range Image (HDRI, HDR-Bild, „Bild mit hohem Dynamikumfang“) oder Hochkontrastbild ist ein digitales Bild, das große Helligkeitsunterschiede detailreich wiedergibt. Digitale Bilder mit geringem Dynamikumfang werden als Low Dynamic Range Images oder LDR-Bilder bezeichnet.

HDR-Bilder können von Spezialkameras aufgenommen, als 3D-Computergrafiken künstlich erzeugt oder aus einer Belichtungsreihe von Fotos mit niedrigem Dynamikumfang (low dynamic range, LDR) rekonstruiert werden. Bisher existieren nur wenige Ausgabegeräte, die zur Anzeige von HDR-Bildern fähig sind. Auf herkömmlichen Bildschirmen und Medien können sie nicht direkt dargestellt werden, sondern müssen in LDR-Bilder umgewandelt werden, indem die Helligkeitskontraste des HDR-Bildes verringert werden. Dieser Vorgang wird Dynamikkompression (engl. tone mapping) genannt. Ungeachtet dieser Einschränkung können ausgehend von HDR-Bildern Über- und Unterbelichtungen vermieden, Bilddetails besser erhalten und weiterreichende Bildbearbeitungen vorgenommen werden. Nicht nur die Fotografie und Computergrafik, sondern auch Anwendungen wie die Medizin oder virtuelle Realität profitieren von diesen Vorteilen.

Prinzip[Bearbeiten]

Falschfarbendarstellung der in einem herkömmlichen LDR-Bild (links) und einem HDR-Bild (rechts) gespeicherten Helligkeit. Während das LDR-Bild nur 256 verschiedene Helligkeitsstufen umfasst, reichen die Werte beim HDR-Bild von 0,18 bis 560. Das HDR-Bild berücksichtigt insbesondere Details in hellen Bereichen, die beim LDR-Bild gesättigt erscheinen.
Vergleich einer Einzelaufnahme mit einer Kompaktkamera (links) und eines HDR-Bildes nach Tone Mapping (rechts). Die Bildausschnitte auf der rechten Seite wurden individuell dynamikkomprimiert.

Die meisten digitalen Bilder verwenden nur 256 Helligkeitsstufen (8 Bit) für jeden der Rot-, Grün- und Blau-Farbkanäle. Diese Farbtiefe reicht oftmals nicht aus, um die in natürlichen Szenen vorkommenden Helligkeitsunterschiede wiederzugeben. Höhere Farbtiefen werden üblicherweise kaum verwendet, da Bildschirme und Druckmedien zu deren Darstellung ohnehin nicht fähig sind.[1]

Die von einer Kamera oder einem Betrachter aus sichtbare Umgebung weist typischerweise einen Dynamikumfang (Verhältnis von größter und kleinster Leuchtdichte) in der Größenordnung von 10.000:1 auf. Der Dynamikumfang ist noch wesentlich größer, wenn eine Lichtquelle direkt sichtbar ist oder sowohl ein Innenraum als auch ein vom Sonnenlicht erhellter Außenbereich zu sehen sind.[2] Die menschliche visuelle Wahrnehmung ist in der Lage, sich Lichtverhältnissen anzupassen, die über nahezu zehn Größenordnungen (ein Faktor von 1010) reichen; innerhalb einer Szene sind bis zu ungefähr fünf Größenordnungen gleichzeitig sichtbar.[3] In der Fotografie ist auch die Angabe des Dynamikumfangs in Lichtwerten (LW) üblich. Eine weitere Einheit zur Angabe des Dynamikumfangs ist das Dezibel (dB).

Im Gegensatz zur visuellen Wahrnehmung leiden Fotografien, die mit herkömmlichen Digitalkameras erzeugt wurden, häufig an Über- und Unterbelichtungen. Beim High Dynamic Range Imaging werden Bilddateien mit einem Dynamikumfang erzeugt, der die in der Natur vorkommenden Helligkeiten in ihrer Gesamtheit besser erfassen kann. Die Pixelwerte stehen dabei in proportionalem Verhältnis zur tatsächlichen Leuchtdichte. Erst bei der Darstellung eines HDR-Bildes wird dessen Helligkeitsumfang geeignet reduziert. Auch wenn nach wie vor fast alle Bildschirme einen geringen Helligkeitsumfang besitzen, bieten HDR-Bilder Vorteile; so etwa bleiben ausgehend von HDR-Bildern Details in sehr dunklen und hellen Bereichen erhalten.

Geschichte und Anwendungen[Bearbeiten]

Die physikalisch basierte Bildsynthese („Rendering“) war die vielleicht erste Anwendung von HDR-Bildern.[4] Die von Greg Ward Larson ab 1985 entwickelte Rendering-Software Radiance verwendete intern Gleitkommazahlen zur Speicherung von Helligkeitswerten. Um die gerenderten Bilder speichern zu können, ohne dass Helligkeitsinformationen verloren gingen, entwickelte Ward das Radiance-HDR-Format.[5] Auch Paul Debevec befasste sich mit HDR-Techniken, als er zur Simulation von Bewegungsunschärfe bei einer Computeranimation bewegte Glanzlichter mit hohem Dynamikumfang abspeicherte.[6] Bereits 1968 hatten Oppenheim und andere in einem anderen Zusammenhang den ersten Tone-Mapping-Operator veröffentlicht;[7] die dort vorgestellten Prinzipien wurden von einigen neueren Operatoren wiederentdeckt.[8]

Die Anwendungen von High Dynamic Range Imaging umfassen folgende Bereiche:[9]

  • Bildsynthese. Bei physikalisch basierten Renderern müssen Helligkeitswerte mit einem hohen Dynamikumfang repräsentiert werden, um die Wechselwirkung von Licht und Materialien innerhalb einer kontrastreichen 3D-Szene korrekt zu berechnen. Bei Anwendungen wie der Architektursimulation müssen außerdem absolute radiometrische Werte berechnet werden, um Beleuchtungsverhältnisse korrekt einzuschätzen. Weiterhin ist es möglich, 3D-Szenen von HDR-Bildern beleuchten zu lassen (Image-based Lighting). Neuere Grafikkarten beherrschen rudimentäres HDRI in Echtzeit, was vor allem für Computerspiele interessant ist.
  • Digitalfotografie. In der Digitalfotografie vermeiden HDR-Aufnahmen Über- und Unterbelichtungen und erlauben einen unproblematischen softwarebasierten Weißabgleich.[10] Hersteller haben den Dynamikumfang ihrer Bildsensoren zwar im Laufe der Zeit erhöht, der Dynamikumfang von HDR-Bildern wird jedoch bisher nur von wenigen Spezialkameras erreicht. Um HDR-Bilder mit herkömmlichen Kameras zu erzeugen, ist zusätzlicher Arbeitsaufwand erforderlich.
Anwendung eines Bewegungsunschärfe-Filters, links auf ein LDR-Bild, rechts auf ein HDR-Bild (Resultat nach Tone Mapping). Durch die Speicherung der korrekten Helligkeitsinformationen beim HDR-Bild wirkt das Ergebnis naturgetreuer, ähnlich einer tatsächlichen Verwacklung der Kamera.
  • Bildbearbeitung. Neuere Versionen einiger Bildbearbeitungsprogramme können HDR-Bilder direkt bearbeiten. Dies erlaubt es, Helligkeits-, Kontrast- und Farbänderungen vorzunehmen, ohne dass es zu Verlusten in Form von gesättigten Pixelwerten kommt. Effekte und Filter wie etwa Weichzeichner wirken ausgehend von HDR-Bildern realistischer, insbesondere bei Glanzlichtern.
  • Digitales Kino und Video. Die Projektion von digitalen Kinofilmen mit mittelgroßem Dynamikumfang ist absehbar; Produktion und Bearbeitung derartiger Filme wird jedoch in einem HDR-Format erfolgen.[11] MPEG-4-kompatible Kodierungen für HDR-Videodaten wurden bereits vorgeschlagen.[12]
  • Virtuelle Realität. Herkömmliche Panoramabilder und virtuelle Umgebungen, die über das World Wide Web geladen und interaktiv erkundet werden, leiden besonders unter Über- und Unterbelichtungen. Wenn Panoramen als HDR-Bilder vorliegen, können die zu einem bestimmten Zeitpunkt sichtbaren Bildausschnitte individuell dynamikkomprimiert werden, was eine natürlichere Bildwirkung erzeugt.
  • Überwachungssysteme und maschinelles Sehen. Die Fähigkeit, gleichzeitig innerhalb und außerhalb von Gebäuden Bilddetails wiederzugeben, ist besonders bei Überwachungskameras sinnvoll.[13] Auch beim maschinellen Sehen ist die Robustheit von HDR-Kameras gegenüber extremen Lichtverhältnissen von Vorteil.
  • Medizin. In der Endoskopie besteht ein Bedarf an möglichst kleinen Bildsensoren, die auch bei geringer Helligkeit hochwertige Bilder liefern. So etwa liefert ein Prototyp eines im Rahmen des europäischen IVP-Projekts entwickelten Sensors bei kleinsten Abmessungen einen Dynamikumfang von über 100 dB.[14] Für die Augenheilkunde werden künstliche Retinae entwickelt, die bei sehbehinderten Menschen die Sehzellen der Netzhaut stimulieren und ebenfalls einen hohen Dynamikbereich aufweisen.
  • Architektur und Lichtdesign. Selbst ohne fotometrische Kalibrierung bieten HDRIs ein ausreichend präzises Abbild der Lichtverteilung in einer Szene. Indem maßstabsgerechte Architekturmodelle fotografiert werden, können so quantitative Aussagen über die Helligkeitsbedingungen in einem geplanten Gebäude gemacht werden.[15]

Speicherung[Bearbeiten]

Kodierung[Bearbeiten]

Es gibt zwei gebräuchliche Möglichkeiten, die Pixelwerte in HDR-Bildern geräteunabhängig zu kodieren. Idealerweise nähern sich HDR-Kodierungen dem nichtlinearen Sinneseindruck des Auges auf Helligkeiten an. Dadurch wird vermieden, dass unterschiedliche Helligkeiten im Bild mit scheinbar unterschiedlicher Präzision kodiert werden und es zu sichtbaren Farbabstufungen kommt.

Eine Möglichkeit ist die logarithmische Kodierung, die Helligkeiten gemäß folgender Formel quantisiert:

I_\mathrm{out} = I_\mathrm{min}\left(\frac{I_\mathrm{max}}{I_\mathrm{min}}\right)^v

v ist hierbei die normalisierte kodierte Helligkeit, die Werte zwischen 0 und 1 annehmen kann. Aufeinanderfolgende Werte in dieser logarithmischen Kodierung haben ein konstantes Verhältnis von \textstyle (\frac{I_\mathrm{max}}{I_\mathrm{min}})^{1/N}, wobei N die Anzahl der Quantisierungsschritte ist.

HDR-Daten können auch mittels einer Kombination aus Mantisse und Exponent (als Gleitkommazahlen) kodiert werden. Aufeinanderfolgende Gleitkommazahlen haben kein konstantes Verhältnis, sondern folgen einem Sägezahn-artigen Verlauf. Damit die Farbquantisierung unsichtbar bleibt, darf die relative Abstufung (Differenz zwischen zwei aufeinanderfolgenden Helligkeitswerten, geteilt durch den Wert) 1 % nicht überschreiten.[16]

Weitere Eigenschaften von HDR-Kodierungen neben der relativen Abstufung sind der Farbraum und die Farbtiefe. Auf die Speicherung der absoluten Leuchtdichte (in der Einheit cd/m²) wird oft verzichtet; bei Fotografien wäre hierzu eine Kalibrierung mit Hilfe eines Leuchtdichte-Messgeräts erforderlich.

Formate[Bearbeiten]

Ein JPEG-HDR-Bild, das hier dynamikkomprimiert angezeigt wird; die Datei enthält HDR-Daten

Von der Kodierung der Pixelwerte ist das verwendete Grafikformat zu unterscheiden, das bestimmt, in welche zusätzlichen Datenstrukturen die eigentlichen Bilddaten eingebettet werden. Einige HDR-Formate unterstützen mehrere Kodierungen.

Die von den meisten Programmen unterstützten HDR-Formate sind verlustfrei komprimiert. Es wurde jedoch auch eine Erweiterung des JPEG-Formates zur verlustbehafteten Speicherung mit geringer Dateigröße entwickelt.[17][18] Dieses „JPEG-HDR“-Bild speichert eine dynamikkomprimierte Version eines HDR-Bildes als gewöhnliche JFIF-Datei, fügt aber in einem zusätzlichen Marker ein Verhältnisbild hinzu, das die HDR-Informationen kodiert. JPEG-HDR ist ebenso wie andere JPEG-Formate für HDR-Bilder, etwa Kodaks ERI-JPEG oder das von der Software Panorama Tools verwendete FJPEG, zurzeit (2009) wenig verbreitet.[19]

Die herstellerabhängigen, internen Dateiformate von Digitalkameras (Rohdatenformate oder Raw-Formate) bieten mit 10 bis 14 Bit (linear kodiert, meist mit Offset, 1:1.024 bis 1:15.360) eine ähnliche Dynamik wie gewöhnliche sRGB-8-Bit-Bilder (nicht linear kodiert, 1:3.300), erreichen aber bei weitem nicht den Dynamikumfang von HDR-Bildern. Sie können noch als LDR-Formate[20] oder allenfalls als Medium Dynamic Range, Formate mit mittelgroßem Dynamikumfang, bezeichnet werden.[21] Dessen ungeachtet ist es möglich, Raw-Dateien in HDR-Formate zu konvertieren. Die als IEC-Norm veröffentlichte scRGB-Kodierung weist ebenfalls nur einen mittelmäßigen Dynamikumfang auf.[22]

Die folgende Tabelle bietet einen Überblick über verschiedene bekannte HDR-Formate und die darin verwendeten Kodierungen.

Format Kodierung Komprimierung Farbraum Farbtiefe
(Bit pro Pixel)
Dynamikumfang
(Größenordnungen von 10)
Relative
Abstufung
Radiance HDR
(.hdr, .pic)
RGBE (logarithmisch) RLE RGB 32 76 1,0 %
XYZE (logarithmisch) RLE (CIE)XYZ 32 76 1,0 %
Portable Float Map
(.pfm, .pbm)
Gleitkomma keine RGB 96 79 0,000003 %
TIFF
(.tif, .tiff)
Gleitkomma keine RGB 96 79 0,000003 %
LogLuv24
(logarithmisch)
keine LogLuv 24 4,8 1,1 %
LogLuv32
(logarithmisch)
RLE LogLuv 32 38 0,3 %
OpenEXR
(.exr)
Gleitkomma Wavelet, ZIP, RLE und andere RGB, (CIE)XYZ 48 10,7 0,1 %

Bilderzeugung[Bearbeiten]

HDR-Bilder können auf drei verschiedene Arten erzeugt werden: durch direkte Aufnahme mit Spezialkameras, indirekt aus einer Reihe unterschiedlich belichteter LDR-Bilder, oder als künstliche Computergrafik.

HDR-Kameras[Bearbeiten]

Digitale Bildsensoren mit hohem Dynamikumfang befinden sich in der Entwicklung. Zwar sind bereits einige dieser Produkte auf dem Markt, aber nur wenige umfassende Lösungen verfügbar.[23] Der Preis für professionelle HDR-Kameras bewegt sich im Bereich von 50.000 US-Dollar (2008).[24] Selbst hochwertige Bildsensoren sind jedoch noch nicht in der Lage, den Dynamikumfang beliebiger natürlicher Szenen vollständig abzudecken, insbesondere von Außenaufnahmen an einem sonnigen Tag. Zu den vermarkteten oder entwickelten Produkten zählen:

  • Die Viper-Filmstream-Filmkamera des Unternehmens Grass Valley weist mit drei Größenordnungen einen mindestens zehnmal höheren Dynamikumfang als herkömmliche Digitalkameras auf. Diese Kamera erfordert zur Speicherung der Videodaten Festplatten mit hoher Kapazität, was den mobilen Einsatz einschränkt.
  • SMaL Camera Technologies und Pixim haben CMOS-Sensoren mit VGA-ähnlicher Auflösung produziert, die Bilder mit einem Dynamikumfang von vier Größenordnungen in Videogeschwindigkeit erfassen können. Einige Hersteller bieten Fotoapparate und Überwachungskameras mit diesen Sensoren an.
  • Point Grey Research hat die LadyBug-Kamera entwickelt, die dank mehrerer Sensoren 75 % der Sphäre auf einmal mit einem Dynamikumfang von über vier Größenordnungen fotografieren kann.
  • SpheronVR bietet die SpheroCam HDR an, die einen Zeilen-CCD enthält. Durch die automatische Rotation der Kamera sind Panoramabilder mit einem Dynamikumfang von 5,5 Größenordnungen in hoher Auflösung möglich.
  • Die Civetta der Weiss AG verfügt über eine automatische Aufnahmetechnologie für vollsphärische HDR Aufnahmen und erzeugt Bilder, die messtechnisch kalibriert sind bei einem Dynamikumfang von bis zu 28 Blendenstufen.
  • Am Institut für Mikroelektronik Stuttgart wurde ein Sensor mit der Bezeichnung HDRC entwickelt, der das menschliche Auge in Empfindlichkeit und Dynamikumfang übertrifft.[25] Der effektive Dynamikumfang beträgt 120 dB bei 50 Bildern pro Sekunde.[26] Dieser Sensor ist Teil eines von Omron angebotenen Entwicklerkits.
  • Für die professionelle Fotografie bieten einige Hersteller Kameras mit hohem Dynamikumfang an, etwa die Leica S1 Alpha/Pro, Jenoptik eyelike MF und LEAF c-most. Diese Kameras wurden entwickelt, um professionelle Fotografen, die Filme aufgrund ihres höheren Dynamikbereiches Digitalbildern vorziehen, zum Umstieg zur Digitalfotografie zu bewegen. Zur Unterdrückung des Bildrauschens werden diese Kameras aktiv gekühlt.
  • Fujifilm entwickelte den Super-CCD-Sensor, der Fotodioden mit unterschiedlicher Lichtempfindlichkeit enthält. Ein Bild mit erweitertem Dynamikbereich kann in einer Aufnahme erzeugt werden, indem die Signale der empfindlichen und der weniger empfindlichen Dioden kombiniert werden. Der Sensor hat eine geringere effektive Bildauflösung als herkömmliche Bildsensoren. Außerdem wird nur die maximal erfassbare Leuchtdichte erhöht; Kontraste in Schattenbereichen werden nicht verbessert. Der Sensor ist in mehreren semiprofessionellen Kameras der Finepix-Serie eingebaut.

Neben diesen Produkten zur direkten Aufnahme von HDR-Bildern gibt es Kameras für den Amateur- und semiprofessionellen Markt, die automatisch HDR- oder dynamikkomprimierte LDR-Bilder aus mehreren Aufnahmen mit unterschiedlichen Belichtungseinstellungen erzeugen können (siehe nächster Abschnitt). Hierzu reicht ein herkömmlicher Bildsensor aus. Als erste Kompaktkamera bot die Ricoh CX1 im März 2009 diese Funktion in Form eines Doppelbelichtungsmodus zur „Erhöhung des Dynamikumfangs“ an.[27]

Erzeugung aus Belichtungsreihen[Bearbeiten]

Mit etwas Aufwand ist es möglich, auch mittels herkömmlicher Digitalkameras HDR-Bilder zu erzeugen. Dabei wird von der Szene eine Belichtungsreihe aufgenommen, bei der jede Bildregion in mindestens einem der Einzelbilder korrekt belichtet wird. Die Einzelbilder werden anschließend per Software zu einem HDR-Bild kombiniert. Wichtig ist dabei, dass sich das Motiv zwischen den einzelnen Aufnahmen nicht bewegt. Obwohl es bis zu einem gewissen Grad möglich ist, Verwacklungen nachträglich zu korrigieren, wird die Verwendung eines Fotostativs empfohlen.

Damit aus der Belichtungsreihe korrekte Helligkeitsdaten berechnet werden, sind die Lichtwerte der Einzelbilder (oft ohnehin in den Exif-Einträgen der Bilddateien gespeichert) sowie die opto-elektronische Übertragungsfunktion der Kamera erforderlich. Da die Übertragungsfunktion von den meisten Herstellern nicht veröffentlicht wird, sollte sie selbst ermittelt werden, idealerweise anhand einer Kalibrierungsszene mit möglichst vielen Grautönen.[28] Nach der Erzeugung des HDR-Bildes sollte die Linsenstreuung (Lens Flare) der Kamera herausgefiltert werden, um übermäßige Lichtstreuungen im Bild zu vermeiden.

Aus einer Belichtungsreihe wird ein HDR-Bild erzeugt (in der Mitte Falschfarbendarstellung, rechts das Bild nach Tone Mapping). Durch HDRI sind gleichermaßen Details in hellen und dunklen Bildregionen erkennbar, ohne dass es zu störenden Über- oder Unterbelichtungen kommt.


Ein besonderes Problem mit fotografischen Techniken stellt die korrekte Aufnahme der direkt sichtbaren oder reflektierten Sonne dar, da es hier selbst bei kleinster Blende und Belichtungszeit zu massiven Überbelichtungen kommt. Die korrekte Leuchtdichte der Sonne kann mit Hilfe eines Neutraldichtefilters[29] oder indirekt durch unterschiedliche Beleuchtungen einer diffus reflektierenden Kugel[30] ermittelt werden.

Auch von Durchsichtvorlagen wie Dias, Negativen und Filmstreifen können durch mehrfaches Scannen mit unterschiedlichen Belichtungen HDR-Bilder rekonstruiert werden (siehe etwa Multi-Exposure).

HDR-Rendering[Bearbeiten]

Ein mittels Image-based Lighting gerendertes Bild. Der Hintergrund ist ein die 3D-Szene umschließendes HDR-Bild, das die künstlich modellierten Objekte im Vordergrund beleuchtet.

Neuere Grafikkarten unterstützen das hardwarebasierte Echtzeitrendern mit hohem Dynamikumfang, oft High Dynamic Range Rendering (HDRR) genannt. Dies ist besonders bei Computerspielen sinnvoll, bei denen der Spieler oft zwischen dunklen und hellen Szenen wechselt. Auch Grafikeffekte wie Linsenstreuung wirken mit HDRR realistischer. Die erreichbare Präzision und der Dynamikumfang sind aus Performancegründen beschränkt.

Eine wichtige Technik bei der Bildsynthese ist das Image-based Lighting (IBL). Hierbei wird eine Szene vollständig von einem HDR Environment Map (auch Light Probe) umhüllt. Environment Maps können am einfachsten mit Hilfe von rotierenden Kameras mit Fischaugenobjektiv aufgenommen werden. Alternativ kann eine die Umgebung reflektierende Kugel fotografiert oder mehrere Einzelfotos per Stitching kombiniert werden. Um IBL mit bekannten Renderverfahren wie Monte-Carlo-Raytracing zu kombinieren, ist eine besondere Abtaststrategie der Environment Map notwendig, damit das Bildrauschen gering bleibt. IBL lässt sich nicht nur dazu verwenden, um künstliche Szenen durch komplexe Lichtquellen zu beleuchten, sondern auch um reale (Film-)Szenen um künstliche Objekte zu erweitern. IBL wird mittlerweile von allen größeren 3D-Renderern unterstützt.

Darstellung[Bearbeiten]

HDR-Ausgabegeräte[Bearbeiten]

Diffus reflektierende Drucke sind prinzipiell LDR, da die maximale Helligkeit von der Umgebungsbeleuchtung abhängt. Um HDR-Bilder in Druckmedien darzustellen, müsste lichtemittierendes Papier erfunden werden. Es wäre allenfalls denkbar, Blendeffekte hinzuzufügen, um wie in der Malerei die Illusion eines helleren Lichtes zu erzeugen, als durch das Medium dargestellt werden kann.[31] Möglich ist auch die Aufnahme gedruckter Bilder durch eine Kamera und anschließende Rückprojektion auf das Bild (siehe Superimposing Dynamic Range).[32] Folien und fotografische Filme besitzen zwar einen (möglicherweise bis zu zehnmal) höheren Dynamikumfang als Drucke, sind aber in der Anwendung problematisch.[33]

Kathodenstrahlröhrenbildschirme besitzen technisch gesehen einen hohen Dynamikumfang, weil sie zur Darstellung sehr geringer, nicht mehr wahrnehmbarer Helligkeiten fähig sind. In der Praxis ist dies jedoch irrelevant, da ihre maximale Leuchtdichte zu gering ist, als dass HDR-Bilder mit der erwünschten Wirkung angezeigt werden könnten. Herkömmliche Flüssigkristallbildschirme hingegen sind zwar zur Darstellung hoher Helligkeiten in der Lage, allerdings ist die Lichtstreuung in benachbarte Pixel recht hoch, was den effektiven Dynamikumfang begrenzt.[34]

Erste Prototypen von HDR-Anzeigegeräten existieren spätestens seit 2004.[35] Dazu gehört der HDR-Bildschirm DR37-P von BrightSide Technologies (vormals Sunnybrook Technologies, mittlerweile von Dolby übernommen). Bei diesem Bildschirm handelt es sich um einen Flüssigkristallbildschirm (LCD), der nicht von einer gleichmäßigen Lichtquelle, sondern von einer Matrix aus Leuchtdioden mit individuell regelbarer Helligkeit beleuchtet wird. Bilddetails werden vom LC-Bildschirm angezeigt, während die großen Helligkeitsunterschiede durch die Leuchtdioden moduliert werden. Die Leuchtdioden-Matrix kann eine geringe Auflösung besitzen, da Helligkeitsunterschiede in der Nähe heller Pixel ohnehin durch die Punktspreizfunktion des Auges maskiert werden. Die Helligkeit des Bildschirms reicht von 0,015 bis 3000 cd/m²; damit beträgt der Kontrastumfang etwa 200.000:1.[36]

Weitere Entwicklungen von HDR-Ausgabegeräten sind vor allem im Digitalkinobereich zu finden. Die meisten digitalen Projektionssysteme für Kinos basieren auf dem Digital Micromirror Device von Texas Instruments, einem Mikrospiegelaktor.[37] Dabei handelt es sich um eine hochauflösende Matrix aus elektronisch gesteuerten Spiegeln, die Licht entweder auf eine Leinwand oder auf einen Absorber spiegeln können. Helligkeitsabstufungen entstehen durch Pulsweitenmodulation. Der praktische Dynamikumfang kommerzieller Mikrospiegelaktoren liegt bei etwa 500:1.[37]

Tone Mapping[Bearbeiten]

Hauptartikel: Tone Mapping
Ein HDR-Bild nach Anwendung vier verschiedener Tone-Mapping-Operatoren

Unter Tone Mapping, auch Tone Reproduction genannt, versteht man die Umwandlung eines HDR-Bildes in ein LDR-Bild, indem der Kontrastumfang verringert wird. Dies ist notwendig, um ein HDR-Bild angenähert auf einem herkömmlichen Anzeigegerät oder Medium darstellen zu können. Der naturgetreue Helligkeitseindruck geht dabei verloren. Umso wichtiger ist es, die besonderen Eigenschaften des HDR-Bildes, etwa den Detailreichtum in dunklen und hellen Bildregionen, so gut wie möglich beizubehalten. Tone-Mapping-Operatoren sind üblicherweise darauf abgestimmt, möglichst natürlich wirkende oder detailreiche Resultate zu erzeugen. Manche HDR-Software enthält jedoch auch Operatoren, die dem Anwender einen künstlerischen Spielraum lassen.

Man unterscheidet verschiedene Arten von Tone-Mapping-Operatoren. Die einfachsten Verfahren verarbeiten jedes Pixel unabhängig voneinander. Diese globalen Tone-Mapping-Operatoren sind vergleichsweise schnell und eignen sich daher für Anwendungen, bei denen das Tone Mapping in Echtzeit stattzufinden hat. Sogenannte lokale oder frequenzbasierte Operatoren sind in der Lage, Bilder mit einem besonders großen Kontrastumfang ohne übermäßigen Detailverlust zu komprimieren. Hierbei werden Bildregionen mit hohem Kontrast stark, Regionen mit geringem Kontrast weniger stark komprimiert. Derartige Verfahren erfordern besondere Techniken, um Bildartefakte wie Halos zu vermeiden. Schließlich gibt es noch gradientenbasierte Verfahren, die die Helligkeitsgradienten des HDR-Bildes abschwächen.

Dass viele Tone-Mapping-Operatoren auf Erkenntnissen über die visuelle Wahrnehmung basieren, liegt nicht zuletzt daran, dass der Mensch selbst das Tone-Mapping-Problem scheinbar mühelos löst.[38] So können Operatoren beispielsweise die helligkeitsabhängige Farb- und Schärfewahrnehmung simulieren, was besonders bei Nachtszenen zu realistischeren Ergebnissen führt.[39] Das neuere iCAM06-Modell berücksichtigt eine Vielzahl von Effekten der menschlichen Wahrnehmung.[40] Viele Tone-Mapping-Operatoren setzen absolute Helligkeitswerte voraus.

Ästhetische Gesichtspunkte[Bearbeiten]

Beispiel für eine künstlerische Anwendung des Tone Mappings
Beispiel für eine künstlerische Anwendung des Tone Mappings (Pseudo-HDR aus einem Bild ohne Belichtungsreihe)

Ein Problem bei der Darstellung von HDR-Bildern sind Haloartefakte, die häufig beim Tone Mapping mit einfachen lokalen Tone-Mapping-Algorithmen entstehen. Moderne Tone-Mapping-Operatoren vermeiden derartige Artefakte; physiologisch basierte Operatoren wie iCAM06 liefern auch bei schwierigen Lichtverhältnissen plausible Ergebnisse.

Einige HDR-Programme enthalten Tone-Mapping-Operatoren, die dem Benutzer absichtlich eine große Freiheit bei Parametereinstellungen lassen. Erik Reinhard kritisiert, dass dies den Benutzer dazu verleiten würde, Tone Mapping als Effektmittel zu missbrauchen. Halos, merkwürdige Kontraste und zu gesättigte Farben, die eigentlich von Unzulänglichkeiten des verwendeten Tone-Mapping-Algorithmus herrühren, würden von einigen Anwendern als künstlerische Effekte missverstanden. Dadurch entstünde der falsche Eindruck, HDRI wäre mit einem bestimmten „Stil“ verbunden.[41] Christian Bloch ermutigt zwar zur kreativen Nutzung von Tone-Mapping-Operatoren, empfiehlt aber, das Resultat „impressionistische Fotografie“ oder „Hyperrealismus“, nicht aber irreführend „HDRI“ zu nennen.[42]

Abgrenzung vom Exposure Blending[Bearbeiten]

Unter den Bezeichnungen Exposure Blending, Exposure Fusion, „Dynamic Range Increase“ oder „Pseudo-HDR“ wurden Methoden vorgestellt, die unterschiedlich belichtete Bilder ausschließlich per Bildbearbeitung zusammenfügen, um über- und unterbelichtete Bereiche zu vermeiden. HDRI-Techniken können für den gleichen Zweck verwendet werden, indem aus den Einzelbildern ein HDR-Bild erzeugt wird, das anschließend per Tone Mapping in ein LDR-Bild umgewandelt wird. Exposure-Blending-Techniken haben jedoch nichts mit HDRI zu tun, da sie keinerlei HDR-Daten verarbeiten. Im Idealfall ist die Qualität der per Exposure Blending erzeugten Bilder mit denen des HDRI-Prozesses vergleichbar.[43]

Software[Bearbeiten]

Siehe auch: Liste von HDRI-Software unter HDR-Software

HDR-Bilder werden in unterschiedlichem Maße von vollwertigen Bildbearbeitungsprogrammen unterstützt. Adobe Photoshop unterstützt ab der Version CS 2 den Import/Export sowie das Generieren von HDR-Bildern, bietet aber erst in folgenden Versionen Unterstützung für einige Malwerkzeuge und Filter. Das quelloffene CinePaint, eine für die Kinofilmproduktion überarbeitete Version des GIMP, kann ebenfalls mit HDR-Bildern umgehen.

Zudem existieren Programme, die sich auf die Anzeige, Generierung oder das Tone Mapping von HDR-Bildern spezialisiert haben. Zu den bekanntesten zählen die kommerziellen Anwendungen FDRTools Advanced und Photomatix, die Freeware-Programme Picturenaut, Photosphere und FDRTools Basic sowie die freie Software Luminance HDR.

Literatur[Bearbeiten]

  • Christian Bloch: Das HDRI-Handbuch. Dpunkt, Heidelberg 2008, ISBN 3-89864-430-8
  • Jürgen Held: HDR-Fotografie. Das umfassende Handbuch. 3. Auflage, Galileo Design, Bonn 2011, ISBN 978-3-8362-1789-7
  • Bernd Hoefflinger (Hrsg.): High-Dynamic-Range (HDR) Vision (= Springer Series in Advanced Microelectronics 26). Springer, Berlin 2007, ISBN 978-3-540-44432-9
  • Axel Jacobs: High Dynamic Range Imaging and its Application in Building Research. Advances in Building Energy Research 1, 1 (2007): 177–202, ISSN 1751-2549 (PDF, 1,5 MB)
  • Erik Reinhard u. a.: High Dynamic Range Imaging. Morgan Kaufman, San Francisco 2006, ISBN 0-12-585263-0

Weblinks[Bearbeiten]

 Commons: Dynamikkomprimierte HDR-Bilder – Sammlung von Bildern
Hinweis: diese Galerie enthält möglicherweise auch Bilder, die mittels einfachem Exposure Blending erstellt wurden, ohne dass HDR-Daten verarbeitet wurden.

Einzelnachweise[Bearbeiten]

  1. Reinhard u. a.: High Dynamic Range Imaging, S. 7
  2. Reinhard u. a.: High Dynamic Range Imaging, S. 187
  3. J. A Ferwada: Elements of Early Vision for Computer Graphics. IEEE Computer Graphics and Applications 21, 5 (2001): 22–33, ISSN 0272-1716. Zitiert in Reinhard u. a.: High Dynamic Range Imaging, S. 6
  4. Reinhard u. a.: High Dynamic Range Imaging, S. 87
  5. Bloch: Das HDRI-Handbuch, S. 44
  6. fxguide – Art of HDR, abgerufen am 22. Februar 2009
  7. A. Oppenheim u. a.: Nonlinear Filtering of Multiplied and Convolved Signals. In: IEEE Transactions on Audio and Electroacoustics 16, 3 (September 1968), S. 437–466, ISSN 0018-9278
  8. Reinhard u. a.: High Dynamic Range Imaging, S. 326–331
  9. Reinhard u. a.: High Dynamic Range Imaging, S. 87–89
  10. Reinhard u. a.: High Dynamic Range Imaging, S. 48 f.
  11. Reinhard u. a.: High Dynamic Range Imaging, S. 88
  12. R. Mantiuk u. a.: Perception-motivated High Dynamic Range Video Encoding. ACM Transactions on Graphics 23, 3 (2004), S. 733–741, ISSN 0730-0301
  13. Reinhard u. a.: High Dynamic Range Imaging, S. 12
  14. Hoefflinger: High-Dynamic-Range (HDR) Vision, S. 138
  15. Jacobs: High Dynamic Range Imaging and its Application in Building Research
  16. G. Wyszecki, W. S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae. John Wiley and Sons, New York 2000. Zitiert in Reinhard u. a.: High Dynamic Range Imaging, S. 90
  17. G. Ward, M. Simmons: Subband Encoding of High Dynamic Range Imagery. In First ACM Symposium on Applied Perception in Graphics and Visualization (APGV), S. 83–90. ACM, New York 2004
  18. Konrad Kabaja: Storing of High Dynamic Range Images in JPEG/JFIF Files. In Proceedings of the Central European Seminar on Computer Graphics 2005 (PDF, 3,9 MB)
  19. Bloch: Das HDRI-Handbuch, S. 52–58
  20. Reinhard u. a.: High Dynamic Range Imaging, S. 13
  21. Bloch: Das HDRI-Handbuch, S. 35
  22. IEC 61966-2-2 (2003): Multimedia systems and equipment – Colour measurement and management – Part 2-2: Colour management – Extended RGB colour space – scRGB.
  23. Reinhard u. a.: High Dynamic Range Imaging, S. 160–164
  24. Bloch: Das HDRI-Handbuch, S. 97
  25. Hoefflinger: High-Dynamic-Range (HDR) Vision, S. 2
  26. Bloch: Das HDRI-Handbuch, S. 103
  27. http://digitalleben.t-online.de/erste-kompaktkamera-mit-integriertem-hdr/id_17771738/index
  28. Reinhard u. a.: High Dynamic Range Imaging, S. 145
  29. J. Stumpfel u. a.: Direct HDR Capture of the Sun and Sky. In AFRIGRAPH 2004 Proceedings, S. 145–149. ACM, New York 2004, ISBN 1-58113-863-6 (Online)
  30. Reinhard u. a.: High Dynamic Range Imaging, S. 396–401
  31. Greg Spencer u. a.: Physically-Based Glare Effects for Digital Images. In ACM SIGGRAPH 1995 Proceedings, S. 325–334. ACM, New York 1995, ISBN 0-89791-701-4 (PDF, 2,8 MB)
  32. O. Bimber u. a.: Superimposing Dynamic Range. ACM SIGGRAPH Asia 2008 Papers, Article No. 150, ISSN 0730-0301 (PDF, 35 MB)
  33. Reinhard u. a.: High Dynamic Range Imaging, S. 171
  34. Reinhard u. a.: High Dynamic Range Imaging, S. 176–179
  35. Reinhard u. a.: High Dynamic Range Imaging, S. 9
  36. Jacobs: High Dynamic Range Imaging and its Application in Building Research
  37. a b Reinhard u. a.: High Dynamic Range Imaging, S. 182 f.
  38. Reinhard u. a.: High Dynamic Range Imaging, S. 17
  39. Gregory Ward Larson: A Visibility Matching Tone Reproduction Operator for High Dynamic Range Scenes. IEEE Transactions on Visualization and Computer Graphics 3, 4 (Oct.-Dec. 1997): 291–306 (PDF, 880 KB)
  40. Jiangtao Kuang u. a.: iCAM06: A refined image appearance model for HDR image rendering. Journal of Visual Communication and Image Representation 18, 5 (Oct. 2007), S. 406–414, ISSN 1047-3203 (Online)
  41. Erik Reinhard: Flickr HDR, abgerufen am 22. Februar 2009
  42. Bloch: Das HDRI-Handbuch, S. 189 f.
  43. Siehe etwa Tom Mertens, Jan Kautz, Frank van Reeth: Exposure Fusion. In Proceedings of Pacific Graphics 2007, S. 382–390. IEEE, Piscataway (NJ) 2007, ISBN 0-7695-3009-5 (Online)
Dies ist ein als lesenswert ausgezeichneter Artikel.
Dieser Artikel wurde am 8. März 2009 in dieser Version in die Liste der lesenswerten Artikel aufgenommen.