Das InfoTip Kompendium

Ein kostenloser Service der InfoTip Service GmbH

Zum Anfang der
Seite scrollen

HDR - HDRI

High Dynamic Range Imaging

Inhaltsverzeichnis

1. Allgemeines

High Dynamic Range Imaging (HDRI oder HDR = die Erstellung von Bildern mit hohem Dynamikumfang oder Hochkontrastbildern) besteht aus mehreren Techniken von bildgebenden Verfahren. Das Ziel hierbei ist es, Einzel- oder Bewegtbilder mit einem größeren Dynamikbereich in den Helligkeitswerten zu erzielen, als es mit konventionellen digitalen fotografischen oder filmischen Mitteln möglich ist. Ein erweiterter Dynamikbereich führt zu einem sehr hohen Kontrast und einer feinen, detaillierten Zeichnung des Bildes. Die animierte Abbildung 1.01 demonstriert diesen Unterschied. Ein echtes HDR-Bild kann natürlich nicht dargestellt werden, da HDR-Bilder und Filme in speziellen Formaten kodiert sind, die von Standardbrowsern und normalen Computer-Displays zumeist nicht dargestellt werden können. 

Abb. 1.01: Vergleich zwischen Standard- und HDRI
Abb. 1.01: Vergleich zwischen Standard- und HDRI

2. Die Physiologie des Sehens

Das menschliche Auge ist durch die Adaption der Iris in der Lage sich an die ständig ändernden Lichtverhältnisse anzupassen. Das Gehirn wertet die Informationen immer wieder neu aus und ermöglicht es uns so einen weiten Bereich von Helligkeitsunterschieden wahrzunehmen. Dabei ist die Empfindlichkeit für Helligkeitsunterschiede keineswegs linear. Das bedeutet, dass die empfundene Helligkeit nicht mit der tatsächlichen Helligkeit ansteigt. Besonders auffällig ist dies bei der Anpassung an Dunkelheit. Nimmt das Auge bei Tageslicht bereits 100 cd/m2 (Candela pro Quadratmeter) oder Nits als Weiß wahr, reicht im Kino bereits ein Drittel dieser Lichtmenge auf der Leinwand aus. Aber anders herum, die Lichtmenge, die im Kino als Weiß empfunden wird, erscheint im Tageslicht bereits als grau. Dieser Zusammenhang wird in der Technik als Gamma oder Gammawert bezeichnet, ein Begriff, der im Kapitel 3 weiter erläutert werden soll.

Die meisten Kameras sind mittels ihrer Blendensteuerung zwar auch fähig ihre Empfindlichkeit an die Helligkeit anzupassen, aber, abgesehen von professionellen und Spezialkameras, nur eingeschränkt. Dies liegt hauptsächlich an der geringen Empfindlichkeit der Bildsensoren. Empfängt ein Sensor zu wenig Licht ("Tiefen"), verrauscht das gelieferte Bild. Bei zu hellen Bildpartien ("Lichter") übersteuert das Signal (Smearing, Blooming). In der "analogen" Fotografie entspricht dies einer Unter- bzw. Überbelichtung.

Ein weiterer Faktor, der die Dynamik der Luminanz in einem konventionellen digitalen Bild begrenzt, ist die geringe Bandbreite des gelieferten Signals. Einem Bild im sRGB-Farbraum, dem Standardfarbraum für digitale Fotografie, stehen pro Pixel 24 Bit Informationstiefe zur Verfügung, pro Farbkanal also 8 Bit. Damit lassen sich zwar über 16 Millionen Farbtöne darstellen, aber gerade einmal nur 256 Helligkeitsstufen. Aufgrund der Physiologie ist aber die Empfindlichkeit des menschlichen Auges für Helligkeitsunterschiede wesentlich höher als für Farbunterschiede.

Gibt man ein solches Bild auf einem Display mit einer hohen dynamischen Helligkeitsauflösung wieder, wird ein sog. Banding sichtbar. Beim Banding zeigen sich deutlich abgegrenzte Flächen gleichen Helligkeitswertes.

Abb. 2.01: Beim Banding zeichnen sich bei Helligkeitsübergängen Konturen und Flächen gleichen Tonwerts ab
Abb. 2.01: Beim Banding zeichnen sich bei Helligkeitsübergängen Konturen und Flächen gleichen Tonwerts ab

Abbildung 2.02 stellt die Luminanz-Empfindlichkeiten vom menschlichen Auge und digitalen Bildsensoren gegenüber. Beim Auge reicht sie von etwa 10-6 cd/m2 bei etwas Sternenlicht bis etwa 108 cd/m2 bei gleißendem Sonnenlicht. Spezialsensoren können zwar beide Grenzwerte mit Leichtigkeit überschreiten (z.B. Photovervielfacher in Nachtsichtgeräten oder Mikrobolometer in Wärmebildkameras), aber kein Standard-Sensor oder Display kann den kompletten Dynamikbereich des menschlichen Auges erfassen. Plasma- und LCD-Displays haben Probleme mit den Schwarzwerten (0,15…0,8 cd/m2)  und können auch kein so helles Bild liefern (Standardmodelle maximal 200-500 cd/m2, Highend-Geräte bis 1000 cd/m2), dass wir es im hellen Tageslicht (>1.000.000 cd/m2) betrachten könnten. Einzig Profimonitore oder LED-Projektionswände (ca. 5000 cd/m2) sind zurzeit in der Lage Bilder mit hoher Luminanzdynamik darzustellen.

Spätestens mit der Markteinführung von UHD-1 Phase 2 (ab 2017) müssen jedoch HDR-taugliche Displays zu erschwinglichen Preisen verfügbar sein.

Abb. 2.02: Dynamikbereiche im Vergleich
Abb. 2.02: Dynamikbereiche im Vergleich

3. HDR in der Videotechnik

Die gesamte Luminanzdynamik von absoluter Dunkelheit bis zum hellsten Sonnenlicht umfasst ca. 15 Größenordnungen. Um einen solchen Dynamikbereich darstellen zu können, werden etwa 40 Bit benötigt. Das menschliche Auge hat eine Luminanzauflösung von 12-14 Bit.
Die zurzeit eingesetzte Übertragungstechnik für Video und TV verwendet eine Datentiefe von 7 oder 8 Bit. Der gesamte Workflow von Produktion, Verteilung und Wiedergabe von digitalen Inhalten ist auf diese Werte hin ausgerichtet.
Moderne Profikameras können schon heute eine Luminanzdynamik von 14-15 Bit aufzeichnen und auch die Display-Technologie wird sicherlich bald in der Lage sein, Displays mit 10 Bit Luminanzauflösung als Massenprodukt zu liefern.

Es wird also ein zum bestehenden System kompatibler Workflow benötigt, der die Übertragung der zusätzlichen HDR-Informationen gewährleisten kann. Die Einführung von HDR mit UHD-1 Phase 2 wird sicherlich nicht bewirken, dass dann nur noch in HDR produziert und verteilt wird. Das bedeutet, dass der HDR-Workflow rückwärtskompatibel zu SDR (Standard Dynamic Range) zu sein hat und eine Signalisierung mittels Metadaten über den kompletten Übertragungsweg, von der Produktion bis zum Wiedergabegerät und Display, stattzufinden hat.
Denn um HDR-Bilder korrekt wiedergeben zu können, benötigt das Wiedergabegerät (Ultra HD Blu-ray Disc-Player o.ä.) Informationen (Supplemental Enhancement Information oder SEI messages) über den Kompressionsvorgang und den Farbraum des darzustellenden Bildes, weil bei einer Wiedergabe mit Standardwerten das Bild u. a. in den Farben übersättigt und mit falschen Helligkeitswerten und Farbton angezeigt wird.

Abb. 3.01: Gegenüberstellung von numerischen Werten und Helligkeitswerten in 8 Bit- und 10 Bit-(HDR-)Videosignalen
Abb. 3.01: Gegenüberstellung von numerischen Werten und Helligkeitswerten in 8 Bit- und 10 Bit-(HDR-)Videosignalen

Abbildung 3.01 zeigt die Gegenüberstellung eines 8 Bit- mit einem 10 Bit-Videosignal. Beide Skalen sind bezogen auf zwei Referenzpunkte: dem Schwarzwert und dem 100 Nits-Punkt. Der Schwarzwert ist abhängig vom verwendeten Display. Standard-LCD-TV haben einen Schwarzwert von etwa 0,01 Nit. Displays der kommenden Generation könnten einen Schwarzwert von 0,001 Nit aufweisen. In dem Bereich von 100 Nits hat das menschliche Auge die höchste Empfindlichkeit für Helligkeitsunterschiede und muss deshalb besonders berücksichtigt werden. Soll ein Signal in ein anders umgewandelt werden oder auf einem nicht 1:1-Display wiedergegeben werden, muss eine Kompensation, die das menschliche Helligkeitswahrnehmungsvermögen berücksichtigt, implementiert werden. Eine solche Korrektur wurde bislang als Gammakorrektur bezeichnet.

3.1. Gamma ist tot ...

Wie bereits im Kapitel 2. Physiologie ... beschrieben, ist die menschliche Helligkeitswahrnehmung nicht linear. Das gleiche gilt auch für viele bildaufzeichnende und bildwiedergebende Geräte wie Kameras, Displays und Drucker. Zusätzlich können auch noch andere Effekte, wie beispielsweise das optoelektrische Verhalten von Bildröhren, die Nichtlinearitäten so sehr verstärken, dass technische Maßnahmen ergriffen werden müssen, um dieses sogenannte Gamma zu kompensieren.

Gammakorrektur

Die Anpassung eines analogen oder digitalen Bildes an das menschliche Helligkeitsempfinden wird als Gamma- oder  in der Fotografie als Tonwert-Korrektur bezeichnet. Ein klassisches Beispiel für ein Gerät mit eigenem Gamma ist die gute alte Bildröhre.

Abb. 3.02: Übertragungskennlinie einer Bildröhre (CRT)
Abb. 3.02: Übertragungskennlinie einer Bildröhre (CRT)

Eine Bildröhre wandelt ein (elektrisches) Videosignal in Licht. Bedingt durch die physikalischen Eigenschaften als Elektronenröhre und auch durch die Eigenschaften der Leuchtstoffe auf dem Bildschirm, nimmt mit steigender Spannung des Videosignals die Helligkeit des Leuchtflecks exponentiell zu. Das führt dazu, dass über 70% des Signalumfangs für die dunkleren Bildpartien (0- 50% Helligkeit) verwendet werden während für die helleren Bildpartien (50-100%) weniger als 30% Signalamplitude verbleiben. Als Resultat werden die dunklen Bildpartien überbetont (mittleres Bild in der Abbildung 3.03).

Abb. 3.03: Gammakorrektur von Bildröhren
Abb. 3.03: Gammakorrektur von Bildröhren

Um diese nichtlineare Helligkeitsverteilung dem menschlichen Sehempfinden anzupassen, muss das Videosignal dem Gamma von Bildröhren (Abbildung 3.02: rote Kennlinie) entsprechend "vorverzerrt" werden (blaue Linie), damit sich beide Kennlinien zu einer linearen Transfer-Funktion (grüne Linie) kompensieren. Die numerische Kenngröße des Gammas beruht auf einer mathematischen Formel (siehe hier). Bildröhren haben ein Gamma zwischen 1,8 und 2,3.

Diese Vorverzerrung des Videosignales wurde bislang immer bei der Produktion des Videomaterials, also schon in der Kamera oder am Bildmischer, vorgenommen. Einen einheitlichen Standard hierfür gab es übrigens bis 2011 nicht. Gelegentlich wurde daher die Gammakorrektur auch für dramaturgische Zwecke missbraucht.

Mit dem Erscheinen von digitalen Flachbildschirmen und dem Verschwinden von Röhrendisplays verlor die Gammakorrektur an Bedeutung, denn digitale Displays sind in der Helligkeitssteuerung linear. Da viele Videosignale aber immer noch mit der Gammavorverzerrung versehen sind, haben alle Displays eine Degamma-Schaltung zur Neutralisierung.

Wenn digitale Displays keine Gammakorrektur benötigen, wie können dann digitale Signale unterschiedlicher Bitbreite (7, 8, 10 oder 12) auf einem Display korrekt dargestellt werden? Die Lösung heißt "Electro Optical Transfer Funktion" (EOTF).

3.2 ... es lebe EOTF!

Wenn digitale Displays eine lineare Helligkeitskennlinie haben, warum brauchen wir EOTF (Electronic-Optical-Transfer Function)? Hierfür gibt es mehrere Gründe. Die Videosysteme der nächsten Generation werden eine wesentlich höhere Leuchtkraft und einen höheren Kontrastumfang (HDR!) haben. Theoretisch könnte man diese zusätzliche Dynamik in einer Art Gammakorrektur "hineinquetschen", was aber nur im begrenzten Maße möglich ist und nicht die gewünschte Präzision erfüllt. Denn eine Gammakorrektur ist eine OETF (Opto Electronic Transfer Function). Das bedeutet, dass das Videosignal bei der Aufnahme korrigiert wird und die Korrekturwerte im elektrischen Signal nicht nachvollziehbar sind. Bei unterschiedlichen Displays führt dies zu unterschiedlichen Darstellungen. Ziel ist es jedoch, dass alle Korrekturen in der Postproduktion an einem kalibrierten Referenzmonitor mittels einer fest vorgegebenen EOTF vorgenommen werden und somit auch auf Displays unterschiedlichen Luminanzumfangs dargestellt werden können.

Abb. 3.04: Alternativen bei der Korrektur der Luminanzdynamik
Abb. 3.04: Alternativen bei der Korrektur der Luminanzdynamik

Abbildung 3.04 zeigt die Empfindlichkeit des menschlichen Auges auf Helligkeitsunterschiede (kleinste Kontraststufen) relativ zur Leuchtdichte (Luminanz) des Bildschirms. Die Wahrnehmungsschwelle (Barton Kontrastempfindlichkeitsfunktion) kennzeichnet die Grenzen. Im roten Bereich werden an den Kontraststufen Kanten sichtbar und ein Banding ist zu erkennen. Im grünen Bereich können wir keine Kanten an den Kontraststufen feststellen und die Übergänge sind fließend.

Die rote Kennlinie stellt den Verlauf einer 10 Bit-Gammakurve von einem Schwarzwert von 0,01 Nits bis 100 Nits, also dem Standarddynamikumfang, dar. In einem System mit hoher Luminanzdynamik fällt die Kurve zum größten Teil in den roten Bereich. Das bedeutet, dass bei geringer Helligkeit deutliche Stufungen in der Helligkeit zu bemerken sind.

Eine 15 Bit-Gammakurve (blaue Linie) zeigt für die dunkleren Bildbereiche bis 10 Nits eine sehr gute Funktionalität: feine Kontraststufen sind nicht als solche erkennbar. Allerdings ist in den hellen Bereichen ab 10 Nits die hohe Quantisierung nutzlos, da das Auge sie nicht zu erkennen vermag. Das bedeutet, dass wertvoller Coderaum verschwendet wird.

Etwas ähnliches passiert bei der Verwendung eines logarithmischen Gammas (grün, hier mit 13 Bits). Wir erhalten zwar eine optimale Korrektur in helleren Bildanteilen, aber in dunkleren Bildpartien unter 10 Nits wird wiederrum wertvoller Coderaum verschwendet.

Die Lösung des Problems bietet folglich eine Kombination aus den "guten" Teilen der linearen 15 Bit-Gamma (blau) und der logarithmischen 13 Bit-Gammakorrektur (rot). Eine solche Funktion lässt sich recht einfach in einer Look-Up-Table realisieren. Auch in einer mathematischen Funktion ließe sich der Übergang der einen Funktion in die andere (das sog. Knie) ohne Probleme definieren. Da aber dieser Knick (oder Knie) im Bereich der höchsten Sensivität für Helligkeitsunterschiede liegt und für Nichtlinearitäten verantwortlich sein kann, plädieren etliche renommierte Institutionen für eine "wahrnehmungsabhängige Quantisierung" der Korrektur. Die schwarze Linie (Dolby PQ EOTF = Perceptual Quantizer EOTF) stellt eine solche funktionale Annäherung dar. Die Korrekturkurve wird hierbei kontinuierlich so nahe wie möglich (und sinnvoll) an die Wahrnehmungsgrenze gelegt.

Um die Codes des gesamten 10 Bit-Wertebereiches von 0 (binär 00 0000 0000) bis 1023 (binär 11 1111 1111) optimal nutzen zu können, wurden im Standard SMTE ST-2084 drei Codebereiche festgelegt.

  • Die ersten 50% des Codeumfangs sind für Luminanzwerte von 0 - 100 Nits
  • Die nächsten 25% des Codeumfangs sind für Luminanzwerte von 100 - 1000 Nits
  • Die letzten 25% des Codeumfangs sind für Luminanzwerte von 1000 - 10 000 Nits

In einem Film/Clip/Einzelbild müssen nicht alle Codes, bzw. der volle Werteumfang, verwendet werden.

10 Bit Auflösung sollte für die Wiedergabe von Video im Consumerbereich ausreichen. Für die Videoproduktion können mehr Bits verwendet werden.

Abb. 3.04: Code-Verteilung des 10 Bit-Wertebereichs nach ST-2084 bezogen auf die Luminanz
Abb. 3.04: Code-Verteilung des 10 Bit-Wertebereichs nach ST-2084 bezogen auf die Luminanz

Abbildung 3.04 zeigt die entsprechenden Funktionen. Links in linearer Darstellung, rechts in logarithmischer.

 

3.3 Übertragung von HDR-Video

Videosignale mit HDR müssen eine vollständige Kompatibilität zum UHD-Transportweg (d.h. kodiert mit H.265 / HEVC [High Efficiency Video Codec]) und, was wesentlich komplizierter ist, einige vollständige Kompatibilität zu Nicht-HDR-Endgeräten aufweisen.

Dual Layer Format (Dolby Vision)

Der vielversprechendste Ansatz zur Lösung dieses Problems ist eine Übertragung des HDR-Signals in  zwei voneinander getrennten Streams. Der erste Stream überträgt ein Basissignal (BL = Basic Layer), das dem SDR- (Standard Resolution Range) Video entspricht. Zusätzlich wird in einem zweiten Stream (EL = Enhanced Layer) quasi die Differenz zwischen HDR- und SDR-Signal übertragen. Die Daten des BL-Layers plus den Daten des EL-Layers ergeben somit ein HDR-Signal. In einem dritten Stream werden Metadaten zur Steuerung der Streams übertragen. Dieses sog. Dual Layer Format von Dolby hat den Vorteil auf allen Nicht-HDR-Geräten sicher zu funktionieren.

Abb. 3.05: Übertragung von HDR-Video mit Dolby Vision Dual Layer
Abb. 3.05: Übertragung von HDR-Video mit Dolby Vision Dual Layer [2]

Andere Verfahren

Andere Verfahren, auch mit nur einem Layer, befinden sich in der Evaluierung. Die Entscheidung der Standardisierungsorganisationen welches oder welche Verfahren für HDR-Video via UHD-TV letztlich zum Standard erklärt werden, ist noch für 2015 zu erwarten.

SEI-Messages

Die Spezifikation zum H.265 / HEVC MPEG-Encoder definiert eine Reihe von Erweiterungen von denen drei den Transport und die Signalisierung von HDR-Video betreffen. Diese Metadaten-Messages, Supplemental Enhancement Information oder SEI Messages genannt, liefern Informationen wie ein HDR-Signal handzuhaben ist.

Die Chroma resampling filter hint SEI message beschreibt wie ein Farbraum in einen anderen umgemappt (Color Remapping) wird. Dies ist notwendig wenn z.B. ein in BT.2020 kodiertes Video mit 10 oder 12 Bit auf einem Display wiedergegeben werden soll, das lediglich nach BT.709 mit 8 Bit darstellen kann.

Die Knee function information SEI message beschreibt wie ein Luminanzdynamikumfang in einen anderen transformiert werden kann. Kapitel 3.2 dieses Artikels ist genau dieser Problematik gewidmet. Mit den Informationen in den Knee function information SEI messages kann die Lage und Form der EOTF definiert werden.

Die Mastering display colour volume SEI messages liefern Informationen über die Grundfarben und den Luminanzdynamikumfang des Monitors auf dem die Quelle gemastert wurde. Zusammen mit den Knee function information SEI messages können so die "Kniepunkte" der EOTF  des wiedergebenden Monitors optimiert werden.

4. HDR in der digitalen Fotografie

Erstellen von HDR-Bilder über Belichtungsreihen

Erfordert die Produktion von HDR-Filmen einen immensen technischen Aufwand, so können Standbilder mit recht einfachen Mitteln erstellt werden.
Hierzu wird von einer Szene eine Belichtungsreihe mit unterschiedlichen Belichtungswerten erstellt. Aus der Belichtungsreihe wird ein einziges Bild mit hohem Kontrastumfang erstellt. Über- und unterbelichtete Bildpartien werden dabei herausgerechnet.

4.01: Belichtungsreihe
4.01: Belichtungsreihe

Abbildung 4.01 zeigt eine Belichtungsserie bestehend aus einem normal belichtetem Bild (0 EV), einem mit einem Lichtwert (EV = Exposure Value) unterbelichtetem Bild (-1 EV) und einem mit einem Lichtwert (+1 EV) überbelichteten Bild. In dem unterbelichteten Bild sind die Tiefen betont, im überbelichteten die Lichter. In vielen Kameras (sogar in Mobiltelefonen) sind bereits Programme integriert, die solche Belichtungsreihen automatisch erstellen.

Workflow zur Erstellung von HDR-Bildern

Da die Bilder der Belichtungsreihe mit einem Zeitversatz aufgenommen werden, empfiehlt sich die Verwendung eines Statives und einer Fernbedienung. Anspruchsvollere Kameras lassen sich für die Aufnahme von Belichtungsreihen programmieren. Den Aufnahmestart kann man dann auch per Selbstauslöser verzögert veranlassen.
Motive mit sich schnell bewegenden Bildanteilen, z.B. Lebewesen, Meeresbrandung usw., sind für HDRI weniger geeignet.

Die fertige Belichtungsreihe wird in eine HDR-Grafiksoftware importiert. HDR-Grafiksoftware ist für alle Betriebssysteme erhältlich. Das HDR-Bild 1.01 wurde mit dem unter GPL (GNU General Public License) stehen Programm Luminanz HDR  erstellt.

Da schon kleine Erschütterungen bei der Aufnahme die Deckung der drei Bilder beeinflussen kann, ist oft eine Ausrichtung der Einzelbilder notwendig. Dieses kann zumeist von der Software automatisch vorgenommen werden. Sind in der Bilderreihe bewegte Bildpartien (Blätter, Wellen) kann die Funktion "Anti-Ghosting" Bewegungsunschärfen entfernen.

Es folgt dann die Auswahl des Kompressionsalgorithmus. Hier muss man ggf. ein wenig probieren bis man ein zufriedenstellendes Resultat erzielt hat. Bei der folgenden Berechnung des HDRI wird die Gesamthelligkeitsdynamik begrenzt.
Die Gesamthelligkeitsdynamik stellt Differenz zwischen dem hellsten Pixel im überbelichteten Bild und dem dunkelsten Pixel im unterbelichteten Bild dar. Sie kann die Luminanzdynamik eines HDR-Bildes überschreiten, da Bildpartien im unter- bzw. überbelichteten Bild zu stark unter- bzw. überbelichtet sein können um verwertbare Bildinformationen zu liefern.

Abb. 4.02: Erstellen eines HDRI aus einer Belichtungsreihe
Abb. 4.02: Erstellen eines HDRI aus einer Belichtungsreihe

Ist das Roh-HDR-Bild berechnet, können mit diversen Touch Up-Funktionen Details im Bild noch mehr betont, die Farbeinstellung geändert oder eine Tonwertkorrektur durchgeführt werden. Das fertige HDR-Bild kann dann in einem von mehreren Dateiformaten gespeichert werden.

Ein HDRI ist immer wesentlich größer als ein Ursprungsbild gleichen Formates und Auflösung. Die Ursache hierfür ist, dass in einem HDRI viel mehr Informationen enthalten sind als im Ursprungsbild.
Um alle Bilddetails zu erhalten und um  Kompressionsartefakte zu verhindern, sollte man sein HDRI mit verlustlosem Kompressionsverfahren speichern.

Wie zuvor beschrieben, können HDR-Inhalte mit vollem Dynamikumfang z.Zt. nur auf Spezial-Monitoren wiedergegeben werden. Für eine Wiedergabe auf Consumer-Geräten oder für den Druck muss eine Dynamikkompression (Tone Mapping) des HDRI zu LDRI (Low Dynamic Range Image) durchgeführt werden. Hierfür stehen eine Auswahl an Zielgeräten (Office-Monitor, LCD-TV, Beamer ...) zur Verfügung.

 

REFERENZEN

Abbildungen

[1] Abb.3.04 Quelle: Scott Miller (Dolby Laboratries): A Perceptual EOTF for Extended Dynamic Range Imagery (Handout SMPTE Webcast)
Zeichnung neu erstellt und übersetzt durch InfoTip.

[2] Abb.3.05 Quellen: Dolby Laboratries: Dolby Vision White Paper und VanguardVideo White Paper: An Introduction to High Dynamic Range (HDR) and Its Support within the H.265/HEVC Standard Extensions
Zeichnung neu erstellt und übersetzt durch InfoTip.

 

Weblinks

SMPTE 2014: Doing HDR With HEVC: TVTechnologie (October 22, 2014)

Luminanz HDR

 

 

Zuletzt geändert am 22.07.2015

Rechtshinweis

Sofern auf dieser Seite markenrechtlich geschützte Begriffe, geschützte (Wort- und/oder Bild-) Marken oder geschützte Produktnamen genannt werden, weisen wir ausdrücklich darauf hin, dass die Nennung dieser Marken, Namen und Begriffe hier ausschließlich der redaktionellen Beschreibung bzw. der Identifikation der genannten Produkte und/oder Hersteller bzw. der beschriebenen Technologien dienen.

Alle Rechte an den in diesem Kompendium erwähnten geschützten Marken- und/oder Produktnamen sind Eigentum der jeweiligen Rechteinhaber und werden hiermit ausdrücklich anerkannt. Alle in unseren Artikeln genannten und ggfs. durch Dritte geschützte Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen des jeweils gültigen Kennzeichenrechts sowie den Besitzrechten der jeweiligen eingetragenen Eigentümer.

Die Nennung von Produktnamen, Produkten und/oder der jeweiligen Produkthersteller dient ausschließlich Informationszwecken und stellt keine Werbung dar. InfoTip übernimmt hinsichtlich der Auswahl, Leistung oder Verwendbarkeit dieser Produkte keine Gewähr.

Sollten dennoch wider unserer Absicht Rechte Dritter verletzt werden, so bitten wir um eine Benachrichtigung ohne Kostennote.