Logo Logo
/// 

HDR Basics Teil 2 - die Standards HDR10, HLG und Dolby Vision, und was ist eigentlich EOTF?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://images.slashcam.de/texte/1647-- ... -FRONT.jpg
Im zweiten Teil unserer HDR Basics wollen wir einmal die wichtigsten Formate möglichst erhellend darstellen und müssen auch hierfür noch einmal etwas ausholen... und zum Beispiel klären, ab wann man überhaupt von HDR sprechen kann.

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Grundlagen: HDR Basics Teil 2 - die Standards HDR10, HLG und Dolby Vision, und was ist eigentlich EOTF?




Antwort von marty_mc:

Danke für Teil 2 zu diesem Thema!!! :-)

...vielleicht könntet ihr nochmal den Absatz, dass analoges Kino HDR wäre, nochmal etwas verfeinern? Was meint ihr mit "normaler Filmprojektion". Analog oder digital?



Antwort von Whazabi:

Schöner Artikel.
Nur eine paar Kleinigkeiten hätte ich als Verbesserungsvorschläge.
Man könnte meines Erachtens nach die Verwandtschaft von DV, HDR10 und HDR10+ noch etwas stärker herausarbeiten.
Defakto kann Jedes Gerät, das DV oder HDR10+ kann auch den normalen HDR10 Standard wiedergeben und umgekehrt kann auch jedes HDR10 fähiges Gerät DV und HDR10+ abspielen, dann eben mit etwas schlechterer Qualität (ohne dynamische Metadaten und 12 bit). Das macht HDR10 zum kleinsten gemeinsamen Nenner der HDR Formate.
Übrigens DV kann BIS ZU 12bit. Das ist keine statische Voraussetzung an das Film-Material.
Auch die Vor- und Nachteile von HLG werden nicht besonders verdeutlicht. Letztlich spricht für HLG ja eben gerade die Abwärtskompatibilität zu herkömmlichem TV-Bild, weshalb es eben bevorzugt von der BBC - und voraussichtlich auch den meisten übrigen Fernsehanstalten - verwendet wird. Aber es gibt eben auch den Nachteil, dass durch diese Kompatibilität die Dynamik in den Schatten stärker komprimiert wird. Weshalb sich momentan abzeichnet, dass HDR10 sich als Quasi-Standard bei Film-Produktionen (vor allem Indie-Filme mit geringerem Budget) etabliert sowie HLG bei TV-Ausstrahlungen.





Antwort von junkbox:

Mit der Erklärung von PQ und HLG komme ich noch nicht ganz klar. Wenn 100% Weiß mit 100 Nits (PQ) oder 50% der Spitzenleuchtdichte (HLG) dargestellt wird, was kommt denn dann noch darüber? Wenn ein Signal, dass 100% Luminaz enthält nur bei 50% Leuchtdichte angezeigt, würden doch 50% Helligkeit dauerhaft verschenkt. Wo liegt mein Denkfehler?



Antwort von WoWu:

Das ist ja genau der springende Punkt, warum HDR eigentlich Augenwischerei ist und der eigentliche Vorteil in min.10 BitBit im Glossar erklärt und, so er denn erreicht wird, auch die höhere Farbwiedergabe liegt.
Und, sofern man keine sinnvolle Verwendung für die schon manisch gewordene Notwendigkeit für mehr Blenden hat, bringt einem das alles ziemlich wenig.

Mehr als 6 Blenden geben die Reflektionen von Schwarz (1-2% Reflektion) bis Weiß (98% Reflektion) nämlich nicht her.
Alle Blenden darüber gehen in Spitzlichtern auf.
Erst die finden ihre Anwendung in HDR denn wenn 1-100% in 1-100 Nits abgebildet werden, betrifft dies den gesamten Helligkeitsbereich, sowohl des SDR als auch des HDR .
SDR Geräte kneifen danach, also in den Spitzlichtern ab, was HDR Geräte nicht tun.
Legt man nun den Weisspunkt tiefer, also bei 50%, betrifft das auch die ersten 6 Blenden.
Lediglich die Spitzlichter ab BlendeBlende im Glossar erklärt 7+ werden dann nicht mehr auf SDR geklippt, aber weil sich auch 99% der Bildinhalte nicht in Spitzlichtern abspielen, sondern zwischen Schwarz und Weiß, wirkt das Bild ziemlich grau.
Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 BitBit im Glossar erklärt, bieten sich solche Übertragungsfunktionen natürlich an.



Antwort von dosaris:


Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 BitBit im Glossar erklärt, bieten sich solche Übertragungsfunktionen natürlich an.

nicht dass ich alle Sensoren kennen würde (sowohl CCDCCD im Glossar erklärt als auch CMOS, die techn Infos dazu sind
eh meist mager), aber die Ü-Kurven, die ich dazu gesehen hatte, zeigen nahe Schwarzwert zuerst
einen flacheren Verlauf. Erst darüber werden die in etwas linear.

Und solange die noch unten im Rauschen stecken sind die niederwertigen Bits eh egal.
Rauschen in 10 BitBit im Glossar erklärt Auflösung ist nicht wesentlich schöner als Rauschen in 8 bit.



Antwort von WoWu:

Das ist nicht so ganz richtig, weil Verstärkung andere Anstigskurven im Rauschen hat, als beispielsweise die Zunahme an Sensorrauschen.
(Siehe auch Dualgain Verfahren)
Daher ist es schon nicht ganz unwichtig, wieviele Codewerte ich in welchem Bereich einsetzen kann.
Dass die Kamera pro Poton auch ein e- erzeugt ist eher unwahrscheinlich denn das würde eine optimale Quanteneffizienz bedeuten. Und hinter Mosaicfilter liegen z.Tl. sowieso nur noch 50% Luminanz.
Wir haben es im unteren Bereich also immer mit Verstärkung zu tun, um überhaupt genügend Electronen zu erzeugen, die wir auf die Wertepositionen verteilen zu können.
Nur die 10 BitBit im Glossar erklärt haben natürlich auch etwas damit zu tun, wieviele Werte ich nutzen kann, ohne ins Banding zu verfallen.
Aber ich habe, meines Wissens auch gar nicht gesagt, dass 10Bit das Rauschen verbessert. Vielmehr ging es mir um den optischen Eindruck der inhaltlich dynamischen Bildauflösung, der den Unterschied macht.



Antwort von wolfgang:


Das ist ja genau der springende Punkt, warum HDR eigentlich Augenwischerei ist und der eigentliche Vorteil in min.10 BitBit im Glossar erklärt und, so er denn erreicht wird, auch die höhere Farbwiedergabe liegt.
Und, sofern man keine sinnvolle Verwendung für die schon manisch gewordene Notwendigkeit für mehr Blenden hat, bringt einem das alles ziemlich wenig.

Mehr als 6 Blenden geben die Reflektionen von Schwarz (1-2% Reflektion) bis Weiß (98% Reflektion) nämlich nicht her.
Alle Blenden darüber gehen in Spitzlichtern auf.
Erst die finden ihre Anwendung in HDR denn wenn 1-100% in 1-100 Nits abgebildet werden, betrifft dies den gesamten Helligkeitsbereich, sowohl des SDR als auch des HDR .
SDR Geräte kneifen danach, also in den Spitzlichtern ab, was HDR Geräte nicht tun.
Legt man nun den Weisspunkt tiefer, also bei 50%, betrifft das auch die ersten 6 Blenden.
Lediglich die Spitzlichter ab BlendeBlende im Glossar erklärt 7+ werden dann nicht mehr auf SDR geklippt, aber weil sich auch 99% der Bildinhalte nicht in Spitzlichtern abspielen, sondern zwischen Schwarz und Weiß, wirkt das Bild ziemlich grau.
Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 BitBit im Glossar erklärt, bieten sich solche Übertragungsfunktionen natürlich an.

Das ist ja voll mit Verständnisfehlern was HDR eigentlich ist. Mal abgesehen davon dass diffuses Weiß ohedies bei 90% (und nicht bei 98%) und das auch nur bei rec709 liegt, soll dieses diffuse Weiß eben immer auf 100 nits gelegt werden. Manche nehmen noch 200nits, aber da HDR im Gegensatz zu irrigen Meinungen im durchschnittlichen Bild nicht massiv heller werden wird ist das ok. Nur clippte in SDR alles über 100nits weg und da helfen die knees auch wenig.

Bei log liegen die 18% und 90% Punkte dann ja auch viel tiefer, um nach oben hin Platz zu haben. Platz für die zusätzliche Information.

Unverändert bleiben aber die meist relevanten Mitteltöner in den ca. 2,5 Blendenstufen liegen, die man zwischen 18% Grau und 90% Weiß einfach hat. Die typischen log Kameras habe bei ihren 14 oder 15 Stufen ca 6 Stufen über 18% Grau, für die Mitteltöner werden eben die ersten ca 2,5 Stufen verbraucht, und für die Highlights über 100nits eben die restlichen ca. 2,5-4 Stufen. Was nicht so wahnsinnig viel ist, da jede Blendenstufen ja eine Verdoppelung der Helligkeit bedeutet. Die erste Stufe über 100nits geht also auf 200nits, die zweite auf 400nits, erst bei der dritten Stufe ist man auf 800nits und bei der vierten auf 1600nits. Das ist nicht so enorm viel, reicht aber aus um häufige Highlights wie etwa helle Wolken im Hintergrund eines Personenaufnahme endlich mal abbilden zu können.

Ansonsten finde ich einige Aspekte der Artikel gut, etwa die Grundlagen. Aber aus der völlig absurden von Monitorherstellern selbst und aus Eigeninteressen verabschiedeten "Monitornorm" abzuleiten (nach der 300nits Monitore als HDR angeboten werden dürfen obwohl die kaum mehr Blendenstufen können) dass da gar nichts normiert sei ist schon arg irreführend. Wichtig sind die Normen für HLG und PQ in den HDR TVs - denn dafür wird produziert. Und die sind schon ausreichend klar, vor allem bei HLG.



Antwort von WoWu:

Seit wann sind Remissionen abhängig von Übertragungsfunktionen ?

90 oder 98 % Remission für Weiß finden vor der Kamera statt und nicht in Rec 709 oder irgend einer andern Funktion.
Und zwischen Schwarz und reflektiertem Licht von Weiß liegen nun mal nur rd. 6 Benden, egal wie Du sie hinterher überträgst und die restlichen Blenden sind in der Lage, hellere Lichtanteile zu übertragen, also für Spitzlichter.
Und ob das nun 90 oder 98% sind, ist ohnehin vom Raumwinkel anhängig, in diesem Zusammenhang aber ziemlich egal, weil das alles in einer BlendeBlende im Glossar erklärt liegt.
Fakt ist, dass bei der Verlagerung des Weisspunktes, egal ob 90 oder 98, nach 50% das Bild deutlich dunkler wird.

HDR besteht im Wesentlichen daraus, dass Werte aus der Übertragungstsbelle, oberhalb von Weiß, die Hintergrundbeleuchtung des Monitors beeinflussen und sie entweder abdunkelt (unterhalb eines Wertes) oder aufhellen (oberhalb der Schwelle).
Mehr NITs bedeuten überhaupt noch nichts, denn sie machen lediglich den Monitor heller, haben aber nichts mit HDR zu tun. Das Spezifikationen eine höhere Helligkeit als Grundvoraussetzung für HDR stellen bedeutet nämlich noch nicht, dass es sich dabei um HDR Geräte handelt.
Erst die Erweiterung der Dynamik, beispielsweise durch hellere Ansteuerung von Werten oberhalb einer Schwelle, ergeben dynamischer Lichtereignisse.
Was nun aber nicht unbedingt der Bringer ist.
Ob die paar Glühbirnen oberhalb der 6 Blenden zwischen schwarz und weiß nun strahlen, oder nicht....
Wohl aber die bildinhaltliche Auflösung in höhere Einzelschritte (z.B.10/12Bit in PQ) geben einen anderen Bildeindruck.
Man kann auch 8 BitBit im Glossar erklärt in PQ auflösen, hat dann aber eben gegen zunehmendes Banding zu kämpfen.

HDR spielt sich also weitestgehend im TV Gerät ab.



Antwort von domain:


HDR spielt sich also weitestgehend im TV Gerät ab.

Schöne Aussichten, wenn quasi hinter dem eigentlichen Bild noch ein zweites partiell aufhellendes oder abdunkelndes aus der intelligent angesteuerten Hintergrundbeleuchtung vorhanden ist.
Muss für Grader die reinste Freude sein.
Ob das ihre Schnitt-Monitore derzeit auch simulieren können?



Antwort von WoWu:

Wenn sie über HDR Geräte graden, dann schon.
Ansonsten stellt EIZO Monitore, die einstellbare Werte über einem Graupegel farblich darstellen. Das hilft schon mal.
Was aber interessant wird, sind die Abblendungen in den TV Geräten, die sich nach der Stromaufnahme der Geräte richten (EU: 2009/642/EC). Da verdunkelt sich nämlich der Monitor in Abhängigkeit der Weissfläche des Bildinhaltes bis auf den Wert von 70% der maximalen Leuchtstärke und weil das die Stromaufnahme regelt (16Watt + A x 4,3224 W/dm2), jedes Gerät aber unterschiedlich Strom zieht (LED / OLED oder was auch immer), wird das für jeden Grader zur Wundertüte.
Mal ganz abgesehen davon, dass solches Effekte den HDR Fernseher in Content mit vielen hellen Bildsituationen schlechter aussehen lassen kann, als herkömmliche Geräte, zumal die meisten ja mittlerweile auch mehr als 100 Nits können.
Da steckt also noch ausreichend Potential für Überraschungen drin.



Antwort von deMathi:

Zur Info:
Cinema Screens - Referenz.

http://www.samsung.com/ch/news/corporat ... r-schweiz/

Wir arbeiten daran.
Ist noch nicht Final, aber schon mal sehr gute Basis.
Ab März 2018.
Es braucht übrigens eine "Sondergenehmigung", damit die Notausgansleuchten abgeschaltet werden dürfen für kurze Zeit,
damit HDR überhaupt zu Geltung kommen kann.

Next Steps:

Der Pixel-Pitch ist zwar in Ordnung, überblendet aber zu oft für echtes HDR.

Wir planen ein Referenz-Kinosaal mit Sony "Cledis".

https://pro.sony.com/bbsc/ssr/cat-monit ... Wide.shtml

Der Unterschied ist:

Die verfügbare Schwarzfläche im Abstand zwischen den positionierten LED's (99% Schwarz).

Nur mit diesem Produkt kriegt man echtes HDR.

Technisch: Gilt auch für alle Monitore.

LED-Grösse sollte bei ca. 0.003 mm2 sein.99% der Fläche ist Schwarz, damit die "Reflektionen" eliminiert werden pro Pixel!

Nur so ist es gewährleistet, dass mann 1000 Nit fahren kann.

Lg

de Mathi



Antwort von Roland Schulz:



HDR spielt sich also weitestgehend im TV Gerät ab.

Schöne Aussichten, wenn quasi hinter dem eigentlichen Bild noch ein zweites partiell aufhellendes oder abdunkelndes aus der intelligent angesteuerten Hintergrundbeleuchtung vorhanden ist.
Muss für Grader die reinste Freude sein.
Ob das ihre Schnitt-Monitore derzeit auch simulieren können?

...das ist der nächste Sch.... bei der Sache, zudem kann keiner vorher absehen wie die dynamische Regelung im LCD oder OLED TV des Betrachters agiert, geschweige denn von der einstellbaren Helligkeit. Mein von mir hochgelobter Sony ZD9 LCD macht z.B. bei langsamen Schwarzblenden auch "Mist", versucht das Bild dann mit dynamischem BacklightBacklight im Glossar erklärt aufzuhellen weil in der Darstellung plötzlich "Reserve" besteht. Ein OLED macht das aber nicht anders, wahrscheinlich sogar noch schlimmer da hier die Spreizung zwischen maximaler Helligkeit bei vollem Display zu kleinem Ausschnitt der Darstellung "meist" noch größer ist (~Faktor 4.8 OLED gegen ~Faktor 2,5 LCD).

Am Ende finde "ich" die aktuellen "High Performance" TV"s trotzdem klasse. Wenn ich mein ~13 stops CinegammaCinegamma im Glossar erklärt Material auf nem billigen EIZO CS240 zu 10bit REC.709 grade und auf dem ZD9 angucke sieht das schon richtig klasse aus, mit allen Schatten und Spitzlichern und in für mich absolut ansprechender Helligkeit! Reflektionen auf Wasseroberflächen (partiell dan IRE100) erzielen eine Art Blendeffekt, so wie"s sein soll. Das geht aber auch alles ohne "kompliziertes" "HDR". 4K HDR BluRay"s haben für mich bisher auch keinen Benefit gezeigt. Auch wenn ich in EDIUS 9 als HDR ausgebe und direkt mit dem Fernseher wiedergebe bringt mir das keinen Aha Effekt, keine visuelle Verbesserung.

Denke am Ende bleibt"s dabei was Wolfgang (Wowu) schreibt, das "Bild" macht der TV und auch aus "Standardaufnahmen" packt der je nach Qualität mehr aus als ein technisch schlechteres Gerät. 10bit ist nie ein Nachteil gegenüber 8bit und wenn"s nur weitere Quantisierungsverluste beim Graden vermindert oder Schwarzblenden weicher macht.

Bei nur max. 6 Blenden die in der Natur/Szenen auftreten sollen lande ich aber trotzdem (bei Weitem!!) nicht ;-).




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
VESA DisplayHDR 1.1 Spezifikationen strenger und mit neuem DisplayHDR 1400 Standard
Wann kann ein Monitor echtes HDR darstellen? Vorsicht bei den DisplayHDR Standards
Neuer VESA Standard DisplayHDR True Black für OLED und Micro LED Displays // CES 2019
HDR Basics Teil 2 - die Standards HDR10, HLG und Dolby Vision, und was ist eigentlich EOTF?
VESA verabschiedet neuen DisplayHDR 1.0 Standard
ITU kündigt neuen HDR TV Rec.2100 Standard an
HDR Standard für TVs
Ultra-HD Blu-Ray Standard bringt 4K Blu-ray Discs samt HDR und Rec.2020
Amazon und Samsung erweitern HDR10-Standard - HDR10+
LG G6: 5.7" Smartphone mit Dolby Vision HDR und dualer Kamera
Vizio 4K TV -- HDR und Dolby Vision auf 120" für 130.000 Dollar
HDR Basics Teil 1 - Begriffe, Nits, LED vs. OLED
Xbox One unterstützt HDR per Dolby Vision
H.265 Encoder x265 3.0 unterstützt ab sofort HDR per Dolby Vision
Hat jemand schon Rogue One mit Dolby Vision HDR in Salzburg gesehen?
Erster 4K UltraHD Blu-ray Player mit Dolby Vision HDR: Oppo UDP-203
Panasonic Lumix S1: 4K 10-bit 422 HDR/HLG-Aufnahme ab Start mit Atomos Ninja V und Inferno
GH5 Firmwareupdate 2.0 bringt ALL-Intra mit 400 Mbps, 4K HLG HDR Video und mehr // IFA 2017
Dolby Cinema mit HDR und Atmos-Sound: Das Kino der Zukunft?
Hollywood-Regisseur: HDR ist ein Desaster und 8K eine Verschwendung und dumm
Codec und Konvertierung Basics
Dolby Vision für Indy Filmmakers
Ist die Gopro die günstigste und schnellste Art zu drehen?
VLC Player 3.0 ist da: 8K, HDR, 360°, HQX und Cineform
DJI Ronin-S und Panasonic GH5S - wie gut ist der Einhand-Gimbal Ronin-S im leichten Setup? Teil 2
Ratgeber : Computer für 4K-Videobearbeitung konfigurieren --Teil 1: CPU, GPU und die Kern-Frage -- AMD oder Intel?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen