WoWu hat geschrieben: ↑Sa 06 Jan, 2018 16:34
Das ist ja genau der springende Punkt, warum HDR eigentlich Augenwischerei ist und der eigentliche Vorteil in min.10 Bit und, so er denn erreicht wird, auch die höhere Farbwiedergabe liegt.
Und, sofern man keine sinnvolle Verwendung für die schon manisch gewordene Notwendigkeit für mehr Blenden hat, bringt einem das alles ziemlich wenig.
Mehr als 6 Blenden geben die Reflektionen von Schwarz (1-2% Reflektion) bis Weiß (98% Reflektion) nämlich nicht her.
Alle Blenden darüber gehen in Spitzlichtern auf.
Erst die finden ihre Anwendung in HDR denn wenn 1-100% in 1-100 Nits abgebildet werden, betrifft dies den gesamten Helligkeitsbereich, sowohl des SDR als auch des HDR .
SDR Geräte kneifen danach, also in den Spitzlichtern ab, was HDR Geräte nicht tun.
Legt man nun den Weisspunkt tiefer, also bei 50%, betrifft das auch die ersten 6 Blenden.
Lediglich die Spitzlichter ab Blende 7+ werden dann nicht mehr auf SDR geklippt, aber weil sich auch 99% der Bildinhalte nicht in Spitzlichtern abspielen, sondern zwischen Schwarz und Weiß, wirkt das Bild ziemlich grau.
Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 Bit, bieten sich solche Übertragungsfunktionen natürlich an.
Das ist ja voll mit Verständnisfehlern was HDR eigentlich ist. Mal abgesehen davon dass diffuses Weiß ohedies bei 90% (und nicht bei 98%) und das auch nur bei rec709 liegt, soll dieses diffuse Weiß eben immer auf 100 nits gelegt werden. Manche nehmen noch 200nits, aber da HDR im Gegensatz zu irrigen Meinungen im durchschnittlichen Bild nicht massiv heller werden wird ist das ok. Nur clippte in SDR alles über 100nits weg und da helfen die knees auch wenig.
Bei log liegen die 18% und 90% Punkte dann ja auch viel tiefer, um nach oben hin Platz zu haben. Platz für die zusätzliche Information.
Unverändert bleiben aber die meist relevanten Mitteltöner in den ca. 2,5 Blendenstufen liegen, die man zwischen 18% Grau und 90% Weiß einfach hat. Die typischen log Kameras habe bei ihren 14 oder 15 Stufen ca 6 Stufen über 18% Grau, für die Mitteltöner werden eben die ersten ca 2,5 Stufen verbraucht, und für die Highlights über 100nits eben die restlichen ca. 2,5-4 Stufen. Was nicht so wahnsinnig viel ist, da jede Blendenstufen ja eine Verdoppelung der Helligkeit bedeutet. Die erste Stufe über 100nits geht also auf 200nits, die zweite auf 400nits, erst bei der dritten Stufe ist man auf 800nits und bei der vierten auf 1600nits. Das ist nicht so enorm viel, reicht aber aus um häufige Highlights wie etwa helle Wolken im Hintergrund eines Personenaufnahme endlich mal abbilden zu können.
Ansonsten finde ich einige Aspekte der Artikel gut, etwa die Grundlagen. Aber aus der völlig absurden von Monitorherstellern selbst und aus Eigeninteressen verabschiedeten „Monitornorm“ abzuleiten (nach der 300nits Monitore als HDR angeboten werden dürfen obwohl die kaum mehr Blendenstufen können) dass da gar nichts normiert sei ist schon arg irreführend. Wichtig sind die Normen für HLG und PQ in den HDR TVs - denn dafür wird produziert. Und die sind schon ausreichend klar, vor allem bei HLG.