Newsmeldung von slashCAM:Wer sich schon heute näher mit HDR-Produktion beschäftigt, kennt wahrscheinlich die aktuellen Stolpersteine. Egal ob man auf HDR-10 oder Dolby Vision oder sogar beides s...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Wird Hybrid Log Gamma die Lösung im HDR-Wirrwarr?
Antwort von kavenzmann:
Es sollte nicht unerwähnt bleiben, dass HDR10 und Dolby Vision weg von der "display-refered" hin zur "scene-refered" brightness gegangen sind.
D.h. praktisch, dass Helligkeiten nun absolut und somit Displsy- und Umgebungslicht-unaghängig gelten!
Dies wiederrum heisst, dass eine Filmszene in verschiedenen Umgebungen/Räumen/Tageszeiten unterschiedlich auf den Betrachter wirkt und zusätzlich auch auf zwei verschiedenen Display u.U. völlig anders aussieht, weil Display A ein ganz anderes EOTF als Display B implementiert hat.
HLG hat da einen ganz anderen Ansatz und ist wie z.B. REC.709 bzw. BT.1886 display-refered. Es werden also abhängig von der Leistung des Displays die verschiedenen Helligkeiten möglichst sinnvoll verteilt.
Da darf man gespannt sein!
Ich tippe ja auf HLG für die klassische OTA Übertragung, Dolby Vision als Edelversion für Blockbuster und HDR10 für alles andere.
Antwort von WoWu:
Vielleicht noch als Ergänzung:
HLR ist nur für die Zuschauer interessant, deren TV Geräte im REC 2020 Farbraum arbeiten.
Das relativiert die Nutzbarkeit wieder deutlich.
Dass aber das Verfahren für Broadcaster interessant ist, liegt schon daran, dass das Verfahren nicht nur von der ARIB in Japan standardisiert worden ist sondern auch lediglich rd. 20% mehr Übertragungsbandbreite benötigt, während ein UHD Kanal mit rd. 400% zubuche schlägt.
Kann also gut sein, dass wir HLR noch vor UHD sehen .... wenn man denn ein 2020 Gerät hat.
Antwort von wolfgang:
Na eben nicht. HLR ist der Versuch abwärtskompatibel zu Sichtgeräten zu sein die eben im unteren Helligkeitsbereich angesiedelt sind. Denn bei den beiden anderen Standards graded man ja auf einem bestimmten nit Level des Sichtgerätes hin.
Vom Farbraum werden die Geräte in naher Zukunft eh nur DCI P3 können, rec2020 ist noch unerreicht weit weg.
Antwort von kling:
Auch auf die Gefahr hin, mich zu wiederholen: Das künstlich gehypte HDR ist lediglich dazu da, gimmick-anfälligen Verbrauchern das Geld aus der Tasche zu ziehen.
Natürlich bringt ein möglichst großer Kontrastumfang und eine erweiterte Farbtiefe in der professionelle Postpro entscheidende Vorteile beim Color-Grading. Aber das Endergebnis muss wie in Stein gemeiselt sein, niemand, kein Gerät dürfte etwas anderes darstellen als vom Regisseur bzw. vom Kameramann gewünscht, d.h. die Beschränkung muss absichtlich gestaltet werden.
All das erinnert ein bisschen an die Anfänge der digitalen Druckvorstufe, wo die Dilettanten dauernd eine Art Dialeuchtkasten auf dem Monitor simulierten anstatt das reflexive Papierweiß.
Antwort von Whazabi:
Ich denke es gibt da ein Missverständnis.
Dadurch, dass feste Helligkeitswerte übermittelt werden ist es doch nun erstmals möglich auf sehr vielen Geräten Video-Material genauso wiederzugeben. wie es im Studio zu sehen ist.
Lediglich wenn das Display den angestrebten Bereich nicht erreicht führt es ein Tone-Mapping durch. Bei Dolby ist das ganze fest vorgegeben, bei HDR10 Hersteller spezifisch.
Das führt natürlich zu einer gewissen Varianz bei HDR10 TVs die nicht die komplette, für das Bild-Material vorgesehene Dynamik unterstützen.
Das betrifft SDR Material aber noch wesentlich mehr, da hier im Video letztlich keine absoluten Helligkeitswerte spezifiziert sind und die Gamma Kurven auch nicht im Ansatz dem menschlichen Sehvermögen folgen, wie es die PQ-Funktion von HDR10/Dolby Vision tut.
HLG wird sich fast ausschließlich im Broadcastig-Bereich durchsetzen. Die Vorteile überwiegen hier für die Sender den wesentlichen Nachteil des geringeren Dynamik-Umfangs. Wer ein optimales Ergebnis will, wird nicht um HDR10 oder Dolby Vision herumkommen.
Übrigens gibt es auch für HDR10 bereits einen voll funktionsfähigen Workflow mit Davinci Resolve.
Ich denke, dass sich HDR10 wegen seiner Gebührenfreiheit im semiprofessionellen/indie Umfeld durchsetzen wird.
Große Studios werden aber wohl häufig auch für Dolby Vision produzieren, da es die beste Qualität bietet.
Antwort von WoWu:
Na eben nicht. HLR ist der Versuch abwärtskompatibel zu Sichtgeräten zu sein die eben im unteren Helligkeitsbereich angesiedelt sind. .....Vom Farbraum werden die Geräte in naher Zukunft eh nur DCI P3 können, rec2020 ist noch unerreicht weit weg.
Das hat mit dem Farbraum wenig zu tun.
HLG mapped in der EOTF die scene luminance Ys, in die lineare display luminance, Yd.
Das unterscheidet sich von bisherigen TV Geräten, bei denen die EOTF für die Farbkomponenten unabhängig voneinander gemapped werden.
Das für HLG notwendige Verfahren wird aber erst in der REC 2020 geregelt.
@Whazabi
Dadurch, dass feste Helligkeitswerte übermittelt werden ist es doch nun erstmals möglich auf sehr vielen Geräten Video-Material genauso wiederzugeben. wie es im Studio zu sehen ist.
Was noch zu beweisen wäre, denn Aufgrund der EOTF-Kurve im Einsatz auf PQ-basierten HDR wird das Schwarz unter normalen Home-Viewing-Bedingungen oft im Vergleich zu SDR-Versionen des gleichen Bildes "gestaucht".
Dies entsteht durch die Surround-Beleuchtungsreglung, die für HDR mit 5 Nits angegeben ist, während für SDR es 10% der maximalen Anzeige sind. Das ist eine ziemlich grosse Diskrepanz und zeigt, dass HDR Schwarz bzw. Schatten oft ausgewaschen oder abgeschnitten werden, wenn sie in einer Umgebung betrachtet werden, in der die Umgebungslichtstufen nicht kontrolliert werden können.
Bei HLG kommt noch hinzu, dass der Weisspunkt bei 50% angelegt ist.
Die Frage besteht also, ob wir wirklich das sehen, was im Studio angelegt worden ist oder ob nicht vielmehr in normalen Home-Viewing-Bedingungen eher ein Dunkelbild entsteht.
Was noch hinzu kommt sind die Helligkeitslimitierungen aufgrund des Backlight Stromverbrauchs.
Je höher das Umgebungslicht, umso höher wäre die erforderliche Leuchtdichte ... bis das Gesetz zuschlägt und den Strom begrenzt und die Leuchtdichte so aus Brüssel festgeklemmt wird.
Und das betrifft nicht nur gebroadcastetes Material sondern auch Material aus Speichern und gilt für alle TV Geräte, nicht aber für Monitore in der Post.
Schon da liegt eine Quelle, die man auf der Studioseite gar nicht kalkulieren kann.
Da sind noch ein paar Überraschungen drin.
Antwort von Whazabi:
Naja, dass ich den Bild-Eindruck nicht vorhersagen kann, wenn ich keinen Einfluss auf das Umgebungslicht habe ist nix Neues. Weder bei HDR noch bei SDR bekomme ich dann ein optimales Ergebnis.
Ob man jetzt 10% oder 5 nits hat macht da eigentlich auch keinen großen Unterschied, denn letztlich bezeichnen 10% bei SDR einen Wert von um die 10 nits. Weiß nicht, ob das so einen großen Unterschied macht, wenn die Sonne Nachmittags in mein Wohnzimmer mit mehreren 1000 nits reinscheint.
Bei HLG bekommen wir auch kein Dunkelbild. Vielmehr ist es doch so, dass wir das selbe Bild wie bei SDR bekommen nur mit Erweiterungen Richtung dunkel und hell. Das SDR Signal ist da ja trotzdem noch 1:1 enthalten.
Auch dass die Studios das Verhalten von TVs so überhaupt nicht kalkulieren können ist so nicht richtig. Zumindest bei Dolby Vision ist das Tone-Mapping von Anfang bis Ende festgelegt. Bei HDR10 kommen wie gesagt dann eben ein paar Abweichungen rein, je nach Hersteller-Implementierung. Aber auch die sind momentan meistens erfreulicherweise ziemlich dicht an der PQ-Kurve dran. Wenn das Display allerdings die zum Grading verwendete Maximal-Helligkeit darstellen kann, dann hast du - im Gegensatz zu bisher - gar keine Abweichungen.
Antwort von Jott:
Die Leute werden ihre Fernseher und Monitore wie schon immer beliebig verdrehen und verunstalten. Wer oder was sollte sie davon abhalten?
Antwort von WoWu:
Die „California Energy Commission" und auch die EUBehörden in Brüssel.
TV Geräte regeln von alleine runter, sobald sie 16 W + A * 3,4579 W/dm2 an Leistung aufnehmen.
Da tut sich dann nix mehr mit HDR Hintergrundbeleuchtung, um höhere Spitzlichter zu erzeugen und bei überwiegend hellen Bildern sowieso nicht, auch ohne Streulicht.
Insofern hat man das Verhalten von Endgeräten in der Post sowieso nicht im Griff.
Ob man jetzt 10% oder 5 nits hat macht da eigentlich auch keinen großen Unterschied, denn letztlich bezeichnen 10% bei SDR einen Wert von um die 10 nits. Weiß nicht, ob das so einen großen Unterschied macht, wenn die Sonne Nachmittags in mein Wohnzimmer mit mehreren 1000 nits reinscheint.
Ja, gemessen am Kurvenverlauf ist das viel.
Außerdem wird Sonne nicht mit 1000 nits reflektiert.
Bei einem Monitor, dr im Freien bei Sonnenschein benutzt wird, geht man von ca. 300 Nits Reflektion aus.
Außerdem gibt es heute kaum mehr Monitore, die 100 Nits machen, von denen dann 10% den 10 Nits entsprächen. 10% bei heutigen Monitore liegen deutlich höher.
Aber wenn man sich das alles schön rechnet dann mag man wohl davon ausgehen, dass man das alles in der Post wirklich im Griff hat.
Aber ist ja ok, dann sind eben die Überraschungen hinterher größer, wenn man seinen Content übergibt.
Zum Thema "Dunkelbild" hier mal ein Vergleich der zeigt, wie 'dunkel' ST2084 basierte HDR in den Schatten im Vergleich zu Rec709 basierten Display-Kalibrierungen ist, vor allem, wenn Peak-Luma der Rec709-Display angehoben wird.
Dies ist eines der Hauptprobleme mit ST2084 basierten HDR (worum es hier ja letztlich geht) - die Gesamtbildhelligkeit ist viel niedriger.
Antwort von wolfgang:
Na eben nicht. HLR ist der Versuch abwärtskompatibel zu Sichtgeräten zu sein die eben im unteren Helligkeitsbereich angesiedelt sind. .....Vom Farbraum werden die Geräte in naher Zukunft eh nur DCI P3 können, rec2020 ist noch unerreicht weit weg.
Das hat mit dem Farbraum wenig zu tun.
Eben. Es hat mit dem Farbraum unmittelbar noch nichts zu tun denn wir reden ja von Luminanz.
Grundsätzlich ist HDR auch unter Verwendung von rec709 denkbar. Jetzt mal von irgendwelchen Normen abgesehen.
Antwort von wolfgang:
Übrigens gibt es auch für HDR10 bereits einen voll funktionsfähigen Workflow mit Davinci Resolve.
Einen funktionierende workflow für Resolve Studio findest eigentlich für alle 3 genannten Normen - auch für Dolby Vision. Nur mußt bei Dolby Vision ja die Sache in Lizenz machen - und da bekommt man auch noch Hardware dazu.
Wenn ich es jetzt richtig in Kopf habe ist eben auch HLG in Resolve Studio schon abgedeckt, HDR10 sowieso. Habe nur mein Resolve Studio gerade nicht zur Hand.
Ich denke, dass sich HDR10 wegen seiner Gebührenfreiheit im semiprofessionellen/indie Umfeld durchsetzen wird.
Große Studios werden aber wohl häufig auch für Dolby Vision produzieren, da es die beste Qualität bietet.
Wenn die Lizenzkosten keine Rolle spielen, dann sicherlich. Gebe dir recht, für den "kleinen Mann" wird wohl HDR10 am ehesten die Norm der Wahl sein.
Und das Schöne daran: das ist eben heute durchaus schon machbar. Man nehme einen passenden Monitor und Resolve Studio und eine Decklink 4K Extreme 12G und los geht es.
Antwort von wolfgang:
Dies ist eines der Hauptprobleme mit ST2084 basierten HDR (worum es hier ja letztlich geht) - die Gesamtbildhelligkeit ist viel niedriger.
Wieso soll das ein Hauptproblem sein?
Weiß wird unverändert bei 100nit dargestellt. Alles, was über den 100nit liegt, sind highlights. Highlights haben aber naturgemäß nicht den dominanten Anteil in unserem natürlichen Sehen - sondern nehmen nur einen gewissen geringen Anteil ein. Es ist also gar nichts so falsch dass auch helle HDR-Geräte nicht 100% des Bildinhaltes mit z.B. 2000 nits darstellen können - das braucht man eigentlich gar nicht.
Denn dort sitzen wir in Wirklichkeit - irgendwo bei 1000-1500 nits bei den letzten Consumer Displays. Und selbst der Dolby Digital Pulsar kann "gerade" mal 4000 nits. Der hochgepriesene BXM X300 um 30.000 Euro beherrscht gerade 1000 nits.
Das Problem sehe ich noch nicht.
Antwort von Whazabi:
Ja, gemessen am Kurvenverlauf ist das viel.
Außerdem wird Sonne nicht mit 1000 nits reflektiert.
Bei einem Monitor, dr im Freien bei Sonnenschein benutzt wird, geht man von ca. 300 Nits Reflektion aus.
Es geht primär aber nicht darum, wie stark der TV reflektiert, sondern was der Betrachter wahrnimmt. Sicher haben Reflxionen auf dem TV den störendsten Einfluss, aber nicht den einzigen. Gerade bei viel Umgebungslicht. Schon mal versucht ein altes LCD mit Matter Oberfläche bei hellem Tageslicht abzulesen? Ein Albtraum.
Außerdem gibt es heute kaum mehr Monitore, die 100 Nits machen, von denen dann 10% den 10 Nits entsprächen. 10% bei heutigen Monitore liegen deutlich höher.
Das trifft auf die Monitore zu, nicht aber auf die SDR Standards. Die sind nach wie vor auf 100 nits fixiert. Sobald du deinen TV heller einstellst verfälschst du das ursprünglich vom Koloristen gewollte Resultat.
Zum Thema "Dunkelbild" hier mal ein Vergleich der zeigt, wie 'dunkel' ST2084 basierte HDR in den Schatten im Vergleich zu Rec709 basierten Display-Kalibrierungen ist, vor allem, wenn Peak-Luma der Rec709-Display angehoben wird.
Dies ist eines der Hauptprobleme mit ST2084 basierten HDR (worum es hier ja letztlich geht) - die Gesamtbildhelligkeit ist viel niedriger.
Wie willst du aus einer EOTF die Gesamthelligkeit für ein konkretes Bild ermitteln können? Die EOTF sagt aus, welchem Wert welche Helligkeit zuzuordnen ist. Es wird jedoch keine Aussage über deren relative Häufigkeit getroffen. Was die Kurve letztlich zeigt ist dass die PQ Funktion dunkleren Helligkeitsabstufungen wesentlich mehr Informationen reserviert als hellen, was ja auch richtig ist, weil das eben genau dem menschlichen Sehvermögen entspricht.
Außerdem kannst du nicht gleichzeitig von kalibriertem Display und Peak-Luma Anhebung sprechen. SDR Displays haben kalibriert eine Helligkeit von 100 nits.
Antwort von WoWu:
Keiner sagt, dass aus der EOTF die Helligkeit ermittelt wird.
Alle BBC HLG Kurven basieren auf einer niedrigen "Streulicht" Beleuchtung von 10 Nits.
Es ist dieser "Streulicht" -Wert, der für den Heim-TV-Einsatz wichtig ist, da zusätzlich zur Verwendung des Luma-Wertes des Displays der EOTF, verwendet der BBC-HLG-Standard auch die Umgebungs-Beleuchtung des Displays, um das System-Gamma zu verändern. Die, von der BBC veröffentlichten Graphen zeigen die Anwendung für ein 1.000 Nit Display.
Durch dies Verfahren wird versucht, die Anzeigekalibrierung anzupassen, um unterschiedlichen Betrachtungsumgebungen zu begegnen.
Ein erster wirklicher Versuch, "Betrachtungskonsistenz" über unterschiedliche Betrachtungsumgebungen hinweg anzubieten.
Dies ist ein Bereich, in dem ST2084 basierte HDR sich aber noch bewähren muss denn eines der oft übersehenen potenziellen Probleme mit ST2084-basierten HDR für die Heimansicht ist, dass weil die verschiedenen Helligkeits- (Hintergrundbeleuchtungs- und Kontrast-) Bedienelemente des Displays bereits auf HDR-Fernsehgeräten ausgeschöpft sind.
So gibt es keine Möglichkeit, die Lichtausgabe der Anzeige zu erhöhen, um die Umgebungslichthöhe zu überwinden - wie es oft mit SDR Heim-TVs gemacht wird, um verschiedene Konfigurationen für Tag / Nacht-Anzeige zu ermöglichen.
In diesem Zusammenhang ist es nicht richtig, davon auszugeben, welche Helligkeit die Sonne hat, sondern wieviel davon das Display reflektiert, denn das, was wir sehen, sind Kontraste und der Wert, der das Umgebungslicht als Reflektion vom Schirm zurückwirft.
Denn der Betrachter nimmt lediglich diese Reflektion wahr. Er guckt ja nicht mit einem Auge in die Sonne und mit dem andern auf den Schirm.
Und es ist nicht richtig, dass moderne TV Gerät lediglich 100 Nits können. Ich empfehle mal die Herstellerangaben zu prüfen, was heute so üblich ist.
@Wolfgang
Eben. Es hat mit dem Farbraum unmittelbar noch nichts zu tun denn wir reden ja von Luminanz.
Dann frage ich mich, warum DU den Farbraum ins Spiel gebracht hast, denn das war ja Teil Deiner Antwort.
Und wenn Du 2020 auf den Farbraum reduzierst und den Zusammenhang zu HDR nicht herstellen kannst, ist das nicht mein Problem.
Aber schließlich musst Du ja nur auf Deine 3 HDR Geräte schauen und siehst, wie sie sich verhalten, denn Du sagst doch immer, man könne Dinge nur beurteilen, wenn man sie auch benutzt und aus der Theorie könne man gar beurteilen.
Also gehe ich davon aus, dass Du die 3 Verfahren bereits erprobt hast, wenn Du solche Behauptungen aufstellst und sicher ist dann auch 2020 falsch.
Antwort von Whazabi:
Keiner sagt, dass aus der EOTF die Helligkeit ermittelt wird.
Dann verstehe ich nicht, was du mit dem obigen Diagramm - ohne Achsenbeschriftung ;) - bezwecken wolltest.
Durch dies Verfahren wird versucht, die Anzeigekalibrierung anzupassen, um unterschiedlichen Betrachtungsumgebungen zu begegnen.
Ein erster wirklicher Versuch, "Betrachtungskonsistenz" über unterschiedliche Betrachtungsumgebungen hinweg anzubieten.
Dies ist ein Bereich, in dem ST2084 basierte HDR sich aber noch bewähren muss denn eines der oft übersehenen potenziellen Probleme mit ST2084-basierten HDR für die Heimansicht ist, dass weil die verschiedenen Helligkeits- (Hintergrundbeleuchtungs- und Kontrast-) Bedienelemente des Displays bereits auf HDR-Fernsehgeräten ausgeschöpft sind.
So gibt es keine Möglichkeit, die Lichtausgabe der Anzeige zu erhöhen, um die Umgebungslichthöhe zu überwinden - wie es oft mit SDR Heim-TVs gemacht wird, um verschiedene Konfigurationen für Tag / Nacht-Anzeige zu ermöglichen.
Das ist so direkt nicht richtig. Es gibt durchaus zusätzliche Schaltungen in aktuellen HDR-TVs, die auch die Grundhelligkeit anheben und damit quasi die PQ aushebeln. Du bekommst dann aber eben keine perfekte Reproduktion deines Quellmaterials mehr. Stellt sich halt die Frage was wichtiger ist. Bei Broadcasting Übertragungen dürfte das weniger von Relevanz sein, da die sowieso in den wenigsten Fällen ein aufwändiges Colorgrading machen. Von daher klar dass die BBC mit HLG mehr Wert auf das Umgebungslicht legt.
Aus meiner Sicht muss sich die ST2048 da auch gar nicht bewähren, da das Clientel ein anderes ist.
In diesem Zusammenhang ist es nicht richtig, davon auszugeben, welche Helligkeit die Sonne hat, sondern wieviel davon das Display reflektiert, denn das, was wir sehen, sind Kontraste und der Wert, der das Umgebungslicht als Reflektion vom Schirm zurückwirft.
Denn der Betrachter nimmt lediglich diese Reflektion wahr. Er guckt ja nicht mit einem Auge in die Sonne und mit dem andern auf den Schirm.
Nicht direkt in die Sonne, aber er nimmt auch nicht ausschließlich die Reflektionen des TVs wahr. Die Pupillen stellen sich immer auf das gesamte Umgebungslicht ein, nicht nur auf das, was vom Display reflektiert oder emittiert wird. Dadurch wird die wahrgenommene Dynamik von dunkleren Bildbereichen wesentlich stärker beinträchtigt, als es ausschließlich durch die Reflektionen der Displayoberfläche der Fall wäre.
Und es ist nicht richtig, dass moderne TV Gerät lediglich 100 Nits können. Ich empfehle mal die Herstellerangaben zu prüfen, was heute so üblich ist.
Das habe ich nirgendwo behauptet. Tatsache ist allerdings, dass alles was keine 100 nits Helligkeit hat, nicht SDR-standardkonform ist. Wenn du die Helligkeit deines Displays also anders einstellst, verfälschst du das Ergebnis und hast kein korrekt kalibriertes Display mehr.
Antwort von wolfgang:
Dann frage ich mich, warum DU den Farbraum ins Spiel gebracht hast, denn das war ja Teil Deiner Antwort.
Na vielleicht wegen diesem Blödsinn von dir hier:
HLR ist nur für die Zuschauer interessant, deren TV Geräte im REC 2020 Farbraum arbeiten.
Antwort von WoWu:
@Whazabi
Da ST2084 ein "absoluter" Standard ist, der auf einer Peak-Luma von 10.000 Nits basiert und Rec709 ein relativer Standard ohne Set-Peak-Luma-Wert, ist es eigentlich sehr schwierig, die Gamma (EOTF) Kurven direkt zu vergleichen.
Die beste Annäherung ist hier, einer Auswahl von Rec709 Peak-Luma-Werten zu einer 1000 Nit ST2084-Anzeige zu vergleichen, was die Grafik darstellt.
Da es sich um einen reinen Vergleich handelt, spielen die Achsen dabei eine untergeordnete Rolle.
Wie ich schon angesprochen habe, zeigt dies,wie 'dunkel' ST2084 basierte HDR in den Schatten ist im Vergleich zu Rec709 basierte Display-Kalibrierung, vor allem, wenn die Peak-Luma der Rec709-Display angehoben wird.
Dies ist eines der Hauptprobleme von ST2084 basierten HDR - die Gesamtbildhelligkeit ist viel niedriger als die meisten Anwender, die in normal hellen "Wohnzimmenr" gewohnt sind.
Wir sind also weit davon entfernt, mit 2084 HDR von üblichen Fernsehqualitäten zu reden und davon auszugehen, dass sich HDR. auch mit Hybridkurven problemlos als kompatibel erweist.
Insofern sind wir da ja zusammen, dass es mit irgendwie gearteten Anhebungen keine korrekte Reproduktion des Quallmaterials mehr gibt.
Damit bestätigst Du, was ich oben angesprochen habe und was von Dir gegenteilig behauptet wurde, nämlich dass Studiomaterial korrekt reproduziert würde.
Dann ist doch alles klar.
Dass sich solche Effekte (Umgebungslicht) nicht nur auf Broadcast beschränkt, dürfe dann auch jedem Einleuchten, denn auch Material aus Datenträgern werden vornehmlich von denselben Konsumenten in derselben Umgebnung angeschaut.
Ich glaube kaum, dass ein "Normalverbrauchen" für seine BRs ein separates Heimkino baut, in dem er mit 5 Nit Streulicht schaut.
Was die Reflektionen angeht ... es ist wohl so, dass die Pupille sich auf den gesamten Lichteinfall einstellt, das aber wirkt im selben Verhältnis auf die gesamte Schirmdarstellung, also nicht nur auf die dunkeln Passagen aus, sodass die Dynamik insgesamt abfällt und nicht nur innerhalb der unterschiedlichen Helligkeitswerte des Bildinhaltes.
Wovon Du sprichst, ist die Adaption des Auges und die ist linear über alle Helligkeitswerte.
Was die TV Basisnorm von 1965 angeht, so hält sich spätestens seit Einführung des digitalen Fernsehens weder die Contenthersteller, noch die Geräteindustrie daran, denn wir sind lange über Kontrastverhältnissen von 100:1 hinaus.
300 bis 400 Nits sind schon seit Jahren nichts ungewöhnliches mehr. Und wenn man sich die heutigen Kontrastverhältnisse in Content anschaut, scheinen sich die Produzenten auch nicht mehr so richtig an 1965 zu orientieren. Dazu kommt noch, dass es sich bei der Basisnorm um eine Minimalforderung handelt, die damals zwar noch ambitioniert war, aber jederzeit überschritten werden durfte (Minimalforderung).
Bottem Line:
HDR Content, auch in Hybridverfahren bleiben eine Wundertüte und die Reproduzierbarkeit der Studiokompositionen ein frommer Wunsch.
Antwort von dienstag_01:
Tatsache ist allerdings, dass alles was keine 100 nits Helligkeit hat, nicht SDR-standardkonform ist.
Ich glaube, auch das ist falsch. Der Wert 100 Nits für SDR wurde erst mit den Standards für HDR eingeführt, quasi als Abgrenzung. Vorher gab es das nicht. Hatte wir gerade erst hier im Forum ;)
Antwort von Whazabi:
Da es sich um einen reinen Vergleich handelt, spielen die Achsen dabei eine untergeordnete Rolle.
Naja um zu verstehen, was man da sieht, sollte man die Achsen schon beschriften.
Wie ich schon angesprochen habe, zeigt dies,wie 'dunkel' ST2084 basierte HDR in den Schatten ist im Vergleich zu Rec709 basierte Display-Kalibrierung, vor allem, wenn die Peak-Luma der Rec709-Display angehoben wird.
Und genau das zeigen diese Kurven eben nicht. Dieser Vergleich zeigt lediglich, dass die PQ mehr Information für dunkle Werte zur Verfügung stellt, was letztlich durch die genauere Abbildung des menschlichen Helligkeitsempfindens entstanden ist.
Alleine aus der Übertragungsfunktion kannst du nicht auf einen Vergleich über die Gesamtbildhelligkeit schließen, da die digitalen Abbildungen von HDR-und SDR nicht 1:1 sind.
Insofern sind wir da ja zusammen, dass es mit irgendwie gearteten Anhebungen keine korrekte Reproduktion des Quallmaterials mehr gibt.
Damit bestätigst Du, was ich oben angesprochen habe und was von Dir gegenteilig behauptet wurde, nämlich dass Studiomaterial korrekt reproduziert würde.
Da hast du mich falsch verstanden. Für eine perfekte Reproduktion bin ich davon ausgegangen, dass die Helligkeit nicht zusätzlich angetastet wird, da du dann nie eine perfekte Reproduktion bekommst.
Dass sich solche Effekte (Umgebungslicht) nicht nur auf Broadcast beschränkt, dürfe dann auch jedem Einleuchten, denn auch Material aus Datenträgern werden vornehmlich von denselben Konsumenten in derselben Umgebnung angeschaut.
Ich glaube kaum, dass ein "Normalverbrauchen" für seine BRs ein separates Heimkino baut, in dem er mit 5 Nit Streulicht schaut.
Für 5 nits Umgebungslicht reicht es die Rolläden zuzumachen und sämtliche künstliche Raum-Beleuchtung auszuschalten. Und ich wage zu behaupten, dass das die meisten Leute machen, wenn sie einen Film intensiver erleben wollen. Bei Nacht müssen noch nicht mal die Rolläden als Hilfsmittel genutzt werden.
Was die Reflektionen angeht ... es ist wohl so, dass die Pupille sich auf den gesamten Lichteinfall einstellt, das aber wirkt im selben Verhältnis auf die gesamte Schirmdarstellung, also nicht nur auf die dunkeln Passagen aus, sodass die Dynamik insgesamt abfällt und nicht nur innerhalb der unterschiedlichen Helligkeitswerte des Bildinhaltes.
Wovon Du sprichst, ist die Adaption des Auges und die ist linear über alle Helligkeitswerte.
Nein, genau das ist sie laut Weber-Fechnerschem Gesetz nicht.
Was die TV Basisnorm von 1965 angeht, so hält sich spätestens seit Einführung des digitalen Fernsehens weder die Contenthersteller, noch die Geräteindustrie daran, denn wir sind lange über Kontrastverhältnissen von 100:1 hinaus.
300 bis 400 Nits sind schon seit Jahren nichts ungewöhnliches mehr. Und wenn man sich die heutigen Kontrastverhältnisse in Content anschaut, scheinen sich die Produzenten auch nicht mehr so richtig an 1965 zu orientieren. Dazu kommt noch, dass es sich bei der Basisnorm um eine Minimalforderung handelt, die damals zwar noch ambitioniert war, aber jederzeit überschritten werden durfte (Minimalforderung).
Das ist zwar prinzipiell richtig, die meisten Displays werden aber immer noch nach SMPTE Empfehlung kalibriert, eben um ein möglichst gut reproduzierbares Ergebnis zu erhalten.
Ein Kontrastverhältnis von 100:1 übertriffst du auch mit 100cd/m² locker.
Bottem Line:
HDR Content, auch in Hybridverfahren bleiben eine Wundertüte und die Reproduzierbarkeit der Studiokompositionen ein frommer Wunsch.
... der mit HDR Standards aber schon wesentlich besser erreicht wird als mit allen SDR-Varianten ;)
Antwort von WoWu:
Für eine perfekte Reproduktion bin ich davon ausgegangen, dass die Helligkeit nicht zusätzlich angetastet wird, da du dann nie eine perfekte Reproduktion bekommst.
Bei Streulicht wird immer die Helligkeit angepasst.
Wie sonst sollte ich das hier verstehen?
Das ist so direkt nicht richtig. Es gibt durchaus zusätzliche Schaltungen in aktuellen HDR-TVs, die auch die Grundhelligkeit anheben und damit quasi die PQ aushebeln.
Für 5 nits Umgebungslicht reicht es die Rolläden zuzumachen und sämtliche künstliche Raum-Beleuchtung auszuschalten. Und ich wage zu behaupten, dass das die meisten Leute machen, wenn sie einen Film intensiver erleben wollen. Bei Nacht müssen noch nicht mal die Rolläden als Hilfsmittel genutzt werden
Mal vorausgesetzt, der Anwender richtet sich tatsächlich Kino ähnlicher Lichtverhältnisse ein, wie es in den 50er und 60er Jajren üblich war, dann sollten wir darauf mal die Auswirkung betrachten:
Der Kontrast bei einer Filmvorführung in einem Kino mit einem Streulichtanteil von nur 0,5% wird von 10.000:1 auf nur noch 200:1 reduziert.
Das wären dann nur noch 8 Bit.
Ohnehin kann das Thema Helligkeitsänderung niemals losgelöst von den Kontrastwerten betrachtet werden.
Will man also die, in HDR möglichen Blenden übertragen, muss es schon stockdunkel sein. Mal ganz davon abgesehen, dass ich nicht glaube, dass irgend jemand seinen Raum zum Fernsehen verdunkelt.
Wir haben also mit Streulicht bei HDR ein signifikantes Problem, auch wenn man beide Augen davor zumacht.
Speaking of Augen:
Nein, genau das ist sie laut Weber-Fechnerschem Gesetz nicht.
Damit verwechselst Du etwas, denn das Gesetz sagt nur etwas über die subjektive Wahrnehmung der Helligkeit aus aber absolut nicht über die resynthetisierung der Sehfarbstoffe (Adaption des Auges), die zwar in einem zeitlich verzögerten Abstamd (hell/ dunkel) verläuft aber quantitativ linear.
Ein Kontrastverhältnis von 100:1 übertriffst du auch mit 100cd/m² locker.
Rechne mal vor ...
der mit HDR Standards aber schon wesentlich besser erreicht wird als mit allen SDR-Varianten
Ich befürchte ... nicht.
Das, was uns entgegen kommen wird sind die 10 Bit ... das wars aber auch schon. Selbst beim Farbraum wird sich nicht viel tun, denn nur OLEDs sind dicht am Erreichen des P3 Farbraums, während LCDs hier variieren .. von ein wenig größer als 709 bis hin zu 90 +% des 2020-Farbraums unter Verwendung von Quantenpunkten.
(Nanosys sagt 97% mit den richtigen Filtern).
Ist also nur "größer als 709" akzeptabel, sollte es P3 als Minimum oder die "Voll 2020 Compliance" sein ?
Ich befürchte, Otto Normalverbraucher sieht in der Farbpräsentation überhaupt keinen Unterschied.
Aber der Markt braucht eben neue Geräte und die Dummen, die sie kaufen.
Deinen Optimismus in allen Ehren, aber objektiv untermauern lässt er sich nicht.
Antwort von Whazabi:
Grundsätzlich sollte man sich doch zuerst mal die Frage stellen: Ist mir Bildqualität wichtig?
Wenn ich einfach nur enstpannen möchte, zB irgendein Fußballspiel in Gesellschaft genießen, kommt es mir dann auf die Bildquali an? Nö. Da brauch ich dann aber auch kein HDR.
Wenn ich einen Film wirklich genießen möchte und mir die Qualität inklusive HDR wichtig ist, macht es dann Sinn das in einem hell erleuchteten Raum zu tun? Genauso könnte man argumentieren, dass OLED-TVs immer schlechter sind als LCDs, weil sie ja bei der Spitzenhelligkeit nicht mithalten können und bei genug Streulicht bemerke ich vom perfekten Schwarz des OLED auch gar nichts mehr. Dem entsprechend ist OLED genauso unnütz wie HDR. Teuer und mit weniger Dynamik als LC.
Wie du darauf kommst, dass sich der Kontrast verringert, wenn man das Umgebungslicht herunterdimmt ist mir auch nicht ganz klar. Aber jeder den ich kenne mich eingeschlossen, sorgt dafür, dass wenn er einen Film genießen will der TV die einzige Lichtquelle im Raum ist. Und auch wenn ich mich alt fühle, aber nein in den 50er 60er Jahren war ich noch nicht auf der Welt. An Hand der gesunkenen Kinobesucherzahlen sowie gesteigertem Absatz von Surroundsound Sets & Co. wage ich tatsächlich zu behaupten, dass es wesentlich mehr Menschen gibt, die eine Art Heimkino besitzen und sich Filme lieber zu Hause anschauen, als die mittlerweile überteuerten Kinotickets zu bezahlen. Ich weiß auch nicht wann du zuletzt in einem Kinosaal warst, aber besonders viel Streulicht ist da immer noch nicht.
Die Adaption des Auges hängt nicht direkt mit dem Weberschen gesetz zusammen, da hast du recht. Hab ich dich wohl missverstanden. Was aber immer noch nichts daran ändert, dass die Wahrnehmung logarithmisch und nicht linear ist.
Kontrast ist letztlich das Verhältnis aus maximaler zu minimaler Helligkeit.
Selbst wenn du ein aktuelles LCD nimmst, das keinen optimalen Schwarzwert hat, bekommst du bei 100 cd/m² locker ein Kontrastverhältnis von 2000:1 hin.
Wenn du jetzt kommst "aber mit Streulicht sinkt der Kontrast". Ja ist klar, aber selbst mit angeschalteter indirekter Zimmerbeleuchtung kann ich dir sagen, dass das Schwarz eines LCD nicht perfekt ist.
Wenn der größere Farbraum und die höhere Dynamik uns deiner Meinung nach quasi nichts bringen. Was bringt uns dann 10bit? Mal ganz abgesehen davon, dass die Theorie, dass viele LCDs einen deutlich geringeren Farbraum abdecken als OLED nicht richtig ist. Quanten Punkt Displays gibt es mittlerweile in jeder Preisklasse, genau wie HDR TVs.
Das was LCDs aus meiner Sicht nicht HDR-fähig macht ist vielmehr die Tatsache, dass sie ihre Helligkeit nicht pixelgenau ansteuern können.
Aber das betrifft vor allem wieder dunkle Szenen, die du ja dank deines Streulichts nicht beachten musst.
Deinen Optimismus in allen Ehren, aber objektiv untermauern lässt er sich nicht.
Wenn man sämtliche Vorteile, die HDR bietet, einfach verleugnet und sich einzig auf die Probleme versteift, dann natürlich nicht.
Antwort von WoWu:
Aber damit wären wir dann wieder beim Thema "glauben und hoffen".
Wenn Fernsehen nur noch in tiefschwarzen Räumen funktioniert, mag das alles halbwegs klappen, wenn auch die Industrie noch 10 Jahre an Endgeräten verbessert muss.
Aber dass man das, was in der Post an Abstimmung des Contents aufgewandt wurde, so zum Zuschauer transportieren kann, das wird dann wohl auch noch 10 Jahre dauern.
Übrigens leugne ich Vorteile gar nicht.
Versprechungen sind nur nicht mit Fakten hinterlegt sondern reine Versprechungen und Erwartungen.
Aber im postfaktischen Zeitalter ist das wohl normal.
Antwort von Whazabi:
Das hat mit glauben und hoffen oder Versprechungen nichts zu tun.
Jeder kann doch die Dokumente zu den HDR Standards bei der SMPTE und Dolby einsehen. Da wird genau beschrieben wie es funktioniert. Die Schlussfolgerung welche Vorteile das bringt kann man dann entweder der Werbetrommel der Anbieter überlassen, oder - verrückte Idee - man macht sie einfach selbst.
Dein Ansatz ist: Ich will mit nem Smart durch schweres Gelände fahren. Das klappt nicht, also ist das Konzept Fortbewegung mit Ottomotor grundsätzlich gescheitert.
Du findest für jede technologische Entwicklung oder technische Umsetzung immer Szenarien, in denen es nicht richtig funktioniert. Alleine deswegen zu behaupten, dass das Ziel komplett verfehlt wurde, halte ich als Aussage für genauso realitätsnah wie das Marketing von Dolby.
Antwort von karl hausner:
Ähm!
Bekommen wir dann alle das unikäre " Hybrid Log Gamma " oder
kann man dann da auch noch auf die 13 Geschwister der dunkelen Codec-sekte
warten?
Nur so ne Anregung.... Wir verzetteln uns immer tiefer mit dem Drumherum
und net mit dem Innendrinn..
Oder lauft es auf das raus, das man mir sagt : "Nimm doch des "..." auf deiner Arri."
( ich kam gar nicht mehr dazu, das noch neuere fette..ne)
15 DR-Lochkarten-esoterik trifft auf ne halbe gewonnen DR, wenn man den Konvergenzpunkt der Optik halt bei 0.95 hätte..oder so. Und dann begann das
" Zurückbasteln" damit der Master of Personeninteraktion ja net anflippert..
Aus reiner ab-geschundener Erfahrung, wo du Privat eh schon den technischen
Höhenrekord überwindest, aber beruflich kann man zum Ketzer werden, weil....
Ist halt so.
HLG liest sich von den Specs ( theoretisch) als neues Medikament, aber bitte
wer baut mir die ganze Kette- wo sehe ich das dann, auch etwas preislich in
"wenig-stoss-atmententen-hyperventillationalen-Hystrialschanufern" wenn ich für
die Sackkarre 50-90.000 gelöhnt habe und meinem Steuerbrater erkläre das es
ein zu erwartender halbjähriger Abschreibposten wird, weil im zweiten Halbjahr, des
nächsten keine Sau mehr wusste, das es das vorher SCHON GAB!
hm..
Antwort von WoWu:
Alleine deswegen zu behaupten, dass das Ziel komplett verfehlt wurde, halte ich als Aussage für genauso realitätsnah wie das Marketing von Dolby. Ziel verfehlt sag ich gar nicht.
Aber das Scenario lässt sich im Grunde so beschrieben:
"Verdunkeln Sie ihren Raum auf den Schein einer Kerze und erwarten Sie in Sachen Farbskala nichts neues, denn knapp über709 werden sie kaum erkennen, auch nicht, wenn sie ein TV Gerät neuster Generation haben.
Achten sie darauf, dass sie das Basisbild nicht zu hell einstellen und dass sie nur Content mit wenigen Spitzlichzern anschauen, weil sonst die Brüsseler EU Komission das Fernsehbild auf 60% Kontrast reduzieren wird, ohne dass sie dagegen etwas machen können.
Und erwarten sie nicht, dass Ihr neues 2020 TV Gerät schon den neuen ITP Farbraum kann oder dass der Film auf dem Gerät des Nachbarn ebenso aussieht, wie auf Ihrem Gerät. Aber ansonsten funktioniert das wohl alles."
:-;
Antwort von wolfgang:
Grundsätzlich sollte man sich doch zuerst mal die Frage stellen: Ist mir Bildqualität wichtig?
Absolut. Denn es dürfte so sein, dass eben nur die hochpreisigen Geräte für HDR wirklich empfehlenswert sind. Und wenn man weiß wie schleppend selbst die die Specs beginnen zu erfüllen, wenn man weiß dass rec2020 noch KEIN Gerät kann - dann warten viele Leute auch ab. Wobei ich persönlich davon ausgehe dass die Geräte inzwischen halbwegs ausgereizt sind.
Wenn ich einen Film wirklich genießen möchte und mir die Qualität inklusive HDR wichtig ist, macht es dann Sinn das in einem hell erleuchteten Raum zu tun? Genauso könnte man argumentieren, dass OLED-TVs immer schlechter sind als LCDs, weil sie ja bei der Spitzenhelligkeit nicht mithalten können und bei genug Streulicht bemerke ich vom perfekten Schwarz des OLED auch gar nichts mehr. Dem entsprechend ist OLED genauso unnütz wie HDR. Teuer und mit weniger Dynamik als LC.
Man sollte nicht übersehen dass Dynamik nicht nur in Richtung Highlights geht, sondern auch in Richtung Tiefen. Tust du ja auch nicht, aber für viele ist das schon ein Punkt um eine geringer Anzahl an Blendenstufen über den 100nits von Weiß akzeptieren zu können.
Wenn du jetzt kommst "aber mit Streulicht sinkt der Kontrast". Ja ist klar, aber selbst mit angeschalteter indirekter Zimmerbeleuchtung kann ich dir sagen, dass das Schwarz eines LCD nicht perfekt ist.
Wenn der größere Farbraum und die höhere Dynamik uns deiner Meinung nach quasi nichts bringen. Was bringt uns dann 10bit? Mal ganz abgesehen davon, dass die Theorie, dass viele LCDs einen deutlich geringeren Farbraum abdecken als OLED nicht richtig ist. Quanten Punkt Displays gibt es mittlerweile in jeder Preisklasse, genau wie HDR TVs.
WoWu war wenigstens immer ein 10bit Verfechter, da tust ihm unrecht. Und wir wissen doch recht genau was 10bit bringt - keine Artefakte wie Banding mehr, aber - vor allem - den Spielraum in er Nachbearbeitung. Und der ist für HDR einfach extrem wichtig, weil dort graden wir ja für einen bestimmten Helligkeitslevel der Sichtgeräte.
Antwort von WoWu:
Was heißt denn "war"? Das bin ich immer noch.
Und da sehe ich im Augenblick auch den wesentlichen Vorteil von HDR, obwohl es streng genommen mit HDR überhaupt nix zu tun hat.
Wir haben schon mitte 90er 10 Bit (jedenfalls in der Produktion auf D5) gemacht und da hat noch kein Hahn nach HDR gekräht.
Antwort von Whazabi:
Absolut. Denn es dürfte so sein, dass eben nur die hochpreisigen Geräte für HDR wirklich empfehlenswert sind. Und wenn man weiß wie schleppend selbst die die Specs beginnen zu erfüllen, wenn man weiß dass rec2020 noch KEIN Gerät kann - dann warten viele Leute auch ab. Wobei ich persönlich davon ausgehe dass die Geräte inzwischen halbwegs ausgereizt sind.
Naja gut aber das war doch bei LCDs am Anfang das gleiche. Keiner konnte den rec709 komplett abdecken und bei den niedrigeren Preisklassen war das sogar noch bis vor kurzem so. Einen guten HDR TV bekommt man heute für knapp unter 1000€. Ab da ist zumindest gewährleistet, dass die TVs den P3 relativ komplett abdecken können. Das sind immerhin schon ca. 70% des rec2020. Bis es die ersten Geräte mit voller rec2020 Abdeckung gibt wird es natürlich noch ein paar Jahre dauen. Irgendwann muss man halt mal anfangen.
Man sollte nicht übersehen dass Dynamik nicht nur in Richtung Highlights geht, sondern auch in Richtung Tiefen. Tust du ja auch nicht, aber für viele ist das schon ein Punkt um eine geringer Anzahl an Blendenstufen über den 100nits von Weiß akzeptieren zu können.Das ist doch eine der wesentlichen tollen Sachen an HDR - wie ich finde - dass wir eben jetzt gerade in den dunklen Bildbereichen mehr Dynamik bekommen. All die vielen dunklen Filmszenen,wo zahllose Details einfach gnadenlos plattgemacht wurden ... jetzt kann man da tatsächlich was erkennen (wenn das Grading richtig gemacht wurde).
WoWu war wenigstens immer ein 10bit Verfechter, da tust ihm unrecht. Und wir wissen doch recht genau was 10bit bringt - keine Artefakte wie Banding mehr, aber - vor allem - den Spielraum in er Nachbearbeitung. Und der ist für HDR einfach extrem wichtig, weil dort graden wir ja für einen bestimmten Helligkeitslevel der Sichtgeräte.
Ja das mag ja alles sein, aber wenn mir jemand sagt die riesige Menge zusätzlicher Dynamik bringt mir nix weil zu dunkel. Den zusätzlichen Farbraum sieht man sowieso nicht. Aber dann im gleichen Zuge fallen lässt, dass 10 bit super sind, dann kann ich das einfach nicht nachvollziehen. 10 bit bei SDR bringen dir 1000mal weniger sichtbare Vorteile als das, was HDR zu bieten hat.
Ja gut klar in der Postproduktion ist 10 bit auch bei SDR toll. Aber da unterscheide ich zwischen Produzent und Konsument. Wenn ich graden möchte, dann habe ich natürlich gerne mehr Spielraum und das bekommt man mit 10 bit eben schon. Obwohl der Kompressions-Algorithmus meiner Erfahrung nach eine wesentlich wichtigere Rolle spielt.
Als Konsument brauche ich bei SDR aber nicht unbedingt 10 bit.
Ähnlich wie bei 4k. Bei Kameras find ich das ne tolle Sache. Du hast mehr Platz für Verschnitt oder bekommst tatäschlich auch mehr Details beim Debayering raus, wenn du letztlich auf eine niedrigere Auflösung abmischst. Bei TVs finde ich 4k jedoch persönlich nachwievor nutzlos.
Antwort von WoWu:
Wenigsten sind wir im 4k thema einig und wie es aussieht, werden auch die Broadcaster das Tema erst flächendeckend angehen, wenn HDR durch ist, egal ob mit oder ohne Erfolg.
Was die Tiefen angeht, betrifft das Problem übrigens nicht nur die oben besprochene Reflektion sondern auch die Endgeräte.
Erinner Dich... bei 0,5 % Streulicht im Kino werden 200:1 daraus.
Nun läst HLG sogar das 10-fache zu, nämlich 5%.
Das bedeutet, dass die Display heller werden muss. Aber passive LCD-Displays leuchten nun mal nicht, ihre Wiedergabe wird durch Hintergrundbeleuchtung aktiviert.
Erst dadurch wird aus einem nichtleuchtenden ein leuchtendes LCD-Display.
Bei der Hintergrundbeleuchtung in SDR Monitoren geht es um eine gleichmäßige Ausleuchtung des Liquid Crystal Displays (LCD) und um den Farbraum der Hintergrundbeleuchtung.
Bei LED-Hintergrundbeleuchtungen muss das Licht der seitlich angebrachten Leuchtdioden durch viele Mikrooptiken gebrochen werden, damit das LCD-Panel gleichmäßig von hinten ausgeleuchtet werden kann.
Die Technik ist relativ aufwendig. Deswegen gibt es neuere Diffusor-Techniken wie Enhanced Specular Reflector (ESR) und Collimating Multilayer Optical Film (CMOF).
(ESR) ist eine viellagige, spiegelnde Polarisationsfolie, die aus hunderten einzelner Folien mit unterschiedlichen Brechungsindizes besteht und in der das Licht hin und her reflektiert wird.
Das von der Seite einfallende LED-Licht wird in unterschiedlichen Winkeln auf die spiegelnde ESR-Folie geworfen, von wo aus es sich durch Mehrfachreflexion gleichmäßig über die gesamte ESR-Folie ausbreitet, aus dieser austritt und das LCD-Panel beleuchtet.
Dadurch entsteht eine Hintergrundbeleuchtung, die sich den Bildinhalten über die Bildanalyse und die übertragenen Metadaten anpasst.
Nun fehlen aber bei dem hier besprochenen System (HLG) aber leider diese Metadazen, da das System sie nich vorsieht.
Würde man lediglich die Hintergrundbeleuchtung linear erhöhen, wie es nun notwendig würde) oder absenken, würde sich am Kontrast nichts ändern.
Die hellen Bildanteile würden zwar stärker Leuchten, aber die dunklen Bildanteile würden ins Grau angehoben.
Es wäre also in Sachen höher Dynamik nichts erreicht.
Erst wenn die Flächen hinter den Dunklen Bildanteilen gedimmt werden, während die Gesamthelligkeit des Bildes angehoben wird, ergibt sich die gewünschte höhere Dynamik.
Der Standard sieht lediglich vor dass der Schwarzwert ≤ 0.005 cd/m² und der Weisswert ≥ 1 000 cd/m² zu sein hat.
Bei welcher Darstellungsfläche dies vor dem Hintergrund der strombegrenzenden Verordnung zu geschehen hat, ist nicht geregelt.
Erst so entstehen aber HDR Bilder denn ohne Dimmung würde ein Monitor mit höherer Leuchtdichte (z.B. 1.500 oder 4.000 Nits) lediglich zum helleren Monitor, nicht aber zum HDR Monitor.
Je nachdem, wie hoch sich die Dichte erzeugen lässt, wird die Hintergrundbeleuchtung 2, bzw. 3-fach hinter der Segmentierten Phasenfolie (240 Segmente), erhöht.
Dies ist nicht ganz unkritisch, weil Diese Reflexionen normalerweise zwischen der TFT-Schicht des Displays und den zusätzlichen Schichten auftreten, die über der TFT-Schicht angeordnet werden müssen, wie dem Polarisationsfilter und der Schutzschicht.
Die Reduzierung der „In- Panel“-Reflektionen steigert den Leuchtwirkungsgrad.
Mit anderen Worten: Während der Schwarzwert gleich bleibt, leuchten die hellen Bereiche des dargestellten Bildes heller, was zu einer stärkeren Kontrastwahrnehmung führt.
Solche Technologien zur Kontrastverbesserung - LED Micro Dimming - beziehen sich auf Weiterentwicklungen in der Display- Technologie.
Stellt sich also die Frage, ob die Hardware noch vor 2020 kommt.
Ich will Dir ja Deine Euphorie in Sachen HDR nicht nehmen, aber die, die vielleicht hier mitlesen, sollten zumindest nicht mit sehenden Augen darauf reinfallen.
Auch wenn die Marketingabteilungen mal wieder ein X für ein U vormachen.
Klar machen sie das. . sie wollen verkaufen und brauchen möglichst viele, die das glauben, dass schon alles super toll ist.
Antwort von Whazabi:
Naja ich finde 4k nicht komplett sinnlos. Bei größeren Projektionsflächen macht das schon Sinn. Aber bei nem TV ... ich habs mal durchgerechnet. Damit ich zwischen 1080p und 2160p nen Unterschied sehe, müsste ich von meinem 55" TV näher als 80cm entfernt sitzen. Das ist jetzt nicht unbedingt wahnsinnig praktikabel und 4k Beamer sind 1. unbezahlbar und 2. von der Dynamik nie im Leben vergleichbar mit nem LC/OLED TV.
Dass du im Kino bei geringem Umgebungslicht bereits große Einflüsse bekommst liegt aber auch vor allem daran, dass der Kontrast generell nicht so sonderlich hoch ist. DCI sieht normalerweise eine Helligkeit von ca. 50cd/m² vor und das Schwarz der Leinwand wird auch relativ schnell schlecht wenn man Umgebungslicht hat. Wenn du jetzt tatsächlich den Vergleich zum TV ziehen willst, obwohl es sich um ein anderes Darstellungsmedium handelt, dann käme ich dementsprechend auf 500cd/m². Ist jetzt nicht so unüblich für ein aktuelles TV Gerät.
Was du über LCDs sagst ist ja das meiste prinzipiell richtig. Nur lokal dimmen musst du nicht mal für HDR. Stellt sich halt immer die Frage wo bei dir HDR beginnt. Wenn es für dich das komplette Ausschöpfen der aktuellen HDR Standards bedeutet, dann wirst du definitiv noch 10 Jahre warten dürfen. Aber so ist das ja auch nicht gedacht. Die Standards sind bewusst so gewählt, dass sie die Fähigkeiten heutiger Technologie übersteigen, sodass noch Luft nach oben ist und wir nicht in 20 Jahren wieder das selbe Problem haben wie mit SDR jetzt. Ein total überholtes System, dass letztlich nur aus einem Haufen grober Empfehlungen besteht, abgestimmt auf eine Bildschirmtechnologie, die schon längst wieder obsolet ist.
Letztlich ist doch aber alles, was über den aktuellen SDR Dynamik-Umfang hinausgeht in meinen Augen auch schon HDR. Sinn macht es ab dem Punkt, wo du tatsächlich einen deutlichen Unterschied erkennst und das erreichst du auch schon mit aktueller Display-Technologie.
Außerdem betrifft es ja nicht ausschließlich die extrem hellen Bildbereiche. Da war eben die Idee mit den absoluten Helligkeiten in den Metadaten die Lösung, sodass jeder TV nach seinen Fähigkeiten das Bild optimal tonemappen kann und dementsprechend den Dynamikraum des Grading-Displays auf seinen eigenen abbildet.
Die Dynamik der dunkleren Bildbereiche wird aber auch wesentlich erhöht und davon profitierst du heute schon zu 100%, weil das aktuelle TVs schon können.
Deswegen sag ich ja HDR ist nicht perfekt (was ist schon perfekt) aber auf jeden Fall in allen Belangen eine bessere Lösung als SDR.
Antwort von WoWu:
Das bedeutet, das bei Dir HDR mit zwei Layern und den dynamisch zu analysierenden Metadaten anfängt.
Damit wird das aber weder was mit HDR10 noch mit dem BBC Verfahren, denn beide lassen keine dynamischen Metadaten zu.
Und, so wie ich den Thread verstanden habe, geht es ja genau um diese Verfahren und darum, dass man kompatibilität mit heutigen Geräten herstellen will.
Das war ja Dein Eingangsgedanke.
Und das wird eben nix.
Wenn wir uns alle 40.000 EUR Dolby Systeme hinstellen wollen, nur zu.
Wenn dann die Produktionen noch durchgängig 12 Bit sind, umso besser.
Aber was uns HLG vorhält, dürfte Deinem letzten Anspruch eher entsprechen :
Mit einwenig Glück und guten Sichtbedingungen, gerade mal einwenig mehr als jetzt.
Antwort von Whazabi:
Ich hab nirgendwo was von dynamischen Metadaten gesagt, oder täusche ich mich?
Das wird zwar momentan von einigen Herstellern selbst bei HDR10 reingefriemelt, ist aber noch kein Standard.
Nö ich meinte einfach eine Abbildung des Dynamic-Bereichs eines Grading-Displays auf mein aktuelles. Das macht HDR10 (mit statischen Metadaten). Das macht Dolby Vision (mit dynamischen Metadaten), was übrigens keine 40k€ kostet. DV TVs sind bereits ab unter 1k€ erhältlich. Player und Videomaterial gibt's noch nicht.
Nur bei HLG funktioniert das nicht, da die wie bereits die Gamma Funktionen vorher eine relative EOTF verkörpert. Evtl. aus Gründen der Abwärtskompatibilität ?!?
Ich verstehe immer noch nicht, wie du darauf kommst, dass man für HDR bessere Sichtbedingungen braucht, aber ok manche Sachen muss man vllt. nicht verstehen.
Konkretes Beispiel. Welches Bild glaubst du wirst du bei mehr Umgebungslicht besser wahrnehmen können. Das Bild des Sharp HDR TVs links, oder das des konventionellen TVs rechts?
zum Bild
Oder hier. Zwei mal der selbe TV einmal mit einmal ohne HDR. Welches Bild ist bei hoher Umgebungs-Helligkeit besser?
zum Bild
Ja ich weiß Fotos von HDR Displays beurteilen ist schwierig. Ich will aber auch gar nicht auf die Qualität, sondern auf die Helligkeit raus. Und da kann man schon erkennen wie gut HDR gegenüber SDR performt.
Antwort von WoWu:
Ich möchte da jetzt nicht mehr näher drauf eingehen, weil soviel Dinge allein in dem letzten Posting durcheinander geworfen wurden, dass selbst die Entflechtung den Rahmen sprengen würde aber eins interessiert mich wirklich.
Wo bekomme ich den Dolby Vision HDR für <1k€ ?
Das macht Dolby Vision (mit dynamischen Metadaten), was übrigens keine 40k€ kostet. DV TVs sind bereits ab unter 1k€ erhältlich.
Antwort von Whazabi:
Wir argumentieren hier seit Tagen über alle möglichen Facetten von HDR und jetzt wo du dich tatsächlich mal konkret festlegen müsstest, behauptest du, dass weitere Diskussionen den Rahmen sprengen würden? Aha. Da würde mich aber jetzt doch mal interessieren welche Dinge ich durcheinander geworfen habe.
Die Frage, welche der TVs du in den von mir verlinkten Bildern bei hoher Umgebungshelligkeit bevorzugst, würde mich immer noch interessieren. Speziell da du ja immer noch behauptest, dass hier aktuelle HDR TVs das Nachsehen gegenüber SDR hätten und ein viel stärkeres Backlight bräuchten um bei der SDR Gesamthelligkeit mithalten zu können, was -wenn ich dich richtig verstanden habe - wie du meinst an der EOTF sichtbar wäre, damit aber eigentlich gar nichts zu tun hat.
Jetzt entflechte mich mal, denn entweder ich missverstehe dich in einigen Punkten permanent, oder einer von uns beiden hat ein prinzipielles Verständnis-Problem und sollte ich das sein würde ich das gerne beheben.
Der billigste DV TV ist momentan wohl der hier http://www.mediamarkt.de/de/product/_lg ... sche-daten
Ich denke dadurch, dass man für Dolby Vision jetzt keine eigene Hardware mehr braucht, wird auch der Preis entsprechender Geräte sich den Geräten mit HDR10 angleichen.
Antwort von WoWu:
Kann das zufällig sein, dass wir über völlig verschiedene Dinge reden?
Du verlinkt hier einen
LG 58UH635V LED TV (Flat, 58 Zoll, UHD 4K, SMART TV)
auf meine Frage, nach einem Dolby vision fähigen Gerät und behauptest auch noch, man brauche für den Empfang des Dolby HDR Verfahrens gar keine Hardware mehr.
Erwartest Du wirklich von mir, dass ich Dir jetzt Dolby Vision erkläre, nachdem Du Dich als HDR Spezialist geoutet hast ?
Ich würde eigentlich erwarten, dass Du die Unterschiede kennst ... dann aber erklärt Sich noch nicht Dein Link.
Soll ich das jetzt als Witz verstehen ... oder nicht ?
Dann allerdings würde das erklären, warum Du meinen Ausführungen so schwer folgen könntest, widerspricht dann allerdings auch Deinem Outing.
Antwort von Whazabi:
Schau auf die LG Webseite.http://www.lg.com/at/tv/lg-58UH635V
Da steht groß und breit, dass Dolby Vision bei dem TV nach einem Software Update funktioniert. Ich hab den TV nicht selber, von daher kann ich es nicht überprüfen und muss auf die Aussage des Herstellers vertrauen.
Wenn dir der nicht gefällt nimmst du halt den 49UH7709 der kann das auch und kostet unter 1k.
Dass für Dolby Vision keine eigene Hardware mehr gebraucht wird ging doch vor ein paar Wochen groß durch die Presse. http://www.pcgameshardware.de/Monitor-D ... r-1221792/
Ist zB auch der Grund warum das neue tolle LG Smartphone auch DV kann oder glaubst du die ham da genug Platz um einen zusätzlichen Dolby Chip zu verbauen?
Anderen Unwissen vorzuwerfen, wenn man sich selbst noch nicht mal richtig informiert, ist schon etwas arrogant, meinst du nicht?
Du hast übrigens immer noch nicht auf meine Frage zu den TV Vergleichsbildern geantwortet. Passt das nicht in dein Weltbild, oder warum klammerst du das permanent aus?
Antwort von WoWu:
Und die Fernseher werden dann durch die Zusatzsoftware zu 12 Bit Geräten.
Wovon träumst Du eigentlich nachts ?
Vielleicht ist es ja Deiner Aufmerksamkeit entgangen, dass Dolby Vision ein 12 Bit Verfahren ist und die Hardware in 12 Bit voraussetzt.
Die Dolby Vision Kompatibilität bezieht sich auf das SR Layer, sodass auch Ausstrahlungen in Dolby Vision als SRD auf üblichen TV Geräten sichtbar sind, weil andernfalls der Chipsatz erforderlich wäre, der jetzt durch Software ersetzt ist und das SR Layer separiert und sichtbar macht.
Vielleicht hilft Dir ja das hier weiter:
https://www.dolby.com/us/en/technologie ... -paper.pdf
Und was die TV Bilder angeht...
Du präsentierst ein Foto, das bestenfalls noch 4 Bit hat und auf dem nichts, aber auch gar nichts zu erkennen ist, außer dass ein Gerät etwas heller eingestellt ist, als das Andere und erwartest im Ernst, einen Vergleich?
Du machst Dich lächerlich mit so einer Anfrage und erwartest nicht wirklich, dass jemand hier im Forum darauf antwortet.
Aber es lässt natürlich einige Rückschlüsse darauf zu, woher Deine Orientierung kommt. Insofern wundert es mich auch nicht mehr, dass einige der Erklärungen an Dir "schadfrei" vorbeigegangen sind.
Antwort von Whazabi:
Nein natürlich bekommen die keine 12 bit.
Aber letztlich die Dolby Metadaten und dementsprechend das gleiche Tonemapping. Darum gehts mir.
Dass das Display für den Preis weder 12 bit noch eine wahnsinnig tolle HDR Darstellung hat ... geschenkt.
Dolby selbst setzt 12 bit ja auch nicht voraus. Wird immer mit bis zu 12 bit geworben (toller neuer Marketing-Trick)
Du präsentierst ein Foto, das bestenfalls noch 4 Bit hat und auf dem nichts, aber auch gar nichts zu erkennen ist, außer dass ein Gerät etwas heller eingestellt ist, als das Andere und erwartest im Ernst, einen Vergleich?
Und genau deswegen hab ich beim zweiten Bild noch dazu geshrieben, dass das beides die selben TVs sind. Was ich vielleicht noch vergessen hatte zu erwähnen ... beide sind auf die selbe Helligkeit (300 nits in SDR) eingestellt. Das heißt sämtliche Helligkeitsunterschiede zwischen den beiden Samsung TVs kommen tatsächlich durch HDR zustande.
Auch beim oberen Bild, kann man durchaus Unterschiede erkennen, die auf mehr zurückzuführen sind als bloße Maximal-Helligkeitsunterschiede. Dafür muss man aber wohl akzeptieren können, dass HDR durchaus deutlich sichtbare Vorteile bietet, selbst auf einem "4 bit" Foto.
Du liest aus einer unbeschrifteten EOTF die durchschnittliche Helligkeit eines Videosignals raus, vergleichst Helligkeit von HDR (wobei du die Maximalhelligkeit beschneidest) mit SDR, das du um mehr als die dreifache Helligkeit anhebst, hältst mein Vorgehen aber mit konkreten, wenn auch schlechten, Bildern von vergleichbaren TV-Geräten zu argumentieren für kompletten Unfug und setzt mich gleichzeitig noch mit einem Lemming der Werbeindustrie gleich?
Ok jetzt gehen mir tatsächlich die Argumente aus.
Ich hatte gehofft du hast tatsächlich sinnvolle Informationen, sodass ich hier nochwas lernen könnte, aber das einzige was du gemacht hast war permanent mir das Wort im Mund rumzudrehen und ständig deine gleichen Thesen zu wiederholen, für die du bislang immer noch einen belastbaren Beleg schuldig geblieben bist.
Wenn du noch sinnvolle Argumente hast oder vor allem Belege die eine deiner Thesen untermauern können, höre ich dir gerne zu ansonsten sage ich gute Nacht!
Antwort von WoWu:
....für die du bislang immer noch einen belastbaren Beleg schuldig geblieben bist.
Wenn du noch sinnvolle Argumente hast oder vor allem Belege die eine deiner Thesen untermauern können, höre ich dir gerne zu ... !
Nimm doch einfach mal 'n iPad, leg 'n Film drauf und dann geh raus, in die Sonne.
Wahrscheinlich verstehst Du dann in etwa die Wikung von Streulicht und die Problematik von Dynamik .... wenn einem die Zahlen schon nix sagen.
Ach, übrigens, im unteren Dynamikbereich wirkt HDR gar nicht, also im eigentlichen SDR Bereich bis rd. 100 Nits.
Antwort von Whazabi:
Naja ein iPad ist für mich halt schon ein anderes Einsatzgebiet. Mit meinem HDR TV lauf zumindest ich nicht draußen in der Gegend rum. Mit meinem Tablet/Smartphone schon und da akzeptiere ich dann natürlich auch, dass ich kein perfektes Bild bekomme, vor allem auch weil ich keinen Einfluss auf die Lichtverhältnisse habe. Daher ist HDR bei Smartphones für mich momentan auch nichts weiter als ein Marketing-Gag.
Deine Argumentation ist finde ich irgendwie komisch. Geht so in die Richtung: Wenn ich ein gutes SNR haben möchte und ich habe Rauschen, muss ich das Signal solange verstärken, bis ich das Rauschen nicht mehr wahrnehme. Das kann aber doch nur dann die Lösung sein, wenn ich auf das Rauschen keinen Einfluss habe, denn wenn ich das Signal über seinen eigentlich zugedachten Bereich Verstärke kann ich mir wieder neue Probleme einhandeln.
Wenn du mir jetzt noch erklärst was ich in deiner Grafik sehe ... kann ich leider nicht erkennen,weil wieder mal die Achsenbeschriftung fehlt.
Prinzipiell gilt, dass die Dynamik bei HLG im SDR Bereich überhaupt keinen Unterschied zu SDR macht. Das ist definitiv richtig, weil es die selben EOTF Kurven sind.
Bei PQ basierten HDR Verfahren ist das aber falsch, denn die PQ verläuft in dem Bereich sichtbar flacher, als die SDR Gamma Funktionen, wodurch sich Helligkeitsabstufungen feiner auflösen lassen.
Kann man hier sogar relativ gut sehen
zum Bild
In grün die HDR10 und in rot die aktuelle SDR Gamma (BT.1886). Hier sogar zum besseren Vergleich ebenfalls mit 10 bit quantisiert.
Die PQ Funktion verläuft bis zu ca. 70cd/m² unterhalb der BT.1886. Erst ab dann wechselt sich das ganze und die SDR Kruve löst die Helligkeitsstufen genauer auf.
Klingt erst mal so natürlich als wäre die BT.1886 bei helleren Bildbereichen genauer, ist sie auch, da der Mensch das ganz mit bloßem Auge aber nicht mehr wahrnehmen kann, ist dieser Umstand höchstens relevant für nicht-menschliche Lebewesen, deren Sehvermögen zwischen 70-100cd/m² Helligkeitsabstufungen besser unterscheiden kann.
Nachtrag: Ich hab mich nochmal auf die Suche nach deiner Grafik gemacht, weil mich interessiert hat, was sie zeigt. Ich gehe mal davon aus du hast die Grafik von hierhttp://www.murideo.com/news/archives/07-2016.
Wenn du dir mal den Text zur Grafik durchliest, dann steht da folgendes:
The following is taken directly from the ST2084 specification.
This EOTF (ST2084) is intended to enable the creation of video images with an increased luminance range; not for creation of video images with overall higher luminance levels. For consistency of presentation across devices with different output brightness, average picture levels in content would likely remain similar to current luminance levels; i.e. mid-range scene exposures would produce currently expected luminance levels appropriate to video or cinema.
The ST2084 HDR specification defines reference white (normal diffuse white) as being 100 nits, which is exactly the same as for SDR displays (Standard Dynamic Range). Above 100 nits is for spectral highlight detail only. This shows that the Average Picture Level (APL) of a ST2084 HDR display will not be significantly different to a SDR display.
So the reality is that ST2084 HDR should just ADD to the existing brightness range of SDR displays, meaning that more detail can be seen in the brighter areas of the image, where existing displays simply clip, or at least roll-off, the image detail.
The following histogram is a simplified view of the difference between a SDR (Standard Dynamic Range) image, and its ST2084 HDR equivalent.
Note that the APL (Average Picture Level) remains approximately consistent between the SDR and ST2084 HDR images, with just the contrast range and specular highlight levels increasing.
Das bedeutet die Grafik zeigt ein Histogramm der beiden Helligkeitsverteilungen SDR/HDR(PQ). Sprich eine Grafik, die zeigt wie oft die jeweilige Helligkeit in dem Videostream auftritt. Dass diese beiden relativ gut übereinstimmen bedeutet, wie im Text auch steht, eigentlich das Gegenteil von dem was du behauptest, nämlich dass der Average Picture Level im Bereich von SDR (0,01-100nits) weitestgehend mit dem APL, den die PQ Funktion erreicht, übereinstimmt. Das Bild wird also bei HDR, gemäß der Aussage deiner verlinkten Grafik, nicht dunkler.
 |
Antwort von WoWu:
Vielleicht solltest Du Dir einfach nochmal die Mühe machen, mein Eingangsposting (So 12 März, 2017 15:03 ) zu dem Thema durchzulesen.
Du machst hier an allen Ecken und Kanten irgendwelche Nebenschauplätze auf, die mit der ursprünglichen Aussage in keinem Zusammemhang mehr stehen.
Und Du solltest auch Helligkeit nicht mit Kontrast verwechseln. Je flacher eine Kurve verläuft, umso weniger Kontrast entsteht. Un der kann nur aus der Differenz zweier Werte entstehen, nämlich Helligkeit zu schwarz.
Es geht also um das Kontrastverhältnis und nicht um die Leuchtstärke.
Leuchtstärke allein gibt nämlich nur hellere Monitore aber kein HDR.
Und der Kurvenvergleich gibt sehr schön her, dass Du auf einem HDR Monitor im gesamten Bereich dessen, was wir jetzt schon auf einem konventionellen 100Nit Monitor sehen, absolut keine Vorteile hast, Also das, was Du an Tiefenauflösung propagierst, entsteht bestenfalls aus 10Bit, nicht aber aus HDR, dessen effekte erst oberhalb einsetzen.
Du wirfst die einzelnen Effekte, die aus 10Bit, der höheren Leuchtdichte, also HDR und dem, was durch zusätzliche Technologien durch die Schwarzabsenkung entsteht, durcheinander.
Dabei berücksichtigst Du nirgendwo, dass gerade der Kontrast, den wir dann als HDR identifizieren, an vielen Stellen wieder rückgängig gemacht wird und im ungünstigsten Fall wieder verpufft, oder sogar im Grau endet.
Und Deine Aussage war ja, dass man zum Kunden bekommt, was man im Studio sieht ... und das ist Wunschdenken.
Aber wenn Du das "Fass" Banding noch zusätzlich aufmachen willst ... nur zu; denn in Deiner verlinkten Kurve geht es um das Vermeiden von Quantisierungeeffekten, die bei größerer Helligkeit verstärkt vom Menschen wahrgenommen werden, also Banding.
Mal ganz abgesehen davon, dass das auch nur ein Kurvenausschnitt ist und nicht einmal den unteren, hier von Dir als "interessant" propagierten Bereich abdeck.
Aber es freut mich ja, dass Du zwar mit dem iPad keine Filme schaust, aber wenigstens die Kontrastproblematik nicht ignorierst.
Hier geht es nämlich um dasselbe Problem insofern sind wir ja einen Schritt weiter uns stellen fest ... es gibt offenbar ein solches Problem.
Nur eben für Dich nicht, weil Du HDR im stockdunklen Raum siehst und nur Filme mit Spitzenhelligkeiten, die die Verbrauchswerte von 3,4579 W/dm2 nicht überschreiten.
Prima, haben wir ja die Lösung.
Antwort von Whazabi:
Deine Aussage war im wesentlichen dieser Absatz:
Was noch zu beweisen wäre, denn Aufgrund der EOTF-Kurve im Einsatz auf PQ-basierten HDR wird das Schwarz unter normalen Home-Viewing-Bedingungen oft im Vergleich zu SDR-Versionen des gleichen Bildes "gestaucht".
Dies entsteht durch die Surround-Beleuchtungsreglung, die für HDR mit 5 Nits angegeben ist, während für SDR es 10% der maximalen Anzeige sind. Das ist eine ziemlich grosse Diskrepanz und zeigt, dass HDR Schwarz bzw. Schatten oft ausgewaschen oder abgeschnitten werden, wenn sie in einer Umgebung betrachtet werden, in der die Umgebungslichtstufen nicht kontrolliert werden können.
Zusammengefasst verstehe ich dich so, dass du meinst, dass bedingt durch die Surround-Beleuchtungsregelung von HDR das Signal in hellem Umgebungslicht schlechter aussieht, als das SDR Äquivalent.
Wie kommt dann deiner Meinung nach das Histogramm zustande, welches du ein paar Posts weiter vorne verlinkt hast? So wie ich das sehe widerspricht eben genau diese Grafik deiner ursprünglichen Aussage.
Mein Exkurs über Dynamik im SDR Bereich kam dadurch zustande, dass du ein Posting weiter vorne behauptet hast, HDR würde in eben genau diesem Bereich garnicht wirken. Wenn du nicht möchtest, das ich auf falsche Feststellungen von dir antworte und versuche sie richtig zu stellen, dann erwähne das künftig bitte vorher, dann kann ich mich darauf einstellen. Ich nehme mir im Folgenden tatsächlich auch heraus auf die Funktionsweise einer EOTF einzugehen, da du das Konzept anscheinend nicht richtig verstanden hast.
Helligkeit ist wichtig für den Kontrast, gerade bei Umgebungslicht. Du kannst Kontrast nicht ohne Helligkeit betrachten. Außerdem gibt die Steigung der EOTF nicht den Kontrast an. Der wird letztlich über die Extrema bestimmt. Die Steigung bzw. der Kurvenverlauf gibt nur an wie groß die Helligkeitsabstufungen zwischen den einzelnen Werten sind.
Tatsächlich entsteht die bessere "Tiefenauflösung" sowohl durch die höhere Quantisierung, als auch durch den Verlauf der PQ, die mehr unserem Sehvermögen gleicht, als die BT1886, die wie alle anderen Gamma Funktionen vom durchschnittlichen Abstrahlverhalten von CRTs abgeleitet ist. Die Anzahl der digitalen Abstufungen ist bei 10bit immer die selbe. Allerdings kann ich an Qualität gewinnen, wenn ich die Abstände der einzelnen Abtsufungen verschieden gestalte. Da wo ich mit dem Auge kleinere Unterschiede wahrnehmen kann mach ich meine Abstufungen kleiner (zb fiktivier Wert: 50 -> 2cd/m² und 51 ->3cd/m²). Da wo ich mit dem Auge aber sowieso keine kleinen Unterschiede wahrnehmen kann muss ich auch keine so kleinen Unterschiede abbilden (zB: 900 -> 1000cd/m² und 901 -> 1200cd/m²). Wenn ich diese Verfahren jetzt dem menschlichen Helligkeitsempfinden anpasse, kann ich tatsächlich an Qualität gewinnen, ohne mehr Bit in meine Quantisierung investieren zu müssen. Genau das wurde mit der PQ gemacht und es ist einer der entscheidenden Punkte für die bessere Dynamik bei HDR.
Dieses Verfahren ist nicht neu und wird im Multimedia-Bereich mittlerweile sehr oft eingesetzt.
Ob dus glaubst oder nicht. Ich schaue HDR nicht im stockdunklen Raum und bekomm trotzdem ein 1000mal besseres Ergebnis. Ich denke nur dass sich die Mühe mit HDR da nicht lohnt, wo man mit aktueller Display-Technologie sowieso immer noch Mühe hat überhaupt was sehen zu können. Wieso sollte man ein Signal für die möglichst ungünstige Situation spezifizieren. Auf meinem Handy mit Sonne bekomme ich mit Glück vielleicht einen Kontrast von 50:1. Man sollte Sachen halt da verwenden wo sie Sinn machen und nicht da wo es einem die Werbung suggeriert.
Antwort von WoWu:
Also nochmal ..
HDR wirkt nicht auf den bisherigen 100 Nit Bereich.
Bessere Abstufung, egal ob in dunklen und hellen Bereichen geht nicht auf HDR zurück sondern auf die 10 oder 12 Bit. Das hat nichts mit HDR zu tun und wäre auch so, wenn man 10 Bit auf normale 10Bit Monitore überträgt.
Kontrast entsteht bei HDR erst, wenn dafür vorgesehene Schwarzabsenkungen in der Hardware vorgesehen sind, also erst in einer nächsten TV Generation an HW, die es noch nicht zu Preisen gibt, die Du propagierst.
Und selbst solche schwärzungsmassnahmen sind in ihrer Wirkung extrem abhängig vom Streulicht, also vom Kontrast, sodass das, was Du sagst, man könne im Studio sehen, was der Zuschauer sieht, in den meisten Fällen einfach nicht stimmt.
Und wenn Du eine bessere Tiefenauflösung auf eine flache Gammakurve (PQ) zurückführst, verlierst Du weiter Kontrast, sodass Du Dir selbst widersprichst.
Und die EOTF ist eher den zu vermeidenden Quantisierumgsartefalten geschuldet als der Angleichung des menschlichen Sehempfindens, denn die wird ohnehin erst zwischen Hintrgrundsteuerung und geregeltem Spitzenwert hergestellt und auch nur, wenn die hellen Bildinhalte so geringfügig im Bild vorkommen, dass die Verbrauchsnprm eingehalten wird.
Helle Bilder habe dabei sowieso keine Chance, weil die ARC das Bild auf 60% Spitzenhelligkeit runterzerrt und sämtliche Kontrastkurven oberhalb davon völlig uneinheitlich verlaufen.
Was hat das dann noch mit deiner PQ zu tun, in der Du völlig andere Angaben übermittels und was hat das dann auch noch damit zu tun, was Du in der Mischung vorgelegt hast .... nix.
Die Bilddynamik schwankt nämlich schon allein durch diese Maßnahme um 40%, abhängig vom Bildinhalt.
Wie gesagt... hellere Monitore haben noch lange nichts mit HDR zu tun, auch wenn es drauf steht, auch nicht 10 Bit Monitore, weil 10 Bit nichts mit HDR zu tun hat.
Und die schönste PQ nutzt nur dann was, wenn man das Signal auch bis auf die Netzthaut bekommt.
Aber ich freue mich ja, dass Dir HDR gut gefällt. Mir gefällt 10 Bit auch seit fast 20 Jahren besser als das, was uns Fernsehen so zu bieten hat.
Aber wenn ich mich erinnere, hast Du doch oben weiter erwähnt, dass Dir 10 Bit gar nicht so wichtig sind ... oder erinnere ich mich da nicht richtig.
Da bliebe dann eben nur noch der etwas hellere Mpnitor, der Dich dann beeindruckt.
Antwort von Whazabi:
Wenn die EOTF keinen Einfluss auf die Dynamik hat, warum steckt man dann überhaupt Arbeit rein eine passende zu finden? Dann könnte man doch einfach auch eine lineare Funktion nehmen, wenn alles nur von der Quantisierung abhängt. Wär doch viel einfacher.
Was du jetzt mit deiner Shwarzabsenkung meinst, kein Plan. Ist in keinem Standard vorgesehen. Schwarz ist bis runter zu 0,005cd/m² definiert. Fertig.
Da kommt momentan zwar kein LCD, sehr wohl aber jeder OLED TV dran.
Der OLED macht seine Pixel einfach aus und das wars. Keine Ahnung wie du das noch schwärzer machen willst.
Bevor wir hier weiter diskutieren ... wie wärs denn wenn du dich erst mal über die Grundlagen informierst. Für mich macht es keinen Sinn hier weiterzumachen, wenn du noch nicht mal die beherrschst und auch nicht zulässt, dass ich sie dir erkläre. Wenn du mir nicht glaubst, dann lies es halt in Büchern nach oder im Netz, besuch ein paar Vorlesungen zu Signalverarbeitung an einer Uni whatever.
Der Kontrast hängt nicht vom Gradienten der EOTF ab, sondern von ihren absoluten Extrema. Das was du hier zum besten gibst ist zwar nicht komplett falsch, aber eben nicht die ganze Wahrheit.
Wenn du immer aus der Position heraus argumentierst, dass du recht hast und ich unrecht, wir diese Diskussion zu nichts führen, da du zumindest bei einigen grundlegenden Punkten tatsächlich im Unrecht bist, was letztlich auch dazu führt, dass du bei einigen anderen Sachen komische Schlussfolgerungen ziehst. Solange du nicht bereit bist diese Fehler als solche anzuerkennen und dich eines besseren belehren zu lassen, macht es keinen Sinn hier weiterzureden.