Du konntest schon vor Jahren höhere Kontraste und Helligkeit auf einer Heimglotze haben als im Kino, je nach Definition von Kontrast und Kino. Einige haben schon vor zehn Jahren ihre Plasmas für besser gehalten als 35mm mit Zweiflügelblende und italienischer HighSpeed-Entwicklung.Eine Frage ist: Wenn ich mich nicht täusche, führt HDR zum ersten Mal in der Filmgeschichte zur Situation, dass die Bildqualität im Kino - dessen Projektoren diese Kontraste/HDR nicht bringen - schlechter ist als beim Home Viewing?!?
In meinem Beispiel halt die Kombination Netflix - Google (mit HDR10-Unterstützung in Android) - Huawei (die mit dem Update auf Android 9 für das P20 Pro ein HDR-Zertifikat von Google erhielten, für ein ziemlich präzise definiertes Ausgabegerät).carstenkurz hat geschrieben: ↑Sa 02 Feb, 2019 20:09 Aber Kontrast ist nicht der einzige Parameter, der 'Bildqualität' definiert. Wer z.B. misst Dir denn deine Heimglotze auf rec.709 oder rec.2020 ein und sorgt dafür, dass niemand mehr an den Reglern dreht? Wer sorgt dafür, dass die Produktionsbildrate 1:1 von Transportweg und Wiedergabegerät durchgereicht wird?
Ich denke, es ist genau umgekehrt, HDR behebt die schlimmsten Fehler, die durch Displays mit 500nits überhaupt erst geschaffen werden ;)cantsin hat geschrieben: ↑Sa 02 Feb, 2019 20:22In meinem Beispiel halt die Kombination Netflix - Google (mit HDR10-Unterstützung in Android) - Huawei (die mit dem Update auf Android 9 für das P20 Pro ein HDR-Zertifikat von Google erhielten, für ein ziemlich präzise definiertes Ausgabegerät).carstenkurz hat geschrieben: ↑Sa 02 Feb, 2019 20:09 Aber Kontrast ist nicht der einzige Parameter, der 'Bildqualität' definiert. Wer z.B. misst Dir denn deine Heimglotze auf rec.709 oder rec.2020 ein und sorgt dafür, dass niemand mehr an den Reglern dreht? Wer sorgt dafür, dass die Produktionsbildrate 1:1 von Transportweg und Wiedergabegerät durchgereicht wird?
Und wahrscheinlich funktioniert genau dieses Setup gut, weil da wenig bzw. keine anderen Parameter dazwischensitzen, und man in Netflix' Smartphone-App auch nicht an den Reglern drehen kann.
Also unser DCI zertifiziertes Anzeigegerät liefert 10m Breite und 4m Höhe und einen Kontrast von etwa 8000:1 in 12Bit 4:4:4 und 4k bei typisch 250MBit/s.P20 Pro
So kann man es auch sehen. Der Normalfall (beim Filmesehen) ist halt, dass man die Displayhelligkeit 'runterregelt, damit das Bild auch vernünftig aussieht.dienstag_01 hat geschrieben: ↑Sa 02 Feb, 2019 20:30 Ich denke, es ist genau umgekehrt, HDR behebt die schlimmsten Fehler, die durch Displays mit 500nits überhaupt erst geschaffen werden ;)
Ja, und weil ein mittelalter Endverbraucher diese Vergleichsbilder wahrscheinlich mindestens fünfmal in seinem Leben für ein jeweils anderes Technologiekürzel gesehen hat, hakt er da ab.carstenkurz hat geschrieben: ↑Sa 02 Feb, 2019 21:06 Weder die Industrie noch die Endverbraucher haben es sonderlich mit Erklärungen. Daher gibts Kürzel wie HD, UHD, HDR, HFR, und vorher/nachher, links flau/rechts knackig Vergleichsbilder.
Seit einem halben Jahr suche ich einen HDR-Monitor zur Bearbeitung. Die Trauer beginnt, wenn man 10 Bit sucht. 10 Bit, meinen manche Hersteller, sei auch 8 Bit mit FRC.WoWu hat geschrieben: ↑Sa 02 Feb, 2019 23:43 Die meisten Fernseher - und speziell die auf den Aldi Paletten- sind noch 8Bit.
Der einzige Fortschritt in HDR - den ich sehen kann- besteht im Step nach 10Bit. Ob sich nun die paar Spitzlichter in den oberen Blenden besser differenzieren lassen - oder nicht- ist ziemliche Spielerei.
Übrigens gibt es hier die Japanischen Geräteversionen, bei denen die Verbrauchsreglung der EU und der USA abschaltbar ist.
Das wirkt sich in Filmen mit deutlicher Helligkeit schon ziemlich aus, weil weiße Flächen nicht gleich grau werden.
Aber, wie gesagt, die 10 Bit machen sich schon angenehm bemerkbar.
und Du bist hinreichend sicher, dass dies echte HDR-shots sind?Starshine Pictures hat geschrieben: ↑So 03 Feb, 2019 14:24 Bei den UHD Blurays zeigen zum Beispiel „Venom“, „Jurrassic World 2“ oder „Jim Knopf der Lokomotivführer“ sehr gut was 4K HDR kann.