Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // HDR400 True Black vs HDR Peak 1000



Frage von misanthrop_48155:


Nächste Frage, liebe mitlesende, was ist vorzuziehen?
HDR400 True Black ODER HDR Peak 1000
Ich habe zwei Monitore zur Auswahl, einmal der ASUS ProArt OLED PA32DC (HDR400 True Black),
das andere ist der ASUS ProArt PA32UCX-PK (IPS) mit DisplayHDR 1000
Welchen der beiden würdet ihr bevorzugen, da bin ich mir nicht sicher!
Was ist wichtig...
Grüße T.

Space


Antwort von cantsin:

Wofür willst Du denn die Monitore einsetzen?

Und was ist Dein Workflow (Kamera/Codecs, Rechner, Software), um HDR-Video zu schneiden/rendern?

Space


Antwort von misanthrop_48155:

Hi,
meine Projekte sind mit einer BMPCC6K Pro gefilmt, 6k und 4k BRAW (in der Timeline bei DaVinci-Resolve 4K/UHD)
und als Ausgabeformat (Deliver) wähle ich P3 um die Filme anschließend u.a. auf eine Ultra HD Blu-Ray zu brennen.

Intel Core i9-10920X, 12C CPU @ 3.50GHz 3.50 GHz
64 GB RAM, Win 10 Pro (Version 22H2) / 64bit
Grafikkarte: NVIDIA 4080 16GB
DeckLink 4K Extreme 12G

Grüße T.

Space


Antwort von cantsin:

misanthrop_48155 hat geschrieben:
meine Projekte sind mit einer BMPCC6K Pro gefilmt, 6k und 4k BRAW (in der Timeline bei DaVinci-Resolve 4K/UHD)
und als Ausgabeformat wähle ich P3 um die Filme anschließend auf eine Blu-Ray zu brennen.

Intel Core i9-10920X, 12C CPU @ 3.50GHz 3.50 GHz
64 GB RAM, Win 10 Pro (Version 22H2) / 64bit
Grafikkarte: NVIDIA 4080 16GB
Tja, das funktioniert nicht. Mit einer normalen Grafikkarte und Resolve ist kein HDR-Monitoring möglich.

Und wenn Du normale BluRays brennst, sind die sowieso SDR und nicht HDR. Und sie haben auch kein P3, sondern Rec709-Farbraum und -Gamma.

Weil Resolve über normale Grafikkarten auch kein P3 ausgeben kannst, dürfte Dein ganzer Workflow Falschfarben produzieren, bzw. die Farben, die Du auf Deinem Computermonitor siehst, sind andere als die auf der rausgerenderten BluRay.

Und wenn Du dann noch einen HDR-Monitor anschliesst und im HDR-Modus betreibst, machst Du alles nur noch schlimmer.

Dann hast Du P3 auf der Timelime als falsches Farbsignal an einer sRGB-Grafikkarte mit einem HDR/Rec2020-Monitor, aber renderst letztlich Rec709 raus...

Space


Antwort von misanthrop_48155:

Hab vergessen, ne DeckLink 4K Extreme 12G habe ich auch noch drin, daran kommt dann der Monitor.

Grüße T.

Space


Antwort von Darth Schneider:

Warum heute überhaupt noch BluRays selber brennen ?

Klar Hollywood Filme auf BluRay Disks kaufen und schauen tue ich die auch immer noch. Zwischendurch..;)

Gefilmtes HDR Content von der S5, in Resolve bearbeiten, rendern (aber ohne HDR Monitoring) auf einen schnellen USB Stick kopieren und auf einem entsprechenden TV oder Beamer der das auch abspielen kann schauen.
Das geht problemlos, und ist auch am Schluss HDR.
Das hab ich schon mehrmals probiert, mit meinem LG TV. Der kostete aber auch fast 1700 Piepen…

Womit wird das am Schluss denn dem Publikum gezeigt ?
Das kann nicht jeder (auch) aktuelle Beamer oder TV…
Gruss Boris

Space


Antwort von misanthrop_48155:

cantsin hat geschrieben:

Und wenn Du normale BluRays brennst, sind die sowieso SDR und nicht HDR. Und sie haben auch kein P3, sondern Rec709-Farbraum und -Gamma.
In einer Filmwerkstatt habe ich schon einmal Projekte mit einem Ultra HD Blu-ray Brenner gebrannt.
NIX mit Rec709-Farbraum und so...!

Grüße T.

Space


Antwort von Darth Schneider:

Was für ein Teil denn, zum 4K HDR BluRays brennen ?

Und warum sagst du nicht wo, ist das etwa Top Secret ?..;)

Und (eine auch nicht ganz unwichtige Frage) womit (Player, Beamer, oder Monitor) wird das 4K HDR dem Publikum gezeigt ?

Geht mich ja eigentlich nix an, aber das ist doch Alles, ein Teil des Workflows.
Gruss Boris

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Und warum sagst du nicht wo, ist das etwa Top Secret ?..;)
Ja, bissl albern ein pseudo Geheimnis aus was zu machen, das man mit ner 2 Sekunden Google Suche beantworten kann.

Space



Space


Antwort von Darth Schneider:

Und der HDR 4K BluRay Recorder, (Das „so ein Teil“ ) und der Beamer und Co ?

Abgesehen davon, Google sagt mir Filmwerkstatt in München, Düsseldorf, Münster und noch wo in Deutschland…;))
Gruss Boris

Space


Antwort von Bluboy:

Techpulse 120 Extrene

Scenarist ist nicht dabei und BDxl Rohlinge sind keine UHD Blu Ray Rohlinge

Space


Antwort von Darth Schneider:

Dann wird das auch kein 4K HDR Film auf BluRay…
Gruss Boris

Space


Antwort von Bluboy:

"Darth Schneider" hat geschrieben:
Dann wird das auch kein 4K HDR Film auf BluRay…
Gruss Boris
UHD Fernsehen aufzeichnen - Panasonic UHD Recorder

Oder UHD nur am PC anschauen

Unterstützt das Abspielen von UHD Ultra-HD 4K Inhalten.
Hierfür sind spezielle Grafikkarten,Monitore,Hardware und eine Software im PC oder Notebook nötig.

Space


Antwort von Darth Schneider:

@Bluboy
Schon klar, ich weiss schon, hab ja selber auch schon einige Male mit HDR herum gespielt, und früher zig BluRays und Hunderte Dvds erstellt…;)
Panasonic Stand Alone Brenner kenne ich auch.

Ich habe eigentlich nur angefangen überhaupt etwas zu schreiben weil ich gelesen habe, was von
4K HDR UHD BluRay…
Hat mich einfach verwirrt.

Und heute sehe ich persönlich halt eigentlich gar keinen Grund mehr um irgend ein Scheiberl zu brennen.

Jetzt bin ich ja mal gespannt auf die HDR Monitor Tipps.
Gar nicht mein Gebiet, aber für mich auch gar nicht uninteressant.;)

Sind nicht die neuen iPad Pros auch HDR fähig und dazu noch auch kleine aber ausgewachsene Referenz Monitore ?
Gruss Boris

Space


Antwort von wolfgang:

misanthrop_48155 hat geschrieben:
Nächste Frage, liebe mitlesende, was ist vorzuziehen?
HDR400 True Black ODER HDR Peak 1000
Ich habe zwei Monitore zur Auswahl, einmal der ASUS ProArt OLED PA32DC (HDR400 True Black),
das andere ist der ASUS ProArt PA32UCX-PK (IPS) mit DisplayHDR 1000
Welchen der beiden würdet ihr bevorzugen, da bin ich mir nicht sicher!
Was ist wichtig...
Grüße T.
Also was hier wieder herum geredet wird, und der Kern unbeantwortet bleibt . auch wenn es richtig ist, dass man dein HDR Material nicht von einer Blu-ray abspielen wird können. Also bitte die Datei einfach von einem passenden Mediaplayer abspielen.

Mit der Decklink 4K Extreme 12G bist schon mal richtig unterwegs, was den normierten Signalweg angeht. Brauchst daher noch ein kalibriertes Display, und das fragst Du hier ja richtig nach.

Der OLED PA32DC kommt in Reviews eigentlich recht gut weg,
https://www.youtube.com/watch?v=Y7Q7NU8DSFs&t=813s

hat als OLED natürlich eine fantastische Bildqualität. Und doch den Nachteil, dass er die 1000 nits einfach nicht kann, die heute für das Graden zu HDR gefordert werden. Jetzt kommt es darauf an, wofür Du arbeitest. Netflix würde unter 1000 nits nichts erlauben, aber gerade bei den OLEDs kommst heute bei den Heimgeräten ebenfalls nie auf die 1000 nits. Kritischer sehe ich aber den Punkt, dass das Tonmapping im Bereich der Spitzlichter nicht normiert ist - und daher sowohl bei diesem Gerät wie auch den Heimgeräten hier immer ein gewisses Fragezeichen bleibt. Ist aber auf der anderen Seite weniger kritisch, weil im Bereich der 600-1000 nits im Regelfall nur die Spitzlichter sitzen, und ob dort das Tonmapping kritisch ist kann man sehr wohl hinterfragen.

Der PA32UCX erreicht mit 1200 nits zumindest die Spitzewerte, und ist inzwischen preislich erstaunlich günstig geworden. 2600 Euro - der war deutlich teurer.
https://www.amazon.de/ASUS-PA32UCX-PK-P ... r=8-1&th=1

Die Backlighting Technologie ist hier bereits implementiert. Review hier:
https://www.youtube.com/watch?v=BcVmvwCye9A
Ich würde von den beiden Modellen wohl eher zum UCX neigen, auch weil er die Spitzenhelligkeit nach diesem Review in 75% der Fläche seine 1500 nits und 1356 nits auf 100% der Fläche kann - damit ist ein Grading auf 1000 nits wie heute üblich zuverlässig möglich.

Aber die Entscheidung ist schwer. Ein OLED ist ja auch nicht zu verachten.

Persönlich habe ich mich aber vor einem Monat für den ProArt Monitor PA32 UCG entschieden - denn der kann stabile 1000 nits über die ganze Fläche, erreicht bis zu 1700 nits, und wird auch von Coloristen durchaus empfohlen. Die allgemeine Begeisterung über den ist noch größer gewesen
https://www.youtube.com/watch?v=mCW4FZgv-pc&t=184s

https://www.youtube.com/watch?v=c3yhHcL6h-M


und auch die Testberichte sind sehr positiv
https://www.tomshardware.com/reviews/as ... rt-pa32ucg

aber er ist definitiv noch teurer, und verfällt auch aufgrund seiner Fähigkeiten nicht im Preis
https://www.amazon.de/dp/B08BXKNDKC/?co ... _lig_dp_it

Ich bin damit recht zufrieden. Diskussion dazu auch hier
https://www.videotreffpunkt.com/videotr ... /&pageNo=1

Space


Antwort von Darth Schneider:

@Wolfgang
Nur so zur Info, die guten neuen LG TV Geräte schaffen heute schon bis zu 810 Nits, noch dazu mit 10 Bit..
(Da fehlt gar nicht mehr viel bis 1000 Nits, und somit bis zum erwachsenen HDR Grading Monitor Tool.)
Z.B. Dieser:
https://www.digitec.ch/de/s1/product/lg ... v-20243921
Ein echtes Schnäppchen…

Ich würde mir heute jedenfalls zwei, besser noch drei mal überlegen, ob ich 3000 oder 4000 € wirklich zwingend für einen HDR Grading Monitor ausgeben muss.
Und es sein lassen…
Gruss Boris

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:

Persönlich habe ich mich aber vor einem Monat für den ProArt Monitor PA32 UCG entschieden - denn der kann stabile 1000 nits über die ganze Fläche, erreicht bis zu 1700 nits
Ich kann mir allerdings keine Szene vorstellen, die flächendeckende 1000 nits hergeben würde.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
wolfgang hat geschrieben:

Persönlich habe ich mich aber vor einem Monat für den ProArt Monitor PA32 UCG entschieden - denn der kann stabile 1000 nits über die ganze Fläche, erreicht bis zu 1700 nits
Ich kann mir allerdings keine Szene vorstellen, die flächendeckende 1000 nits hergeben würde.
Du hast dann allerdings den tatsächlichen Punkt noch nicht verstanden. Der ist nämlich natürlich nicht, dass man flächendeckend eine superweiße Fläche mit 1000 nits graden will, sondern dass der Monitor derartige Reserven hat dass er eben beim Graden zu 1000 nits noch in keinem Bildbereich mit einer unklaren Tonmapping-Kurve beginnt abzuregeln. Denn diese Tonmapping Kurve ist bei PQ eben undefiniert, und dem Hersteller überlassen was er hier implementiert.

Space



Space


Antwort von Frank Glencairn:

DAs ist mir schon klar Wolfgang, darum gings mir aber nicht sondern um flächendeckend.

Space


Antwort von wolfgang:

"Darth Schneider" hat geschrieben:
@Wolfgang
Nur so zur Info, die guten neuen LG TV Geräte schaffen heute schon bis zu 810 Nits, noch dazu mit 10 Bit..
(Da fehlt gar nicht mehr viel bis 1000 Nits, und somit bis zum erwachsenen HDR Grading Monitor Tool.)
Z.B. Dieser:
https://www.digitec.ch/de/s1/product/lg ... v-20243921
Ein echtes Schnäppchen…

Ich würde mir heute jedenfalls zwei, besser noch drei mal überlegen, ob ich 3000 oder 4000 € wirklich zwingend für einen HDR Grading Monitor ausgeben muss.
Und es sein lassen…
Gruss Boris
Ja, nur hast ein paar Fragezeichen damit.
- Die 810 nits schafft er - auf wieviel % der Fläche?
- Die 1000 nits, die heute gängige Praxis sind, regelst damit definitiv ab.
- Das Geräte ist wie genau kalibrierbar?
- Regelt er bei den höheren Helligkeitswerten das gesamte Bild in der Helligkeit ab? So etwas machen manche Consumer TVs.

Aber natürlich verstehe ich Deinen Punkt mit dem Preis sehr gut. Man kann sich sehr wohl so ein Gerät im Privatbereich nehmen, und halt einige Einschränkungen hin nehmen, die einem (für den Privatbereich) als wenig wichtig erscheinen. Man muss ja nicht den Anspruch eines Coloristen haben.

Es gibt inzwischen auch etwas preiswertere HDR-Monitore wie den hier
https://www.amazon.de/dp/B0BLWDWGMZ/?co ... _lig_dp_it

aber natürlich ist der nicht kalibrierbar, aber werksseitig gut eingestellt. Muss aber jeder selbst wissen.

Ich würde auch immer eine Decklink Karte oder das Ultrastudio 4K mini mit einplanen, und nicht über die GPU gehen wollen.

Space


Antwort von DKPost:

wolfgang hat geschrieben:
"Darth Schneider" hat geschrieben:
@Wolfgang
Nur so zur Info, die guten neuen LG TV Geräte schaffen heute schon bis zu 810 Nits, noch dazu mit 10 Bit..
(Da fehlt gar nicht mehr viel bis 1000 Nits, und somit bis zum erwachsenen HDR Grading Monitor Tool.)
Z.B. Dieser:
https://www.digitec.ch/de/s1/product/lg ... v-20243921
Ein echtes Schnäppchen…

Ich würde mir heute jedenfalls zwei, besser noch drei mal überlegen, ob ich 3000 oder 4000 € wirklich zwingend für einen HDR Grading Monitor ausgeben muss.
Und es sein lassen…
Gruss Boris
Ja, nur hast ein paar Fragezeichen damit.
- Die 810 nits schafft er - auf wieviel % der Fläche?
- Die 1000 nits, die heute gängige Praxis sind, regelst damit definitiv ab.
- Das Geräte ist wie genau kalibrierbar?
- Regelt er bei den höheren Helligkeitswerten das gesamte Bild in der Helligkeit ab? So etwas machen manche Consumer TVs.

Aber natürlich verstehe ich Deinen Punkt mit dem Preis sehr gut. Man kann sich sehr wohl so ein Gerät im Privatbereich nehmen, und halt einige Einschränkungen hin nehmen, die einem (für den Privatbereich) als wenig wichtig erscheinen. Man muss ja nicht den Anspruch eines Coloristen haben.

Es gibt inzwischen auch etwas preiswertere HDR-Monitore wie den hier
https://www.amazon.de/dp/B0BLWDWGMZ/?co ... _lig_dp_it

aber natürlich ist der nicht kalibrierbar, aber werksseitig gut eingestellt. Muss aber jeder selbst wissen.

Ich würde auch immer eine Decklink Karte oder das Ultrastudio 4K mini mit einplanen, und nicht über die GPU gehen wollen.
Für die LGs gibt es eine Software von Calman zum kalibrieren. Die greift direkt auf das System zu und lädt ein Kalibrierungs-LUT in den TV. Ich weiß aber nicht ob das für alle Modelle geht.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
DAs ist mir schon klar Wolfgang, darum gings mir aber nicht sondern um flächendeckend.
Nein, dein Einwand belegt leider nur dein fehlendes oder geringes Verständnis was eigentlich wichtig ist.

Es ist schon geil dass du immer bei mir auf irgendeinen Pseudopunkt aufspringst.

Die Feststellung, dass die flächendeckenden 1000 nits als Fähigkeit relevant seien, bringt übrigens auch DArren Mostyn im oben verlinkten Video, warum er ein Fan dieses Monitors ist. Der ist ja nur Colorist im Broadcast Bereich, aber bitte sehr.

Space


Antwort von Darth Schneider:

@Wolfang
Also in der Anleitung steht, mein LG ist durchaus kalibrierbar, und mir ist schon klar das da sicher immer noch kleine Kompromisse vorhanden sind…

Aber der Preisunterschied ist doch schon enorm, für 1700€ gibt es ein 65 Zoll, mit 10 Bit, über 80O Nits also ein echtes kleines HDR Kino..;)

Mich würde es interessieren wie sich so ein kalibriertes Consumer TV Teil dann im direkten Vergleich schlagen würde zu so einem 3 oder 4000€ Profi Monitor, wenn beide an einer Deck Link Karte hängen.
Ich hab leider noch keine und natürlich auch keinen Profi Monitor..

Gibt es eigentlich so eine HDR Deck Link Karte auch extern, und günstiger ?
So das das zu einem Mac Mini/iMac passen würde ?
Gruss Boris

Space


Antwort von DKPost:

"Darth Schneider" hat geschrieben:
@Wolfang
Also in der Anleitung steht, mein LG ist durchaus kalibrierbar, und mir ist schon klar das da sicher immer noch kleine Kompromisse vorhanden sind…

Aber der Preisunterschied ist doch schon enorm, für 1700€ gibt es ein 65 Zoll, mit 10 Bit, über 80O Nits also ein echtes kleines HDR Kino..;)

Mich würde es interessieren wie sich so ein kalibriertes Consumer TV Teil dann im direkten Vergleich schlagen würde zu so einem 3 oder 4000€ Profi Monitor, wenn beide an einer Deck Link Karte hängen.
Ich hab leider noch keine und natürlich auch keinen Profi Monitor..

Gibt es eigentlich so eine HDR Deck Link Karte auch extern, und günstiger ?
So das das zu einem Mac Mini/iMac passen würde ?
Gruss Boris
Bei "Profimonitoren" bist du eher so ab 20.000€ dabei. 4.000€ wäre ein 4K Eizo.

Space


Antwort von wolfgang:

"Darth Schneider" hat geschrieben:
Aber der Preisunterschied ist doch schon enorm, für 1700€ gibt es ein 65 Zoll, mit 10 Bit, über 80O Nits also ein echtes kleines HDR Kino..;)

Mich würde es interessieren wie sich so ein kalibriertes Consumer TV Teil dann im direkten Vergleich schlagen würde zu so einem 3 oder 4000€ Profi Monitor, wenn beide an einer Deck Link Karte hängen.
Ich hab leider noch keine und natürlich auch keinen Profi Monitor..
Kann ich Dir nur teilweise beantworten. Aus Resolve heraus habe ich einen Sony 65 Zoll über die Ultrastudio 4K Mini angehängt gehabt, und das Farbgrading gerade der Mitteltöne geht ausgezeichnet. Die Spitzenluminanz regelt der halt ab.

Der Vergleich ist trotzdem schwierig, weil ich mit meinen Mitteln mir die Bilder nicht gleichzeitig nebeneinander ansehen kann. Aber wenn Du Resolve mit Reglern wie dem Tangent Ripple nutzt, ist das Farbgrading aufgrund der Fläche von so einem HDR-TV geradezu ein Genuss.

Aus dieser Erfahrung her bin ich mir halt (siehe ganz oben) im Vergleich des vorgeschlagenen OLED Monitors unsicher. Weil die abregeln, aber eben weil ich mir unsicher bin wie relevant das in der Praxis tatsächlich ist. Sprich - wie häufig hast in deinen Motiven Luminanzwerte zwischen 700 und 1000 nits nach dem Graden, und mit welchen Flächenanteilen? Gefühlt sind das vielleicht im besten Fall 10-30%, aber Ausnahmen gibt es definitiv!

Nur gradest halt das herkömmliche Weiß auch bei HDR unverändert auf 100 nits, bestenfalls noch auf 200 nits, und die Werte darüber sollten sparsam und gezielt beim Grading genutzt werden. Sonst fürchten sich einige Leutchen vor dem Erblinden! ;)
"Darth Schneider" hat geschrieben:
Gibt es eigentlich so eine HDR Deck Link Karte auch extern, und günstiger ?
So das das zu einem Mac Mini/iMac passen würde ?
Gruss Boris
Gerade beim Mac ist der Anschluss über Thunderbolt relevant. Und dafür hat Blackmagic ja das Ultrastudio 4K mini im Programm.

Kann man Karten einbauen (geht doch nicht beim Mac?), dann wäre die hier die preiswerteste Lösung für HDR.
https://www.blackmagicdesign.com/de/pro ... s/W-DLK-32

Space


Antwort von wolfgang:

DKPost hat geschrieben:
Bei "Profimonitoren" bist du eher so ab 20.000€ dabei. 4.000€ wäre ein 4K Eizo.
Wer legt das fest, dass man "Profimonitor" nur in diesem Preisrange sagen darf?

Ja klar kannst deine 10.000 bis 20.00 Euro ausgeben. Viel Spaß dabei. ;)

Space


Antwort von DKPost:

wolfgang hat geschrieben:
DKPost hat geschrieben:
Bei "Profimonitoren" bist du eher so ab 20.000€ dabei. 4.000€ wäre ein 4K Eizo.
Wer legt das fest, dass man "Profimonitor" nur in diesem Preisrange sagen darf?

Ja klar kannst deine 10.000 bis 20.00 Euro ausgeben. Viel Spaß dabei. ;)
Ich hatte den Post von Darth Schneider so verstanden, dass ihn der Unterschied zwischen Consumer und absolutem High-End interessiert. Bei einem 3.000€ - 4.000€ wird der Unterschied erwartungsgemäß nicht riesig sein.

Space



Space


Antwort von Darth Schneider:

@DK Post
20 000, unglaublich..;)),
nun gut da wird dann der Unterschied bei der Bildqualität dann sicher schon gewaltig sein..
Aber ich denke diese Preisklasse hatte der Fragesteller da oben auch nicht im Kopf.

Danke.
Von daher finde ich den Vergleich von Profi Monitoren bis 4000€ zu so einer schon echt sehr tollen LG HDR Glotze die ja dann auch schön gross sein darf, schon immer noch voll legitim..
Gruss Boris

Space


Antwort von wolfgang:

DKPost hat geschrieben:
Bei einem 3.000€ - 4.000€ wird der Unterschied erwartungsgemäß nicht riesig sein.
Die Frage ist wohl auch immer, "Unterschied zu was". Der oben vorgeschlagene ASUS ProArt OLED PA32DC hat sicher ein fantastisches Bild (sehe ich auch auf meinem ASUS OLED Laptop, der um die 500 nits schafft). Der Sony HX310 ist auch ein OLED - mit sicher einem genau so guten Bild - kann aber die 1000 nits und ist kalibrierbar.

Ganz ehrlich, für viele Bildmotive (vor allem mit einem geringen oder durchschnittlichen Anteil an Spitzlichtern) dürfte der Unterschied tatsächlich eher gering sein. Mit Einschränkungen halt.

Man bezahlt halt diese Preise der 3000-5000 Euro eher, um
a) kalibrierbare Geräte zu bekommen, die
b) auch die 1000 nits zuverlässig anzeigen.

Ganz verstehe ich die "Preisdiskussion" hier eh nicht. Viele hier (die Meisten?) filmen mit Kameras um die 3000-10000 Euro. Broadkast Kameras kosten was? Na und - regt keinen auf. Ist halt so.

DKPost hat geschrieben:
Ich hatte den Post von Darth Schneider so verstanden, dass ihn der Unterschied zwischen Consumer und absolutem High-End interessiert. Bei einem 3.000€ - 4.000€ wird der Unterschied erwartungsgemäß nicht riesig sein.
Ja dann nimm Dir doch "Referenzmonitore" wie die hier
https://www.eizo.de/coloredge/cg3146/

https://pro.sony/de_DE/products/broadca ... -bvm-hx310

und vergleiche! Gibt es ja auch zu mieten.

Natürlich werden die noch einen gewissen Unterschied zu den Consumer TVs um 1000-1500 Euro zeigen. Nur den Preis muss man sich halt auch leisten können/wollen. Egal, ob man jetzt von 4000-5000 Euro, oder von 33.000 Euro redet. Also ich verstehe Boris hier sehr gut, hier war aber die Frage in der 4000-5000 Euro Klasse.

Space


Antwort von DKPost:

wolfgang hat geschrieben:
DKPost hat geschrieben:
Bei einem 3.000€ - 4.000€ wird der Unterschied erwartungsgemäß nicht riesig sein.
Die Frage ist wohl auch immer, "Unterschied zu was". Der oben vorgeschlagene ASUS ProArt OLED PA32DC hat sicher ein fantastisches Bild (sehe ich auch auf meinem ASUS OLED Laptop, der um die 500 nits schafft). Der Sony HX310 ist auch ein OLED - mit sicher einem genau so guten Bild - kann aber die 1000 nits und ist kalibrierbar.

Ganz ehrlich, für viele Bildmotive (vor allem mit einem geringen oder durchschnittlichen Anteil an Spitzlichtern) dürfte der Unterschied tatsächlich eher gering sein. Mit Einschränkungen halt.

Man bezahlt halt diese Preise der 3000-5000 Euro eher, um
a) kalibrierbare Geräte zu bekommen, die
b) auch die 1000 nits zuverlässig anzeigen.

Ganz verstehe ich die "Preisdiskussion" hier eh nicht. Viele hier (die Meisten?) filmen mit Kameras um die 3000-10000 Euro. Broadkast Kameras kosten was? Na und - regt keinen auf. Ist halt so.

DKPost hat geschrieben:
Ich hatte den Post von Darth Schneider so verstanden, dass ihn der Unterschied zwischen Consumer und absolutem High-End interessiert. Bei einem 3.000€ - 4.000€ wird der Unterschied erwartungsgemäß nicht riesig sein.
Ja dann nimm Dir doch "Referenzmonitore" wie die hier
https://www.eizo.de/coloredge/cg3146/

https://pro.sony/de_DE/products/broadca ... -bvm-hx310

und vergleiche! Gibt es ja auch zu mieten.

Natürlich werden die noch einen gewissen Unterschied zu den Consumer TVs um 1000-1500 Euro zeigen. Nur den Preis muss man sich halt auch leisten können/wollen. Egal, ob man jetzt von 4000-5000 Euro, oder von 33.000 Euro redet. Also ich verstehe Boris hier sehr gut, hier war aber die Frage in der 4000-5000 Euro Klasse.
Ich habe nicht nach dem Vergleich gefragt.

Space


Antwort von wolfgang:

Dann sind wir schon zwei! ;)

Space


Antwort von Darth Schneider:

Vergleichen tun hier doch absolut alle.
Für den einen mag es Äpfel mit Birnen sein, für den anderen sind es bezahlbare und unbezahlbare legitime Lösungen…
Gruss Boris

Space


Antwort von Bluboy:

"Darth Schneider" hat geschrieben:
Vergleichen tun hier doch absolut alle.
Für den einen mag es Äpfel mit Birnen sein, für den anderen sind es bezahlbare und unbezahlbare legitime Lösungen…
Gruss Boris
Was ist (nicht) bezahlbar ?
33.000 Euro für einen Monitor sind bei 96 Euro die Stunde für Freiberufler ?

Space


Antwort von Darth Schneider:

@Bluboy
Für mich unbezahlbar.

Klar hast du sicher auch recht, aber nicht jeder arbeitet für diesen Preis, oder überhaupt beruflich mit Video..

Zudem musst du dann aber auch wenn doch, noch den Ganzen passenden Rest dazu rechnen.

Wohl kaum ein Profi der einen 30 000 Monitor hat, filmt mit einer 4K Pocket auf einem 300€ Stativ und schneidet auf irgend einem Mac Mini…
Mal von den Büro Räumlichkeiten abgesehen…Und so weiter…

Da kann ganz schön was zusammen kommen.
Da reichen 100€ die Stunde unter Umständen gar nicht soo weit..
Gruss Boris

Space


Antwort von SamSuffy:

Darf ich kurz in den Raum werfen, dass ich fürs HDR Grading keinen LG OLED empfehlen würde?

Nicht nur weil diese die Spitzenhelligkeit nur kurz halten und dann technikbedingt des Panel die Helligkeit herunterregelt um keinen Schaden davon zu tragen, sondern die LG OLED, trotz OLED Technik, zwar echtes schwarz bieten können, doch in dunklen Bereichen diese einfach zusammenstampfen! Neudeutsch "crushed" das Schwarz bei den LG OLEDS gewaltig! Da würdet ihr euer Grading unnötig in den Schatten anheben. Da macht es keinen Unterschied ob das von einer DeckLink kommt, das ist nunmal die Einstellung des Bildprozessors des Panels wenn dies von LG verbaut wird.

Ebenfalls möchte ich anmerken, dass man sehr wohl mit einem normalen Blu-Ray brenner auch 4k HDR Material auf normale Blu-Rays brennen kann. Kommt ja nur auf das Authoring an, nicht auf das Medium. Könnte das auch als ISO auf eine Platte legen und mit einem virtuellen Laufwerk mounten...

Space


Antwort von andieymi:

SamSuffy hat geschrieben:
Darf ich kurz in den Raum werfen, dass ich fürs HDR Grading keinen LG OLED empfehlen würde?
Rein Interessehalber (keine Kritik) - was würdest Du empfehlen, wenn Du man von 30K HDR-Referenzmonitoren absieht (Trimaster, etc.)?

Generell gilt LG OLED trotzdem als die Budget-Wahl, wenn auch mit den Kompromissen, die Du ansprichst. Ich würde hinzufügen, dass man halt auch die potentiell lebensdauerschädigenden Workflows einbeziehen muss, d.h. über Servicemenüs sämtliche OLED-Schutz und Dimmingprozesse abstellen.

Space



Space


Antwort von wolfgang:

Das sind gute Punkte. Danke dafür, denn ich bin etwa bewusst nicht den Weg gegangen, consumer OLEDs umfangreich zu nutzen. Kurze Tests mit einem Sony OLED waren zwar mE ok, aber ich weiß natürlich nicht ob die nicht auch ähnliche Eigenheiten haben.

Blu-ray mit HDR Material zu authoren - na kommt wohl auf das verwendete Werkzeug an, ob das geht oder als nicht compliant erkannt wird. Mit welchem Authoring Tool hast Du da diesbezüglich positive Erfahrungen?

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Ich kann mir allerdings keine Szene vorstellen, die flächendeckende 1000 nits hergeben würde.
Atombombe

Space


Antwort von SamSuffy:

andieymi hat geschrieben:
Rein Interessehalber (keine Kritik) - was würdest Du empfehlen, wenn Du man von 30K HDR-Referenzmonitoren absieht (Trimaster, etc.)?

Generell gilt LG OLED trotzdem als die Budget-Wahl, wenn auch mit den Kompromissen, die Du ansprichst. Ich würde hinzufügen, dass man halt auch die potentiell lebensdauerschädigenden Workflows einbeziehen muss, d.h. über Servicemenüs sämtliche OLED-Schutz und Dimmingprozesse abstellen.
Wie wäre es denn mit dem hier: Samsung S95B QD-OLED

Hat 100% P3 Farbraumabdeckung (!!) ( und um die 90% rec2020 !) und ist deutlich besser was den sog. "black crush" angeht.

Zudem Sptzenhelligkeiten die für einen OLED sher beachtlich sind:
Peak 2% Window
1,028 cd/m²
Peak 10% Window
1,036 cd/m²
Peak 25% Window
592 cd/m²
Peak 50% Window
294 cd/m²
Peak 100% Window
213 cd/m²
Sustained 2% Window
1,002 cd/m²
Sustained 10% Window
997 cd/m²
Sustained 25% Window
575 cd/m²
Sustained 50% Window
290 cd/m²
Sustained 100% Window
209 cd/m²

Diese Helligkeiten werden bei diesem Modell auch (länger?) gehalten.
wolfgang hat geschrieben:
Das sind gute Punkte. Danke dafür, denn ich bin etwa bewusst nicht den Weg gegangen, consumer OLEDs umfangreich zu nutzen. Kurze Tests mit einem Sony OLED waren zwar mE ok, aber ich weiß natürlich nicht ob die nicht auch ähnliche Eigenheiten haben.

Blu-ray mit HDR Material zu authoren - na kommt wohl auf das verwendete Werkzeug an, ob das geht oder als nicht compliant erkannt wird. Mit welchem Authoring Tool hast Du da diesbezüglich positive Erfahrungen?
Benutze da die Nightly vom TSMuxer.
Bekomme da zwar Dolby Vision nicht durch, HDR10 kommt aber mit. Für mich persönlich bisher ok, da mein Player (Xbox) eh nur HDR10 kann ;)
Der Programmierer arbeitet aber an einem Fix für Dolby Vision soweit ich das mitbekommen habe.

Space


Antwort von wolfgang:

SamSuffy hat geschrieben:
[
Zudem Sptzenhelligkeiten die für einen OLED sher beachtlich sind:
Peak 2% Window
1,028 cd/m²
Peak 10% Window
1,036 cd/m²
Peak 25% Window
592 cd/m²
Peak 50% Window
294 cd/m²
Peak 100% Window
213 cd/m²
Und hier zeigt sich halt wieder einer der Nachteile der OLEDs: ist ein Viertel der Bildfläche mit knapp 600 nits belegt, ist bereits das Ende der Fahnenstange erreicht. Da ist man dann leider noch immer recht weit weg vom üblichen Wunsch, bei 1000 nits graden zu können.

Der bereits genannte PA32 UCG ist zwar deutlich teurer, aber der kann halt - als Nicht-OLED - die 1000 nits auf 100% der Bildfläche dauerhaft halten. Selbst wenn man das eigentlich nie braucht, aber den Kopf braucht man sich damit nicht zu zerbrechen, ob das Sichtgerät bereits abregelt oder ob das noch nicht der Fall ist.

In einer idealen Welt hätte man halt beide in der Grading Suite. Alles nur eine Preisfrage.

Space


Antwort von wolfgang:

SamSuffy hat geschrieben:
Benutze da die Nightly vom TSMuxer.
Bekomme da zwar Dolby Vision nicht durch, HDR10 kommt aber mit. Für mich persönlich bisher ok, da mein Player (Xbox) eh nur HDR10 kann ;)
Der Programmierer arbeitet aber an einem Fix für Dolby Vision soweit ich das mitbekommen habe.
Danke für den Hinweis. Kenn ich bisher noch nicht, klingt aber interessant.

Space


Antwort von andieymi:

SamSuffy hat geschrieben:
Zudem Sptzenhelligkeiten die für einen OLED sher beachtlich sind:
Peak 2% Window
1,028 cd/m²
wolfgang hat geschrieben:
Und hier zeigt sich halt wieder einer der Nachteile der OLEDs: ist ein Viertel der Bildfläche mit knapp 600 nits belegt, ist bereits das Ende der Fahnenstange erreicht. Da ist man dann leider noch immer recht weit weg vom üblichen Wunsch, bei 1000 nits graden zu können.

Der bereits genannte PA32 UCG ist zwar deutlich teurer, aber der kann halt - als Nicht-OLED - die 1000 nits auf 100% der Bildfläche dauerhaft halten. Selbst wenn man das eigentlich nie braucht, aber den Kopf braucht man sich damit nicht zu zerbrechen, ob das Sichtgerät bereits abregelt oder ob das noch nicht der Fall ist.

In einer idealen Welt hätte man halt beide in der Grading Suite. Alles nur eine Preisfrage.
Ich sehe ehrlich gesagt kaum den Nachteil - die 1000 Nit möchte doch ohnehin niemand auf 100% der Bildfläche haben - auch nicht zum Graden. Es könnten wohl mehr als 2 sein, aber <10%?

Space


Antwort von MK:

Das in allen Aspekten perfekte Gerät gibt es nicht, aber hier kann man die von Ingenieuren unter Laborbedingungen ermittelten Einzeltestergebnisse in die Übersichtstabellen zusätzlich einblenden (rechts Customize Table/Add Column) und für sich selbst gewichten was einem am wichtigsten ist:

https://www.rtings.com/monitor/reviews/ ... conclusion

https://www.rtings.com/monitor/reviews/ ... conclusion

https://www.rtings.com/tv/reviews/best/ ... conclusion

Space


Antwort von roki100:

Also gradet jemand HDR (1000nits) zB auf dem neuen MacBook Pro? Wenn ja, wie macht ihr das, etwa mit Sonnenbrille!?
Das kann man ja garnicht aushalten!

Space


Antwort von pillepalle:

roki100 hat geschrieben:
Also gradet jemand HDR (1000nits) zB auf dem neuen MacBook Pro? Wenn ja, wie macht ihr das, etwa mit Sonnenbrille!?
Das kann man ja garnicht aushalten!
HDR sieht gar nicht schlecht aus. Ist nicht nur der Kontrast sondern auch der größere Farbraum und die leuchtenderen Farben. Nur macht das kaum einer, weil es dafür Online kein Publikum gibt. Erstmal unterstützen die Formate nicht alle Plattformen und dann gibt es kaum Nutzer die echte HDR Monitore haben und wirklich in den Genuß kommen können. Wer ein paar Leute mit dem Content erreichen möchte, der gradet nicht in HDR. Das gibt's ja schon lange, setzt sich bisher aber nicht wirklich durch. Auch weil die nötige Hardware dafür eben noch teuer ist. Zumindest die die wirklich gut ist. Ich habe bei meinem Eizo auch Gammakurven für HDR HLG und PQ und kann damit, trotz der nur 400 NITs, prinzipiell auch in HDR graden. Aber es ist eben nur eine im Verhältnis richtig umgesetzte Darstellung. Auf einem 1000 Nits Monitor, wirkt das trotzdem nochmal besser.

Es gibt den Chinesen (Links TV) der öfter mal HDR Videos macht, aber auch der beschwert sich über das gleiche Problem. In der Z8 gibt's z.B. jetzt die Möglichkeit direkt HLG HEIF Fotos aufzunehmen (können einige Sony Kameras auch). Das kann man als Filmer z.B. für Timelapseaufnahmen nutzen, wenn man die Fotos mit gedrehtem HLG Content mischen möchte, aber die wenigsten werden davon wirklich Gebrauch machen, weil HDR eben immer noch eine totale Nische ist. Ich rede jetzt nicht von dem Consumer-Kram wo HDR (genauso wie 4K oder 8K) überall drauf gedruckt wird, nur um die Geräte besser zu verkaufen.

VG

Space



Space


Antwort von wolfgang:

roki100 hat geschrieben:
Also gradet jemand HDR (1000nits) zB auf dem neuen MacBook Pro? Wenn ja, wie macht ihr das, etwa mit Sonnenbrille!?
Das kann man ja garnicht aushalten!
Wenn du so etwas schreibst, dann zeigst du lediglich, dass du von der Praxis keine Ahnung hast. Stell dir nämlich vor, ich grade sogar mit einem Monitor der 1600 nits kann. Und bin weder erblindet, noch sitze ich mit der Sonnenbrille vor dem Gerät.

Denn Dein Irrtum ist zu glauben, dass - nur weil ein Gerät 1000 nits kann - diese auch ständig als Spitzenhelligkeit gezeigt werden. Werden sie aber nicht. Sondern es sind eben meist nur geringe Bildanteile, die in den Bereich der Spitzenhelligkeit gehen. Alles, was du erlebst, ist ein Bild mit deutlich schöneren Farben - weil die Farbräume umfangreicher sind. Und mit einer angemessenen Helligkeit, die wir ständig "in der freien Wildbahn" erleben. Denn unserer Umgebung an einem Sonnentag ist eben nicht auf 100 oder 200 nits begrenzt.

Space


Antwort von wolfgang:

pillepalle hat geschrieben:
Nur macht das kaum einer, weil es dafür Online kein Publikum gibt. Erstmal unterstützen die Formate nicht alle Plattformen und dann gibt es kaum Nutzer die echte HDR Monitore haben und wirklich in den Genuß kommen können. Wer ein paar Leute mit dem Content erreichen möchte, der gradet nicht in HDR.
Na dann machst halt auch eine Version, in der du zu SDR ausgibst. Wo ist das Problem?
pillepalle hat geschrieben:
Das gibt's ja schon lange, setzt sich bisher aber nicht wirklich durch. Auch weil die nötige Hardware dafür eben noch teuer ist. Zumindest die die wirklich gut ist. Ich habe bei meinem Eizo auch Gammakurven für HDR HLG und PQ und kann damit, trotz der nur 400 NITs, prinzipiell auch in HDR graden. Aber es ist eben nur eine im Verhältnis richtig umgesetzte Darstellung. Auf einem 1000 Nits Monitor, wirkt das trotzdem nochmal besser.
Also jeder aktuelle OLED TV kann HDR. Und wer sich dessen bewußt ist, hat meist ein Netflix-Abo, weil eben dort bereits Unmengen an HDR Sendungen verfügbar sind.

Ich kenne aber leider keine Zahlen aus der Marktforschung, oder weißt du welche Marktpenetration wir heute bei HDR-fähigen TVs im Heimbereich derzeit erreicht haben? Wobei wir genau wissen, dass jeder Technologiewechsel zeitlich ein Jahrzehnt dauert. Denn so schnell werfen die Leute ihre alten TVs nicht weg, wenn die noch tadellos funktionieren.

Aber du hast recht, das erforderliche Equipment ist für uns als Content-Creator teils noch recht teuer. Vor allem im Monitorbereich, wo die Preise eher langsam fallen - und vor allem dann, wenn man nicht bei Geräten bleiben will, die mit 400 nits daher kommen. Für das Graden zu HDR braucht man eben einen Monitor, der stabil seine 1000 nits kann und kalibrierbar sein sollte. Im Idealfall die 1000 nits über 100% der Bildfläche. So wie der Asus ProArt PA32 UCG, aber der kostet über 5000 Euro. Preiswertere Geräte gibt es ja auch, aber die können meist die 1000 nits nicht über 100% der Bildfläche - oder sind nicht kalibrierbar. Oder beides.

Space


Antwort von roki100:

@wolfgang
ja, ich bin HDR Anfänger.
Ich habe versucht auf 1000nits zu graden, nach ca. 10min konnte ich das nicht mehr aushalten. Geschweige denn, bei MacBook Pro, die 1600nits Spitzenheligkeit(!) erreichen... Überhaupt nicht gesund für die Augen!

Space


Antwort von wolfgang:

Das ist schon mal deshalb schwer nachvollziehbar, da du bei normalen Bildmotiven gar keine 1000 nits durchgängig erreichst. Sonst würdest du etwa eine Landschaft in hellem Sonnenschein auch nicht aushalten.

Space


Antwort von roki100:

Ja, zB Landschaft/Garten/Blumen und Sonnenschein. Ich denke, es hat was damit zu tun:
Raum/Wohnzimmer dunkel, FCP und MacBook Pro:
Das HDR Bild im (FCP) Viewer ist HDR, also sehr hell (Garten/Blumen), während der Rest (also Timeline usw.) "normal" ist, man schaut da hin, ändert was in settings, color wheels...dann schaut man im Viewer usw. also hin und her. DAS konnte ich persönlich max 10min aushalten.

Das zB (ich weiß, auf dem Screenschot sieht man HDR nicht, das weiße/helle ist matschig usw), ist im Viewer sehr hell (als würde man direkt ins lichtstarke LED Taschenlampe schauen oÄ):
Bildschirmfoto 2023-05-24 um 16.09.21.png

Space


Antwort von wolfgang:

Also wenn ich dich richtig verstehe, dann ist für dich der Punkt mehr, dass die normale GUI eher in der reduzierten Helligkeit ist (sagen wir mal SDR), und die Vorschau dann in einigen Teilen deutlich heller ist. Etwa in deinem Beispiel die weißen Blumen.

Heißt wohl, dass die Adaption der Iris unserer Augen beim Hin- und Herschauen nicht so schnell geht. Ok, dann haben wir hier wohl verschieden empfindsame Augen, denn mir ist das noch nicht sonderlich störend aufgefallen. Und ich nutze ja den Asus Proart PA32 UCG der die 1600 nits kann, und 1000 nits vollständig über 100% der Fläche darstellen kann. Beim Kalibrierprozess, wo die gesamte Fläche auf die Spitzenhelligkeit gefahren worden ist, ist mir im dunklen Raum schon auch aufgefallen, dass das sehr hell ist. Aber wie gesagt für mich kein Thema, weil die volle Fläche des 32-Zöllers habe ich sonst nie bei 1600 nits.

Mir fällt dazu eigentlich nur ein, dass es ja du als Anwender entscheidest, wie hell du dein Material gradest. Man soll ja bei diffusem Weiß eher bei den 100-200 nits bleiben, und wo du die Spitzenhelligkeit hinlegst entscheidest nur du. Entgegen vielen Meinungen könntest ja auch nicht unbedingt im Finsteren HDR graden, wenn du das als zu schmerzhaft empfindest. Oder du nutzt etwa einen OLED, der gar nicht auf die 1000 nits hochgeht (aber dann wäre ein dunkler Raum schon wieder wesentlich, weil da der Schwarzpunkt wichtig ist). Oder du gradest halt gar nicht zu HDR. Deine Wahl.

Space


Antwort von roki100:

wolfgang hat geschrieben:
Heißt wohl, dass die Adaption der Iris unserer Augen beim Hin- und Herschauen nicht so schnell geht. Ok, dann haben wir hier wohl verschieden empfindsame Augen, denn mir ist das noch nicht sonderlich störend aufgefallen.
Es gibt sogar Studien darüber, aber sie kamen zu dem Schluss, dass das Blaue (Kalte) in der LED die Augen schädigen.... Also wie sich das auf menschllich Auge auswirkt, wenn man zB nach tagesablauf (das natürliche Tageslicht) dann zB Abends LED Fernsehen schaut oÄ (bezogen auf dieses hin und her).
Das Ergebnis war, dass es schädlich ist, doch andere Studie widersprachen....dennoch hat zB Apple "Night Shift" (also Bild ändert sich von Blaue ins Wärme) eingeführt mit der Begründung "um die schalfqualität des Benutzer zu verbessern....".

Aber Du hast recht, ich bestimme die helligkeit, es muss also nicht unbedingt HDR über +500nits sein, dann reicht wohl SDR.

Space


Antwort von MK:

Bei vielen HDR-Glotzen im mittleren Preisbereich ist HDR doch eh nur als Darstellungsformat vorhanden und wird per Tone Mapping in Bereiche runtergeschoben die mit Panel und Hintergrundbeleuchtung darstellbar sind... zwischen so einer Glotze und einer die wirklich HDR 1000 schafft liegen Welten.

Space


Antwort von roki100:

MK hat geschrieben:
Bei vielen HDR-Glotzen im mittleren Preisbereich ist HDR doch eh nur als Darstellungsformat vorhanden und wird per Tone Mapping in Bereiche runtergeschoben die mit Panel und Hintergrundbeleuchtung darstellbar sind... zwischen so einer Glotze und einer die wirklich HDR 1000 schafft liegen Welten.
Stimmt. Aber ich finde die Disskusionen darüber irgendwie durcheinander, der eine sagt, das eine hätte nichts mit dem anderem zu tun zB mehr nits hätte nichts mit HDR zu tun, der andere sagt zB "wenn die Kamera auf eine nächtliche Szene bei Vollmond blickt, dann strahlt der Mond hell und trotzdem bleiben die dunklen Bereiche dunkel, und gut sichtbar" (und so sieht es auch aus auf dem MB Bildschirm) uvm. Ein Beispiel: https://www.macuser.de/threads/macbook- ... rt.914165/

Nicht destotrotzt sieht HDR schon gut aus (einfach alles so realer/natürlicher etc). Jedoch nur für diejenigen, die keinen Fake-HDR-Bildschirm haben? Man gradet HDR und die Zuschauer sehen statt echtem HDR nur unechtes-HDR. Da ist man bei SDR auf der sicheren Seite, denn es gibt kein Fake-SDR^^

Space



Space


Antwort von roki100:

@wolfgang
ich habe es jetzt (also Tagsüber) nochmal versucht und es schein tatsächlich daran gelegen zu haben: Raum/Wohnzimmer dunkel, FCP und MacBook Pro:
Das HDR Bild im (FCP) Viewer ist HDR, also sehr hell (Garten/Blumen), während der Rest (also Timeline usw.) "normal" ist, man schaut da hin, ändert was in settings, color wheels...dann schaut man im Viewer usw. also hin und her. DAS konnte ich persönlich max 10min aushalten.
siehe Uhrzeit: viewtopic.php?f=5&t=157781&p=1181535#p1181403

Space


Antwort von wolfgang:

roki100 hat geschrieben:
Es gibt sogar Studien darüber, aber sie kamen zu dem Schluss, dass das Blaue (Kalte) in der LED die Augen schädigen.... Also wie sich das auf menschllich Auge auswirkt, wenn man zB nach tagesablauf (das natürliche Tageslicht) dann zB Abends LED Fernsehen schaut oÄ (bezogen auf dieses hin und her).
Das Ergebnis war, dass es schädlich ist, doch andere Studie widersprachen....dennoch hat zB Apple "Night Shift" (also Bild ändert sich von Blaue ins Wärme) eingeführt mit der Begründung "um die schalfqualität des Benutzer zu verbessern....".

Aber Du hast recht, ich bestimme die helligkeit, es muss also nicht unbedingt HDR über +500nits sein, dann reicht wohl SDR.
Deswegen habe unserer Geräte Nachtschaltungen, um das Blau zu reduzieren.

Und natürlich, es ist ja nur deine Entscheidung ob es SDR oder HDR sein soll.

Space


Antwort von wolfgang:

MK hat geschrieben:
Bei vielen HDR-Glotzen im mittleren Preisbereich ist HDR doch eh nur als Darstellungsformat vorhanden und wird per Tone Mapping in Bereiche runtergeschoben die mit Panel und Hintergrundbeleuchtung darstellbar sind... zwischen so einer Glotze und einer die wirklich HDR 1000 schafft liegen Welten.
So ist es. Darum kosten Geräte, die tatsächlich die 1000 nits können, und das noch mit 100% der Flächen, noch immer über 4000 oder 5000 Euro.

Wobei es in dem Bereich noch nicht mal eine enorme Auswahl gibt - bei mir ist es halt der Asus ProArt Monitor PA32 UCG-K geworden, alternativ gibt es den Apple Pro Display - und dann viele Profigeräte. Da ich zunächst ein defektes Gerät erwischt hatte, die Kalibrierung nicht ging, war mein Vertrauen in Asus erschüttert, und ich habe mich mit MLH nach einer Alternative umgesehen - aber nicht sonderlich viel gefunden. Einen Dell eventuell, aber nichts mit 1000 nits flächendeckend. Daher bin ich bei diesem Asus geblieben, was aufgrund dessen technischen Eigenschaften die richtige Entwscheidung war.

Wobei man halt nie die 100% mit 1000 nits hat - denn wer filmt schon eine strahlend helle Fläche ab? Darum kommt man mit Geräten notfalls durch, die die 1000 nits halt nicht flächendeckend können.

Space


Antwort von wolfgang:

roki100 hat geschrieben:
@wolfgang
ich habe es jetzt (also Tagsüber) nochmal versucht und es schein tatsächlich daran gelegen zu haben: Raum/Wohnzimmer dunkel, FCP und MacBook Pro:
Das HDR Bild im (FCP) Viewer ist HDR, also sehr hell (Garten/Blumen), während der Rest (also Timeline usw.) "normal" ist, man schaut da hin, ändert was in settings, color wheels...dann schaut man im Viewer usw. also hin und her. DAS konnte ich persönlich max 10min aushalten.
siehe Uhrzeit: viewtopic.php?f=5&t=157781&p=1181535#p1181403
Gut, um 3:34 ist es natürlich heftig hart überhaupt noch am Bildschirm zu arbeiten. Da würde ich es halt mal zu einer "menschlicheren" Uhrzeit probieren, und an deiner Stelle dann mal schauen wie es dir dann mit den Augen geht. Wir hängen vermutlich eh alle viel zu viel am Schirm herum.

Space


Antwort von Frank Glencairn:

Für gewöhnlich sollten in einer Editing/Color Umgebung eigentlich immer die selben Lichtverhältnisse herrschen,
völlig unabhängig von der Uhrzeit.

Space


Antwort von roki100:

"Frank Glencairn" hat geschrieben:
Für gewöhnlich sollten in einer Editing/Color Umgebung eigentlich immer die selben Lichtverhältnisse herrschen,
völlig unabhängig von der Uhrzeit.
Anders als in DaVinci zeigt der FinalCut -Viewer (so zumindest bei MacBook Pro M1) die nits, die genutzt werden. Also der Rest (in GUI) ist normal, während der FCP-Viewer zB 1000nits leuchtet.

Space


Antwort von Darth Schneider:

Und was hat das jetzt mit den Lichtverhältnissen vom Raum zu tun (die immer genau gleich sein sollten) wo das MacBook steht und du die Filme bearbeitest ?
Gruss Boris

Space


Antwort von roki100:

Fotografiert, rechts davinci, links fcp (das ist sehr hell)
Bildschirmfoto 2023-05-25 um 21.18.42.png Vll. versteht man mich so besser was ich eigentlich mit Sonnenbrille meinte. Dies ist auch in DaVinci möglich, wenn man unter Project Settings > Color Managment > Timeline Color Space z.B. auf P3-D6x oder Rec.2020 umstellt. Dann wird im DR-Viewer auch alles heller.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen //


Sony HDR FX1 gegen HDR FX 1000 gegen HDR AX 2000
DJI Kameraplatte in Peak Design Capture Clip V3
Neuer variabler ND-Filter: Schneider-Kreuznach True-Match Vari-ND MKII
Building a TRUE 4k home cinema projector
Philips 558M1RY: Riesiger 55" 4K HDR Monitor mit DisplayHDR 1000 und 95% DCI-P3
Neu: GoPro HERO12 Black mit HDR / GP-Log und längerer Akkulaufzeit
Gigabyte AERO 17 HDR - Flaches 17-Zoll Notebook mit 4K-HDR-Display
YT HDR ohne HDR Monitor?
HDR Referenzscheibe? HDR im DIY?
1000 euro budget - was kaufen für den anfang für bmpcc?
Neuer EVF und 1000 Nits Monitor von Kinefinety
Panasonic DMC-FZ 1000 Schärfe über den gesamten Zoombereich?
AOC AGON AG353UCG: 35" Monitor mit DisplayHDR 1000 und 200 Hz
Kamera für Livestream bis 1000€/1500€
Tonqualität vs. Preis - 5 Mikros im DSLM-Setup Vergleich (Teil 2, 500 bis 1000 Euro)
Kompletter PC für Davinci Resolve 6k Braw 1000€
Philips Momentum 559M1RYV: 55" großer 4K-Monitor mit HDMI 2.1 und DisplayHDR 1000
Empfehlungen Videokamera für Musikvideoproduktionen bis ca. 1000€




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash