Wollte mal schauen ob es Sinn mach meine Glotze als Resolve Moni an meine Intensity zu hängen.
Dabei ist mir dann gerade aufgefallen, das er laut NVidia in der Lage ist bei 24p/24Hz 12Bit Farbtiefe zu liefern.
Kann das sein, bzw bringt mir das was, denn mein Schnittmoni hat ja gerade mal 10Bit?
Wenn der das wirklich liefert, wäre der doch perfekt, oder kann die Intensity 4k dies widerum garnich?
Danke! :-)
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
ich gehe davon aus, dass dein tv es entgegennehmen kann (wie die fieldmonitore mit fhd-panel 4k), aber ob das panel das dann ausgibt halte ich für sehr fragwürdig.
srone hat geschrieben: ↑So 25 Okt, 2020 10:00
einem fieldmonitor mit 1920x1080 panel kannst du auch ein 4k signal vorsetzen und er zeigt es, aber eben nur in fhd.
dein tv hat ein 8 oder 10bit panel nimmt aber eben auch 12bit entgegen, anzeigen tut er dann das was er kann.
lg
srone
Häh, 4K?
Wer spricht von 4K?
Bit ist hier das Thema.
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
Also ich habe ihn gerade über die Intensity in 24p angesteuert und siehe da, das Bild ist ein ganz anderes als via Geforce und zeigt interessanterweise in hellen Partien mehr Zeichnung als mein dezidierter 10Bit Grafik Moni.
Ups!
Aber wer weiß, vielleicht ist mein 10Bit Moni auch einfach nur zu kontrastreich eingestellt.
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
srone hat geschrieben: ↑So 25 Okt, 2020 10:00
einem fieldmonitor mit 1920x1080 panel kannst du auch ein 4k signal vorsetzen und er zeigt es, aber eben nur in fhd.
dein tv hat ein 8 oder 10bit panel nimmt aber eben auch 12bit entgegen, anzeigen tut er dann das was er kann.
Aha, warum ist das dann nicht bei jedem PC Moni so?
Es geht doch nicht was er rein bekommen könnte, sondern was er kann.
Die Grafikkarten Einstellung basiert doch darauf was die Karte dem Monitor reinreichen kann und nicht umgekehrt.
Sonst stünde dort ja bei jedem Billigmoni bis 12Bit, ist aber nicht so, sondern nur bis 8.
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
Zuletzt geändert von klusterdegenerierung am So 25 Okt, 2020 10:53, insgesamt 1-mal geändert.
Über die Grafikkarte wird fast immer ein „besseres“ Bild angezeigt als über eine Videokarte, da das System hier massive Korrekturen vornimmt.
In macOS z.B. wird jeder Gradient „glatt gebügelt“, egal ob 8, 10 oder 12 bit. Nur via Videokarte sieht man das „wahre“ Bild.
Mit dem bloßen Auge kann man die Farbtiefe nicht sehen, es sei denn, man hat ein spezielles Testbild und zählt die Farbabstufungen. Und das funktioniert auch nur, wenn man beide Testbilder nebeneinander hat.
Wenn du nun deinen TV und den Vorschaumonitor vergleichen willst, schließ sie an die Videokarte an, nimm ein Graustufentestbild und schau, welcher Monitor mehr Stufen darstellen kann.
Es ging mir ja nur darum zu eruieren ob mein TV als Referenz geeignet ist und dafür sollte er ja zumindest 10Bit können, sonst wäre es ja witzlos und ich könnte ihn nach wie vor weiter als clean feed via Geforce betreiben.
Wenn er nun aber in der Lage ist bis 12Bit zu gehen, wäre er doch eine gute Option für die Intensity.
Zumindest bräuchte ich dann nicht immer meinen 10Bit Schnittmoni umschwitchen, womit ich für die Zeit des betrachtens diesen nicht mehr zum schneiden verwenden kann, da böte sich der Pana mit seinen schaltbaren Eingängen prima an.
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
Ich glaube auch nicht das dein TV 12Bit anzeigen kann.
Wüsste aber gerade auch gar nicht wie sich das Bildlich auswirken würden. Kannst ja mal einen krassen Verlauf machen und schauen ob du Banding bekommst.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.