Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // Kann das sein - TV mit 12Bit?



Frage von klusterdegenerierung:


Wollte mal schauen ob es Sinn mach meine Glotze als Resolve Moni an meine Intensity zu hängen.
Dabei ist mir dann gerade aufgefallen, das er laut NVidia in der Lage ist bei 24p/24Hz 12Bit Farbtiefe zu liefern.

Kann das sein, bzw bringt mir das was, denn mein Schnittmoni hat ja gerade mal 10Bit?
Wenn der das wirklich liefert, wäre der doch perfekt, oder kann die Intensity 4k dies widerum garnich?

Danke! :-)

Space


Antwort von srone:

ich gehe davon aus, dass dein tv es entgegennehmen kann (wie die fieldmonitore mit fhd-panel 4k), aber ob das panel das dann ausgibt halte ich für sehr fragwürdig.

lg

srone

Space


Antwort von klusterdegenerierung:

Häh?

Space


Antwort von Darth Schneider:

Kluster, du hast den ersten 12Bit RedRaw Tv erfunden :D
Gruss Boris

Space


Antwort von srone:

einem fieldmonitor mit 1920x1080 panel kannst du auch ein 4k signal vorsetzen und er zeigt es, aber eben nur in fhd.

dein tv hat ein 8 oder 10bit panel nimmt aber eben auch 12bit entgegen, anzeigen tut er dann das was er kann.

lg

srone

Space


Antwort von ruessel:

Nix besonderes, 12-Bit-Breitbild-Displays gibt es schon für 83,99 EUR
LCD-Bildschirm 12-Bit-Breitbild-Display

https://www.amazon.de/LCD-Bildschirm-12 ... B081K5BNN2

Space


Antwort von klusterdegenerierung:

srone hat geschrieben:
einem fieldmonitor mit 1920x1080 panel kannst du auch ein 4k signal vorsetzen und er zeigt es, aber eben nur in fhd.

dein tv hat ein 8 oder 10bit panel nimmt aber eben auch 12bit entgegen, anzeigen tut er dann das was er kann.

lg

srone
Häh, 4K?
Wer spricht von 4K?

Bit ist hier das Thema.

Space


Antwort von klusterdegenerierung:

Also ich habe ihn gerade über die Intensity in 24p angesteuert und siehe da, das Bild ist ein ganz anderes als via Geforce und zeigt interessanterweise in hellen Partien mehr Zeichnung als mein dezidierter 10Bit Grafik Moni.

Ups!
Aber wer weiß, vielleicht ist mein 10Bit Moni auch einfach nur zu kontrastreich eingestellt.

Space


Antwort von srone:

klusterdegenerierung hat geschrieben:
srone hat geschrieben:
einem fieldmonitor mit 1920x1080 panel kannst du auch ein 4k signal vorsetzen und er zeigt es, aber eben nur in fhd.

dein tv hat ein 8 oder 10bit panel nimmt aber eben auch 12bit entgegen, anzeigen tut er dann das was er kann.

lg

srone
Häh, 4K?
Wer spricht von 4K?

Bit ist hier das Thema.
das war ein vergleich um es zu erläutern...;-)

lg

srone

Space



Space


Antwort von klusterdegenerierung:

Aha, warum ist das dann nicht bei jedem PC Moni so?
Es geht doch nicht was er rein bekommen könnte, sondern was er kann.

Die Grafikkarten Einstellung basiert doch darauf was die Karte dem Monitor reinreichen kann und nicht umgekehrt.
Sonst stünde dort ja bei jedem Billigmoni bis 12Bit, ist aber nicht so, sondern nur bis 8.

Space


Antwort von Sammy D:

Über die Grafikkarte wird fast immer ein „besseres“ Bild angezeigt als über eine Videokarte, da das System hier massive Korrekturen vornimmt.

In macOS z.B. wird jeder Gradient „glatt gebügelt“, egal ob 8, 10 oder 12 bit. Nur via Videokarte sieht man das „wahre“ Bild.

Mit dem bloßen Auge kann man die Farbtiefe nicht sehen, es sei denn, man hat ein spezielles Testbild und zählt die Farbabstufungen. Und das funktioniert auch nur, wenn man beide Testbilder nebeneinander hat.

Wenn du nun deinen TV und den Vorschaumonitor vergleichen willst, schließ sie an die Videokarte an, nimm ein Graustufentestbild und schau, welcher Monitor mehr Stufen darstellen kann.

Die Intensity 4K kann max. 10bit.

Space


Antwort von klusterdegenerierung:

Es ging mir ja nur darum zu eruieren ob mein TV als Referenz geeignet ist und dafür sollte er ja zumindest 10Bit können, sonst wäre es ja witzlos und ich könnte ihn nach wie vor weiter als clean feed via Geforce betreiben.

Wenn er nun aber in der Lage ist bis 12Bit zu gehen, wäre er doch eine gute Option für die Intensity.
Zumindest bräuchte ich dann nicht immer meinen 10Bit Schnittmoni umschwitchen, womit ich für die Zeit des betrachtens diesen nicht mehr zum schneiden verwenden kann, da böte sich der Pana mit seinen schaltbaren Eingängen prima an.

Space


Antwort von lensoperator:

Ich glaube auch nicht das dein TV 12Bit anzeigen kann.

Wüsste aber gerade auch gar nicht wie sich das Bildlich auswirken würden. Kannst ja mal einen krassen Verlauf machen und schauen ob du Banding bekommst.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen //


SO kann ein Tourismusvideo auch sein...
Kann es sein, dass viele komplett Licht-"Theorien" ignorieren?
Alfred Hitchcock – so entstand sein geniales Bühnenbild für "Das Fenster zum Hof"
Mini DV Bänder mit 12bit /16bit Audio capturen
Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
Nimmt "Canon HV20" 12bit Video auf?
Sigma entwickelt sein erstes Cine-Objektiv mit Autofokus
Vivo X50 Pro Smartphone: neue "Gimbal"-Bildstabilisierung soll besser sein als OIS
Simon und sein Schlepper: 3D-Reportage um einen historischen Traktor
Neuer RC 2 Pro Controller für DJI Mavic 4 Pro - was werden die Upgrades sein?
Kann das jemand für mich testen?
Kann man das Smartrendering von UHD bei Resolve schneller machen?
Kann die HDC-SD707 auch mit 256-GB-Karten arbeiten?
Updates da: Canon R5 kann jetzt 8K ProRes RAW mit dem Ninja V+ aufzeichnen
Wie kann ich anamorphe Objektiv Sirui 50 mm mit Magix Video Pro X entzerren und in 21:9 rendern?
Kann man mit MacBooks Videos bearbeiten?
mit welchem externen Touch- Monitor kann ich die R5 C bedienen?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash