Logo Logo
/// 

Kein 10-bit-Color OS X



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von Sammy D:


Guten Tag,

ich habe einen LG31MU97z und einen Eizo CS2420, an meinem nMP, die eigentlich 10 bit Color ausgeben sollten, tun sie aber nur teilweise. Der LG laeuft ueber Thunderbolt, der Eizo ueber HDMIHDMI im Glossar erklärt oder DisplayPort.

Ich habe hier ein Schwarz-Weiss-Gradient, der bei 10 bit eigentlich balkenfrei dargestellt werden sollte, sieht aber genauso aus wie das selbe Bild auf einem Mac Mini mit einem ACD.

"Vorschau" stellt den Gradienten korrekt dar, Photos hingegen nur mit Balken, genauso DaVinci und FCPX.

Anmerkung: ein weiterer Bildschirm (Apple Thunderbolt Display) stellt den Gradienten bei "Vorschau" ebenfalls korrekt dar. Ist das Display nicht ein 8-bit-Panel?!

Woran koennte es liegen? Besonders in den beiden NLE koennte ich 10-bit gebrauchen... ;)

Vielen Dank.

System 10.11.6



Antwort von CameraRick:

Geben die beiden Programme überhaupt 10bit im UI aus?
Wenn Du eine korrekte 10bit Darstellung willst hängst Du Dir besser eine I/O Karte dazwischen, sonst pfuscht Dir OSX nur ins Farbmanagement rein.



Antwort von Sammy D:

Geben die beiden Programme überhaupt 10bit im UI aus?
Wenn Du eine korrekte 10bit Darstellung willst hängst Du Dir besser eine I/O Karte dazwischen, sonst pfuscht Dir OSX nur ins Farbmanagement rein.

Gute Frage, das weiss ich nicht, ob die dort 10 bit ausgeben.

Jedoch habe ich in FCPX ueber HDMIHDMI im Glossar erklärt einen 10-bit-Monitor angeschlossen, da dies unter OS X und dem nMP als I/O-Device durchgeht. So auch den groesseren LG ueber Thunderbolt (seit FCPX 10.3 geht das). Beide Male habe ich das Banding.

In DaVinci Resolve benutze ich als I/O-Karte den Ultra Studio Mini Monitor. Der hat 10 bit out. > Banding!

Ich habe noch die Intensity Shuttle Thunderbolt. Weiss jmd, ob die 10 bit out hat? Auch Banding!





Antwort von CameraRick:

Ich meine eine dedizierte I/O Karte die nicht das Signal durchs OS bereit stellt. Auch wenn Du den Monitor zB als Vollbild nutzen kannst, geht es doch immer noch alles nur durch die Software.

Die Mini-Monitor kann natürlich 10bit, also sollte es da keine Probleme geben.
Da stellt sich mir die Frage, ob der Monitor vielleicht intern was falsch macht, bzw das Signal nicht bei ihnen ankommt? Irgendwelche LUTs die intern genutzt werden, oder eingeschränkter Farbraum? Ich kenne die Menus nicht



Antwort von Sammy D:

Ich meine eine dedizierte I/O Karte die nicht das Signal durchs OS bereit stellt. Auch wenn Du den Monitor zB als Vollbild nutzen kannst, geht es doch immer noch alles nur durch die Software.

Die Mini-Monitor kann natürlich 10bit, also sollte es da keine Probleme geben.
Da stellt sich mir die Frage, ob der Monitor vielleicht intern was falsch macht, bzw das Signal nicht bei ihnen ankommt? Irgendwelche LUTs die intern genutzt werden, oder eingeschränkter Farbraum? Ich kenne die Menus nicht

Unter FCPX ist der Ausgang ueber HDMIHDMI im Glossar erklärt am MP wie ein dedizierte PCIe-Karte und wird, genauso wie die UltraStudio, als solche dargestellt. Zumindest verstehe ich die Beschreibung von Apple so. Man moege mich eines besseren belehren. :)

Am Monitor kann man nicht viel einstellen, was den Farbraum beeinflusst: sRGB, Adobe RGB; das wars.

LUTs hat er nicht.



Antwort von Valentino:

Die Mini-Monitor kann natürlich 10bit, also sollte es da keine Probleme geben...
Bis du sicher das der Mini-Monitor wirklich echte 10bit am HDMIHDMI im Glossar erklärt ausgeben kann, der Frank hat mal das Gegenteil behauptet und der ist ja recht nahe an BM.
Auf der BM-Webseite steht nur beim SDI-Out was von 10bit und beim HDMI-Out gibt es keine Bitangabe.
Kann aber auch sein, das ich es damit verwechselt habe, das der Mini-Monitor nur 10bit 422 kann.

@Sammy D
Installiere doch mal Davinci Resolve und teste mal ob du da auch noch Banding hast, am Ende liegt es am Monitor oder am FCPX.

Da wir den ganzen älteren HDMI-Outs von BM auch nicht so ganz über den Weg trauen und auch mal gerne eine Kamera über SDISDI im Glossar erklärt an den Vorschaumonitor anschließen, steckt an jedem Vorschaumonitor ohne SDI-IN ein Micro Converter SDISDI im Glossar erklärt to HDMIHDMI im Glossar erklärt .



Antwort von blickfeld:

Die Mini-Monitor kann natürlich 10bit, also sollte es da keine Probleme geben...
Bis du sicher das der Mini-Monitor wirklich echte 10bit am HDMIHDMI im Glossar erklärt ausgeben kann, der Frank hat mal das Gegenteil behauptet und der ist ja recht nahe an BM.
Auf der BM-Webseite steht nur beim SDI-Out was von 10bit und beim HDMI-Out gibt es keine Bitangabe.
Kann aber auch sein, das ich es damit verwechselt habe, das der Mini-Monitor nur 10bit 422 kann.

@Sammy D
Installiere doch mal Davinci Resolve und teste mal ob du da auch noch Banding hast, am Ende liegt es am Monitor oder am FCPX.

Da wir den ganzen älteren HDMI-Outs von BM auch nicht so ganz über den Weg trauen und auch mal gerne eine Kamera über SDISDI im Glossar erklärt an den Vorschaumonitor anschließen, steckt an jedem Vorschaumonitor ohne SDI-IN ein Micro Converter SDISDI im Glossar erklärt to HDMIHDMI im Glossar erklärt .
über hdmi gibt der mm nur 8 bit aus. nur die deep color karten geben 10 bit über hdmi aus.



Antwort von CameraRick:

Nach BMD macht sie es: https://www.blackmagicdesign.com/de/pro ... /W-DLUS-03
Mal runter scrollen zu "Videonormen"

Unter FCPX ist der Ausgang ueber HDMIHDMI im Glossar erklärt am MP wie ein dedizierte PCIe-Karte und wird, genauso wie die UltraStudio, als solche dargestellt.
Hm, da weiß ich nicht was Apple da verzapft hat, ist mir neu. Aber heißt nicht dass es Quatsch ist, ich weiß es einfach nicht. Nutze den HMDI Port an meinem nicht, habe aber auch kein FCPX da um das zu testen; da der HDMIHDMI im Glossar erklärt Port ja aber auch fürs OS nutzbar ist und über die GPU vermute ich da dennoch, dass es rein Software ist. Und damit wohl auch vom OS korrigiert.

Wegen des Farbraums meinte ich eigentlich so was wie "erweiterter Farbraum", und so ein Zeug. Der LG hat ja ein etwas größeres Menu.
Was sagen die Monitore denn, was bei ihnen als Signal ankommt?



Antwort von Valentino:

...und genau deswegen haben wir die kleinen SDI-Wandler hier verbaut, die umschiffen das Problem.

Wobei ich gerade auf der Webseite von BM entdeckt habe das bei HDMIHDMI im Glossar erklärt Color Precision wieder 10 bit steht:
https://www.blackmagicdesign.com/produc ... /W-DLUS-03

Doch recht merkwürdig, wäre super wenn das Frank oder jemand von BM das mal klar stellen könnten.



Antwort von Sammy D:

Sag nachher noch was zur Signalausgabe des Monitors, CameraRick. Bin gerade unterwegs.

Ich habe nun bei VideoData angerufen, wo ich das Zeugs bestellt hatte. Die meinten, der Mini haette 10 bit ueber HDMIHDMI im Glossar erklärt, koennen allerdings auch nur das wiedergeben, was der Hersteller sagt.

Mal sehen, was Frank sagt...



Antwort von CameraRick:

An meinem eigenen Arbeitsplatz kann ich es akut nicht testen weil mein Monitor keine 10bit über HDMIHDMI im Glossar erklärt kann, die Broadcast-Monitore sind hier überall logischer Weise über SDISDI im Glossar erklärt angeschlossen.

Hast schon Neuigkeiten zum Signal?



Antwort von Sammy D:

Ich kann die Signal-Info derzeit nur ueber den Eizo lesen.

Der sagt lediglich: HDMIHDMI im Glossar erklärt 1080/24p, 24Hz, Colorimetry REC601/709.

Einstellungen: Input Color YUVYUV im Glossar erklärt 4:2:24:2:2 im Glossar erklärt, Input Range: Full

Jetzt habe ich noch einen kurzen Testclip in ProResProRes im Glossar erklärt 4:2:24:2:2 im Glossar erklärt auf eine SD-Karte und in den BMD Video Assist und in die Pocket gepackt. Diese jeweils direkt an den Eizo gehaengt, um das OS zu umgehen, und dann das File abgespielt. Auch hier hatte ich Banding.

Mal eine bloede Frage. Evtl. habe ich ja den Testclip falsch aufgebaut. Das ist im Moment noch eine Fehlerquelle, die mir einfallen wuerde.
Ich habe einen Schwarz-Weiss-Gradienten in Photoshop erstellt (vertikal) und als 16 bit .tiff uncompressed gespeichert. Diesen in eine neue TimelineTimeline im Glossar erklärt von FCPX gezogen, auf 5 Sekunden erweitert und mit Compressor in ProResProRes im Glossar erklärt exportiert. Hoffentlich war das so richtig, sonst haeng ich mich auf. ;)



Antwort von mash_gh4:


Mal eine bloede Frage. Evtl. habe ich ja den Testclip falsch aufgebaut. Das ist im Moment noch eine Fehlerquelle, die mir einfallen wuerde.

ja -- da kann schon noch einiges schief gehen -- leider!

ich verwende lieber klar definierte verläufe, wo die 8bit den 10bit klar gegenübergestellt werden. banding hat man ja immer, nur in 10bit halt 4mal weniger ;)

hier findest ein derartiges testfile

sollte auf einem 10bit-fähigen schirm mit bewusster kontrastanhebung etwa so aussehen:

zum Bild http://users.mur.at/ms/attachments/piot ... graded.png

während in 8bit die obere und untere hälfte gleich dargestellt werden sollten.

es gibt aber auch noch den fall, dass durch dithering mehr zwischenstufen zu sehen sind als tatsächlich direkt übertragen werden...



Antwort von DenK:

Also bei mir sehen hier auf einem 8bit Monitor beide Hälften gleich aus in dem Testfile, und zwar so wie die obere in deinem Screenshot.



Antwort von mash_gh4:

Also bei mir sehen hier auf einem 8bit Monitor beide Hälften gleich aus in dem Testfile, und zwar so wie die obere in deinem Screenshot.

das kann daran liegen, dass das benutzte anzeigeprogramm oder dein system nur 8bit unterstützt, oder aber die gründe liegen tatsächlich außerhalb deines rechners...



Antwort von DenK:

Wie müsste es denn korrekt auf einem 8bit Monitor aussehen?
Habe das File gerade mal im Photoshop (vorher in der Windows Fotoanzeige) geöffnet, da sieht es genauso aus.
Ich sitze aber gerade auch nicht an meinem eigenen Rechner, deswegen kann Ich die Konfiguration nicht genau sagen.



Antwort von mash_gh4:

Wie müsste es denn korrekt auf einem 8bit Monitor aussehen?

"korrekt" ist vielleicht ein bisserl irreführend, aber es sollten beide hälften gleich aussehen und insgesamt 64 stufen dargestellt werden...

in 10bit darstellung sollten in der oben hälfte 256 stufen zu sehen sein.



Antwort von Sammy D:

Vielen Dank.

Dein Testbild verhaelt sich so wie das von mir erstellte. In OS X "Vorschau" auf dem LG-Monitor ist der obere Teil seidenglatt (bei mir nat. das ganze), der untere weist Banding auf.
Das witzige aber ist, dass unter "Vorschau" auf einem Thunderbolt Display auf dem selben Rechner das Bild genauso wie auf dem LG-Monitor ausssieht, obwohl das Apple Display nur ein 8-bit-IPS hat!

In Final Cut und Resolve habe ich sowohl im UI und ueber den Mini Monitor oben und unten das gleiche Banding.



Antwort von CameraRick:

In welcher Auflösung hast Du denn Dein Testfile erstellt? Wenn es größer als 1024px ist bekommst Du natürlich auch Banding.

Kann man denn ausschließen, dass der Monitor das Signal zerfrisst, durch irgendeine merkwüdige Kalibrierung o.ä.?



Antwort von mash_gh4:

Das witzige aber ist, dass unter "Vorschau" auf einem Thunderbolt Display auf dem selben Rechner das Bild genauso wie auf dem LG-Monitor ausssieht, obwohl das Apple Display nur ein 8-bit-IPS hat!

wie oben schon erwähnt, ist das ein ganz normales verhalten.
die grafikkarten dithern bei der ausgabe die werte in einer weise, dass sie möglichst optimal auf den angeschlossenen schirmen dargestellt werden können. technisch betrachtet ist die damit verbundenen tatsächliche wiedergabequalität oft besser als mit typischen 10bit studioausgabekarten, die im übrigen meistens auch farbsubsampling bedingen.



Antwort von Sammy D:

...
wie oben schon erwähnt, ist das ein ganz normales verhalten.
die grafikkarten dithern bei der ausgabe die werte in einer weise, dass sie möglichst optimal auf den angeschlossenen schirmen dargestellt werden können. ...

Ueber das temporal dithering in OS X hatte ich mal was gelesen. Da bekommen einige Kopfschmerzen von. Deaktivieren laesst sich das scheinbar nur ueber eine modifizierte .kext. Bei Windows kann man das ja im Treiber einstellen.
Das wirft natuerlich jetzt die Frage auf, ob der LG in "Vorschau" tatsaechlich 10 bit darstellt oder nur ge-dithered wird. Hm...

In welcher Auflösung hast Du denn Dein Testfile erstellt? Wenn es größer als 1024px ist bekommst Du natürlich auch Banding.

Kann man denn ausschließen, dass der Monitor das Signal zerfrisst, durch irgendeine merkwüdige Kalibrierung o.ä.?

Die Datei ist 1024x1024. Darueber hatte ich mich informiert.

Was OS X mit dem Signal macht, kann ich nicht sagen, aber ueber den Mini Monitor oder direkt ueber die Kamera/ den Rekorder an den Bildschirm sehe ich nach erneuter Einsicht ins Manual keine Einstellung, die das Signal in jener Weise beeinflussen koennte.
Der LG hat im Grunde genommen auch nicht mehr Einstellmoeglichkeiten bzgl. der Signalverarbeitung als der Eizo.



Antwort von CameraRick:

Ja gut, aber auch der EIZO hat ja einige Settings :)
Ich schaue mal daheim, ich hab einen ähnlichen LG glaub ich. Ich kann den via OS wohl nur nicht in 10bit ansprechen, mal schauen ob ich die Deckliink noch installiere



Antwort von Sammy D:

Ich habe gestern mit dem BMD-Support direkt Kontakt aufgenommen und heute schon eine positive Nachricht bekommen.

Der Techniker hat es selbst getestet und mir eine kleine Anleitung an die Hand gegeben.
Es lag tatsaechlich an meinem Testfile.

Also, super einfach:

Im Effektfenster von DaVinci 'Greyscale' auswaehlen, in die Time Line ziehen und in den allgemeinen Einstellungen im video monitoring tab zwischen 8 bit und 10 bit wechseln, um den Unterschied sehen zu koennen - fertig.

Klappt wunderbar. 10 bit da, Geld gespart, Sammy gluecklich.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
Color Grading Problem.. (Mir fällt kein besserer Titel ein)
GH5 nach update von 1.0 zu 2.2 kein mov 4K 10 bit mehr?
10-Bit-Support MacOS: Kein Blackmagic Design Mini Monitor mehr nötig?
Sony a7R III: 4K HLG, Slog 3, Dual Card Slots, besserer Akku - kein 10 Bit Video
Dave Dugdale - 8 Bit vs. 10 Bit (vs. 12 Bit)
Sound von 8 Bit Mono in 16 Bit Stereo umwandeln...
Sind 12 Bit ohne Rauschen nur 8 Bit?
Panasonic GH5 - 8 Bit, 10 Bit, 4:2:2, V-Log L - alles OK?
8 bit vs 10 bit Cameras - Video Youtube
Die Panasonic S1H in der Praxis: Die neue Vollformat-Referenz? Hauttöne, 6K 10 Bit intern, 4K 50p 10 Bit - Teil 1
Canon EOS C300 Mark III in der Praxis: Hauttöne, 10 und 12 Bit (internes) RAW und 10 Bit XF-AVC LOG Recording ?.
8 Bit vs 10 Bit: Panasonic GH5 vs GH4 - der Unterschied in der Praxis
8 Bit vs 10 Bit bei der GH4 V-LOG: Der Unterschied
Storytelling With Color
The Color of Film
color-grading so hinbekommen?
Color Finale on NAB2016
color upsampling technik
Color Finale PRO
Color Finale unter El Capitan
LED Color Rendering Database
LED-Leuchten Color Shift
fujifilm color space converter
Color Finale Pro erschienen
Davinci Resolve Color Picker
Color Grading GH5 Cine D

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom