Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Canon EOS 5D Mark ... - 6/7D - R-Forum

Infoseite // 5DtoRGB: alles was in ProRes rauskommt ist "sendefähig"



Frage von Serge:


Frohe Weihnachten!

Ich bin jetzt schon seid Stunden am Rumtesten und komme mit dem folgenden Thema nicht weiter:

5dtoRGB sollte ja das Maximum an Qualität aus den original 5D-Dateien rausbekommen. Nun ist es so, dass die Helligkeitswerte 1-255 bei der Umwandlung in ProRes immer auf Sendefähig zusammengestaucht werden (siehe FCP / Color "Broadcast Save" deaktiviert).

Wenn ich die Materie richtig begriffen habe, ist das ein Nachteil für das Grading, da so beim Umrechnen Helligkeitsinformationen verloren gehen.
Und Sendefähige Werte vor dem "Grading" braucht es ja eh nicht.

Dabei ist es so, dass die original 5D-mov-Dateien in einer FCP ProRes Sequenz (Superweiss aktiviert) ihre über "sendefähig" hinaus gehenden Helligkeitswerte behalten.

(Color 1.5.1, FinalCut 7.0.1, OSX 10.6.3)

Für etwaige Antworten danke ich vielmals

Serge

Space


Antwort von WoWu:

Es macht vom Gradient her gar keinen Sinn, ausserhalb von REC 709 zu arbeiten, weil Du etwas veränderst, dass es in 709 hinterher womöglich gar nicht mehr gibt sondern durch Dithering ersetzt wird.

Ansonsten regelt 709 ja den Übergang von RGB nach Luminanz und Farbdifferenz. das wird das NLE schon korrekt umwandeln.

Dabei ist das "zusammenstauchen" schon richtig. Beide Lösungen gibt es nicht gleichzeitig.
Es ist auch (nicht ganz) egal, ob du in RGB oder in YCbCr grasest, denn machst Du es in RGB, kann dabei ein Eindruck entstehen, der hinterher völlig anders aussieht.
Also, mein Tipp: asap nach 709 wandeln und dann graden.
Und die erweiterten Farbräume, z.B. REC709-5, nehmen dir die meisten Sender nicht ab.

Space


Antwort von Serge:

@WoWu
Vielen Dank für die ausführliche Antwort.
Dass ich nicht in RGB arbeiten sollte, ist ein guter Tipp und leuchtet mir ein.

Andererseits, XDCAM und DV liefern ja auch Ausgangsmaterial mit erweitertem Farbraum. Vor allem, wenn man nur selten fürs Fernsehen (und eher fürs Web und Kurzfilmfestivals) produziert, macht es da nicht auch Sinn, im erweiterten Farbraum, also zB. REC709-5 zu blieben?

Sollte mal etwas über einen TV-Sender laufen, kann man ja das Master immer noch in FCP über ein Plug-In sendefähig machen, oder sehe ich das falsch?

Der Grund meines "Luma-Level-Peeping" ist ja das Banding, das ich beim Ein- und Ausblenden in einer FCP ProRes-Sequenz bei den (in ProRes) umgewandelten 5D-mov-Dateien erhalte.

Verwende ich die original 5D-mov-Dateien (h.264 mit erweitertem Farbraum) in der ProRes-Sequenz, hat es kaum sichtbares Banding. Hingegen selbst in einer "Unkomprimiert"-Sequenz erzeugen die 5DtoRGB ProRes-Dateien beim Ein- und Ausblenden gut sichtbares Banding ( 8bit / 10bit / präz YUV ProRes-Sequenz, Umwandlung mit 5DtoRGB in ProRes HQ macht alles keinen Unterschied)

Im Gegensatz dazu hat auch das Ein- und Ausblenden von XDCAM EX-Dateien in einer ProRes-Sequenz kaum sichtbares Banding.

Da frage ich mich eben auch, ob das Banding nicht reduziert werden könnte, wenn 5DtoRGB den erweiterten Farbraum und somit die Helligkeitswerte 1:1 übernehmen würde.


Vielen Dank für etwaige Antworten und weiterhin frohe Weihnachten.

Space


Antwort von WoWu:

Moin moin ...
Das mit dem erweiterten Farbraum ist so eine Sache und ist ziemlich unkalkulierbar, weil dazu immer die Metadaten gehören, die ihn signalisieren. Beispielsweise wenn das Signal über HDMI an einen Monitor / TV überragen werden soll. ist der Farbraum dann nicht in den Metadaten signalisiert, kann (muss nicht, hängt vom verwendeten HDMI Chip ab) der Farbraum begrenzt werden. das führt dann dazu, dass der Anwender eine andere Spreizung sieht, als im Content vom "Macher" eigentlich vorgesehen war. Solange man irgendwie im eigenen System bleibt und das alles funktioniert, ist das ja nicht schlimm, aber sobald man mit dem Content nach aussen geht, ist das schon ärgerlich.
Was das hin-und her zwischen den Farbräumen betrifft, so werden immer die Farbwerte, die es zuvor nicht gab, durch Dithering ersetzt. Mogelt man das ganze dann wieder zurück, wird der Farbraum gestaucht. Das bedeutet aber, dass keiner der original Farbwerte wieder an seinem eigentlichen Wert sitzt. Es finden also Verschiebungen der Farben statt, die unwiderruflich sind.
Ausserdem kann ein Monitor, der 709 am Eingang erwartet, mit etlichen Farbwerten der erweiterten Räume gar nichts anfangen, weil der Farbraum ja nicht von 1 nach 255 aufgebaut wird, sondern aus der Mitte nach unten und oben. Die Farben liegen also anders.
Man sollte also keine besonders hohen Ansprüche an die Reproduktionsqualität solcher aufgepfropften Signale stellen.
Daher meine Empfehlung, sich in 709 zu bewegen .... dann gibt keine dieser Überraschungen. Oder eben im erweiterten Farbraum bleiben, aber dann auch gefasst darauf sein, dass die meisten Geräte ihn noch gar nicht darstellen können, oder eben nur mit Metadaten (HDMI).

Space


Antwort von meawk:

man haste Du Probleme?!

nimm die 5DII nur noch zum fotografieren - für Film gibt es nun bessere Lösungen.

und - FCP ist und bleibt Mist: In den Müll damit, 5DtoRGB hin oder her . . .

frohe Weihnachten

Space


Antwort von Serge:

@WoWu: Vielen Dank für die weiteren Ausführungen.

Ganz blicke ich ja noch nicht durch mit meinem Halbwissen:

Die EX1 zeichnet ja auch im erweiterten Farbraum auf. Dies hat ja auch seinen Grund, bzw. die haben ja wahrscheinlich auch den vollen Bereich ausreizen wollen, um noch etwas mehr Auflösung hinzubekommen.
Oder sehe ich das falsch?

Macht es denn nicht auch Sinn, den Farbraum erst beim finalen Grading zB. in Apple Color auf 16-235 zusammen zu stauchen, damit für das Grading noch alle Helligkeitsinformationen 1:1 (ohne vorheriges Umrechnen) vorhanden sind?

Wenn ich am Schluss ein ProRes Master in Rec709 habe,
falls das mal über einen Sender läuft oder für eine Video-DVD verwendet wird, wäre das ja dann ideal.

Doch was geschieht, wenn ich es für die Web-Wiedergabe in ein h.264 Video zurück konvertiere?

Ich habe bis jetzt ca. 70 Webvideos im erweiterten Farbraum als Podcast und für die Darstellung in einem Flash-Videoplayer veröffentlicht und auf verschiedenen Macs und PCs getestet. Dabei war die Darstellung, wie sie sein sollte.

Zu meiner Schande muss ich zugeben, dass ich bis vor kurzem das Grading in FCP gemacht habe und die Luma-Überschuss Anzeige immer deaktiviert war...

Space


Antwort von WoWu:

Du musst unterscheiden, zwischen einem RGB Farbraum und einm YCbCr Farbraum. Hat man in einem RGB Farbraum aufgezeichnet, (also zwischen 0 und 254) regelt REC709 exakt, wie dieser Farbraum konvertiert wird. Die meisten 1 Chip Kameras machen das bereits intern.
Neuere Kameras gehen erst gar nicht mehr über RGB sondern rechnen direkt nach YCbCr.
Die Frage, was besser oder schlechter ist, relativiert sich, wenn das Ziel ohnehin YCbCr ist, weil es nicht viel nutzt, dass man beim Gradient Sachen sieht, die hinterher gar nicht mehr da sind, weil sie bei der Wandlung zu "irgendwas" werden. Das betrifft den gesamten Farbraum. Wenn er hinterher komplett gestaucht wird und etwas anderes dabei heraus kommt, als man eigentlich gegraded hat, ist das ziemlich enttäuschend. Daher sollte man besser gleich in YCbCr arbeiten, auch wenn man die eine oder andere Nuance nicht zur Verfügung hat, aber das Ergebnis ist wenigstens ehrlich.
Es was Anderes ist es, wenn Du mehrere Produkte daraus machst, ein RGB Produkt und ein YCbCr. Dann wirst Du immer auf dem besseren Produkt arbeiten und bestenfalls mit einem LUT im Monitor mal die andere Version überprüfen.
Mein Tipp ... wenn Du Bedarf für ein RGB Produkt hast, arbeite durchgängig in dem Farbraum und mach die Kopie für YCbCr daraus, wundere Dich aber nicht, wenn es einwenig anders aussieht. Ansonsten, wenn Dein Ziel ein YCbCr ist, bleib dabei und wenn Kameras als YCbCr den gesamten Wertebereich belegen, gib sie zur Reparatur.

Space


Antwort von Serge:

Die original 5D Videodateien sind doch in YCbCr aufgenommen.
Wenn ich das richtig verstehe, arbeite ich von der 5D über das Master bis zum h.264 Webvideo nahezu durchgehend in YCbCr. Nur eben mit den fürs Broadcasting unerlaubten erweiterten Farbraum.

RGB wird ja wahrscheinlich nur als Zwischenschritt zwischen den 5D-Originaldateien und ProRes verwendet.....

"und wenn Kameras als YCbCr den gesamten Wertebereich belegen, gib sie zur Reparatur."

Die EX1 kann das doch. Das ist doch bekannt.

Im Moment sieht es so aus, dass 5DtoRGB mit der Umwandlung in ProRes
das Material schon ziemlich in den "Broadcast Range" zusammenstaucht
(siehe Vergleich mit den original Files auf FCP Timeline Sequenz mit Einstellung ProRes / YUV-Präzisionsrendern, Superwhites aktiviert).

Langsam frage ich mich, ob nicht jeglicher Import in ProRes alles nahezu auf Sendefähig staucht. Beim Canon Plug-In bleibt sogar alles 100% "sendefähig".

Ich gebe es auf und versuche einfach mal, von Anfang an, wie empfohlen im Broadcast Range zu bleiben... Webvideos? Mal schauen.


Vielen Dank für alle Ratschläge und weiterhin froh 2012!

Space


Antwort von WoWu:

Also, ich habe nicht so ganz deinen Workflow verstanden, vor allem nicht, was du mit 5DtoRGB darin machst, denn das ist nun genau das falsche Tool, weil aus der Kamera eigentlich YCbCr (sRGB, oder auch 709 genannt) rauskommt. Dieses Tool streched dir den Wertbereich und handelt dir damit schon mal Dithering ein, was manchmal auch wie Rauschen aussieht. Also raus damit ... denn irgendwo musst Du sowieso wieder zurück nach 709.
Und es würde mich doch sehr wundern, wenn die EX1 den vollen Wertebereich belegt, denn das würde aus jeder Norm fallen und Sony hat für den erweiterten Wertebereich ihr xvYCC.
Warum sollten sie also mit 709 einen falschen Wertebereich belegen.

Aber, mein Tipp, komm mit dem Material aus der D5 in sRGB und bleib darin, wie Du es schon vor hat. Und wenn aus der EX1 der erweiterte Wertebereich kommt, stimmt irgend etwas nicht.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Canon EOS 5D Mark ... - 6/7D - R-Forum

Antworten zu ähnlichen Fragen //


5DtoRGB: alles was in ProRes rauskommt ist "sendefähig"
Horror/Mystery Kurzfilm Blinder Himmel -- (fast) alles aus einer Hand
Frohes Fest und alles Gute wünscht slashCAM
Blackmagic URSA Broadcast G2 - Die Eine für Alles?
Warum sieht bei Netflix alles gleich aus?
Alles Cine? Sony FX30 Sensor Test - Rolling Shutter und 4K-Debayering
VFX - Bitte alles schnell und billig
Power Junkie v2: Alles in Einem - Ladegerät, Powerbank und Kamera-Akku
Eine für alles? Samyang AF 35-150mm F2.0-2.8 Zoomoptik für Sony Alpha
Neues Musikvideo // Trebor "Alles brennt"
Dedizierter GPU-RAM wird in shared RAM ausgelagert und legt alles lahm
Die Zukunft der Videobearbeitung 2026 - Alles Echtzeit in der Cloud (gegen Aufpreis)
ALLES SCHROTT? - Können deutsche Filmemacher international mithalten? Interview mit Hannu Salonen
Alles Handwerk? Mit diesem Mindest meisterst du die Kamera! Mit Vi-Dan Tran
DJI Mavic 3: Neue Firmware bringt u.a. Aufnahme mit ProRes 422 und ProRes 422 LT
Panasonic GH6 Firmware 2.0: 120 fps ProRes RAW mit Ninja V+, mehr internes ProRes und mehr...
DJI Mavic 3 Pro ist da: Neues Topmodell ist die erste Drohne mit drei Kameras
Atomos Shogun 7 Update: ProRes RAW Aufnahme mit Sonys FX9 jetzt verfügbar
ProRes Raw wie war das?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash