Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kamera Zubehör: Objektive, Gimbals, Stative, ...-Forum

Infoseite // BM VideoAssist 12G 5" Unterschiedlicher Farbraum zwischen interner und externen Aufzeichnung



Frage von ChrisDiCesare:


Servus Leute,

ich hatte am Wochenende einen Dreh mit meiner Panasonic EVA1 und einem gemieteten BMVA 12G 5" von einem Kollegen. Aufgenommen wurde am BM in ProRes 422 UHD 60 Bilder und intern auf der Eva HEVC 420 UHD in 60 Bilder als Sicherung. Material wurde dann an einen Editor abgegeben. Er hat sich heute bei mir gemeldet und gemeint, dass das Material jeweils unterschiedliche Farbräume aufweist. Das Material vom BM wäre nicht wirklich brauchbar, da es im Gegensatz zum internen Material an Stellen clipt und vom Farbraum her eine andere Dynamik hat. Das interne Material von der Eva passt soweit. Von den Ausgaben her passt soweit alles, auf dem BM wurde das V Log Signal angenommen und konnte es soweit auch lesen. Aufgenommen wurde Intern sowie Extern auf SD Lexar V90 UHS3 Karten.

Ein anderer Kollege berichtete mir, dass er das gleiche Problem an einer FS7, XT3 und XT4 feststellte. Habe dann unterschiedliche Tests vorgenommen, mal ProRes, mal DNX, dann mal BRAW, UHD, FHD. Immer das gleiche Problem mit dem BM. Ich habe heute schon den ganzen Tag im Netz verbracht, um eine Ursache zu finden, bin aber nicht fündig geworden. Daher wende ich mich an euch und wollte mal nach Fragen, ob jemand ähnliches berichten kann und evtl. eine Lösung hat oder eine Idee, woran es liegt?

Kann ja nicht sein, dass H264/H265 Material zu ProRes und BRAW SO unterschiedlich ist? Als ich noch meinen Ninja V hatte, ist mir das Problem bei ProRes nie aufgefallen. Achja, das gleiche Probleme habe ich auch auf meiner GH5. Freue mich auf Antworten und Hilfe.

Beste Grüße
Der Chris

Space


Antwort von cantsin:

ChrisDiCesare hat geschrieben:
Habe dann unterschiedliche Tests vorgenommen, mal ProRes, mal DNX, dann mal BRAW, UHD, FHD. Immer das gleiche Problem mit dem BM.
Wenn Du Braw aufnimmst, gibt es kein vordefiniertes Gamma und keinen vordefinierten Farbraum. Bist Du Dir sicher, dass Du in diesem Fall ein Raw-Signal an den Recorder ausgegeben hast?

Space


Antwort von ChrisDiCesare:

cantsin hat geschrieben:
ChrisDiCesare hat geschrieben:
Habe dann unterschiedliche Tests vorgenommen, mal ProRes, mal DNX, dann mal BRAW, UHD, FHD. Immer das gleiche Problem mit dem BM.
Wenn Du Braw aufnimmst, gibt es kein vordefiniertes Gamma und keinen vordefinierten Farbraum. Bist Du Dir sicher, dass Du in diesem Fall ein Raw-Signal an den Recorder ausgegeben hast?
Ja, der BRAW Farbraum passt zu den ProRes und DNX Farbraum, aber nicht zum internen von der Eva. Aber das war auch nur ein Testclip. Am Set haben wir auf BRaw verzichtet, weil die Eva bei einer Raw Ausgabe nicht intern aufzeichnen kann. Und auch keine 60 Bilder. Daher wurde es ProRes 422 und Intern.

Space


Antwort von cantsin:

ChrisDiCesare hat geschrieben:
cantsin hat geschrieben:


Wenn Du Braw aufnimmst, gibt es kein vordefiniertes Gamma und keinen vordefinierten Farbraum. Bist Du Dir sicher, dass Du in diesem Fall ein Raw-Signal an den Recorder ausgegeben hast?
Ja, der BRAW Farbraum passt zu den ProRes und DNX Farbraum, aber nicht zum internen von der Eva.
Sorry, wenn ich mal etwas undiplomatisch frage: Bist Du Dir sicher, dass Du in Begriffen wie "Farbraum", "Gamma" etc. sattelfest bist?

Farbraum bedeutet nicht etwa Farbgebung, sondern Farbpalette (engl. "gamut"). Und Raw-Formate, inkl. BRaw, haben keinen nativen Farbraum, weil sie erst in der Software in einen User-spezifizierten Farbraum debayert werden.

Ansonsten würde ich mal prüfen, ob das typische Problem von Video- vs. Datalevels vorliegt. Ich bin mir beinahe sicher, dass die Ursache Eures Problems eine Fehlbedienung in der Nachbearbeitungssoftware (Resolve?) ist.

Space


Antwort von Frank Glencairn:

Ja, klingt für mich auch nach Fehlbedienung.
Vielleicht kannst du ja mal ein paar Clips irgendwo hochladen, damit wir uns das ansehen können, ansonsten ist das alles Kaffeesatzleserei.

Space


Antwort von ChrisDiCesare:

Ja, wird mit Resolve geschnitten und Farbkorrigiert.

Hier ein Link (2 Tage Gültig) mit je einem Testclip Intern und Extern.
https://workupload.com/file/LMRtdydQgev

Space


Antwort von cantsin:

ChrisDiCesare hat geschrieben:
Ja, wird mit Resolve geschnitten und Farbkorrigiert.

Hier ein Link (2 Tage Gültig) mit je einem Testclip Intern und Extern.
https://workupload.com/file/LMRtdydQgev
Ist genau, was ich gedacht habe - die VA-Aufnahmen müssen in Resolve von "Video" auf Full-Level umgeschaltet werden, dann sind beide Aufnahme farbgleich. Schicke noch Screengrabs nach.

Space


Antwort von cantsin:

Voilà:
eva intern auto_1.1.1.jpg interne EVA-Aufnahme, umgewandelt von V-Log/V-Gamut nach Rec709 mit Resolve Color Space Transform

va extern auto_2_1.2.3.jpg externe VideoAssist-Aufnahme, Levels unverändert (Resolve-Einstellung: "auto", faktisch auf "Video", dadurch abgeschnittene Schatten und Spitzlichter), umgewandelt von V-Log/V-Gamut nach Rec709 mit Resolve Color Space Transform

va extern full_1.2.2.jpg externe VideoAssist-Aufnahme, Levels umgestellt auf "full", umgewandelt von V-Log/V-Gamut nach Rec709 mit Resolve Color Space Transform

Space


Antwort von Frank Glencairn:

Na also - dachte ich mir doch.

Space



Space


Antwort von ChrisDiCesare:

Genau das wahr der Fehler.

Meinerseits kannte ich die Funktion nicht, ist mir tatsächlich neu und das dahinter muss ich mir in Ruhe mal nachlesen. Beim Kollegen seinerseits waren die Levels auf "full". Dennoch war der Fehler da. Am Ende hat sicher herausgestellt, dass es durch einen Bug einen Anzeigefehler gab. Was der Kollege dann genau gemacht hat, weiß ich nicht. Aber jetzt scheint es zu funktionieren. Er hätte mir auch erstmal sagen können, sind bei dir Levels richtig. Aber nein, es wird ja immer erst gemeckert und dann gefragt ;P

Space


Antwort von cantsin:

Dieses Beispiel zeigt aber immerhin, wie gut V-Log implementiert ist (= mit maximaler Ausnutzung sowohl der Motivdynamik, als auch der speicherbaren Bittiefe). Andere Log-Profile sind ja so flach, dass sie den verfügbaren 10bit-Wertebereich gar nicht voll ausnutzen und eine versehentliche Beschränkung auf Video-Levels zu keinem sichtbaren Clipping von Schatten und Spitzlichtern führen würde.

Space


Antwort von MK:

Zusammenfassend kann man dann festhalten dass der VideoAssist die Data Levels nicht richtig taggt oder Resolve sie nicht richtig interpretiert.

Space


Antwort von -paleface-:

Diese Sache ist etwas was ich damals schon beim ersten Shogun zusammen mit der GH4 kritisiert hatte.
Und alle haben mich für dumm gehalten.

Damals konnte ich es easy beheben in dem ich anstelle von Prores einfach DNXHD gewählt hatte.
Schon war der Fehler weg.

Wenn man nen BRAW file in den MediaInfo wirft steht auch immer drinnen das es eigentlich nen Prores wäre.
Was ich immer skurill Finde.
Vermutlich daher das Level Problem.

Space


Antwort von -paleface-:

MK hat geschrieben:
Zusammenfassend kann man dann festhalten dass der VideoAssist die Data Levels nicht richtig taggt oder Resolve sie nicht richtig interpretiert.
Ich vermute ja eher das es an Panasonic liegt. Vermute mal das da irgend ein Protokoll nicht über HDMI ankommt.

Weil andere Rekorder haben das selbe Problem.

Space


Antwort von Frank Glencairn:

MK hat geschrieben:
Zusammenfassend kann man dann festhalten dass der VideoAssist die Data Levels nicht richtig taggt oder Resolve sie nicht richtig interpretiert.
Resolve interpretiert nichts, sondern liest die Metadaten aus.
Wenn die Kamera keine entsprechenden Daten ausgibt, gibt es allerdings auch nix lesen.
Ist allerdings auch kein Beinbruch wenn man es mal weiß - ist ja nur ein Mausklick.

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Resolve interpretiert nichts, sondern liest die Metadaten aus.
Wenn die Kamera keine entsprechenden Daten ausgibt, gibt es allerdings auch nix lesen.
Ist allerdings auch kein Beinbruch wenn man es mal weiß - ist ja nur ein Mausklick.
Das meine ich mit interpretieren... es wäre zudem sehr verwunderlich wenn es RAW mit Video Levels gäbe... das ist ja Teil der ganzen Trickserei dass während der Aufnahme die Daten in Bereiche geschrieben werden die früher Headroom waren, und erst bei der Bearbeitung transformiert werden. Da muss dann aber schon der Recorder entsprechend die Metadaten schreiben, gerade im selben Ökosystem.

Aber ist ja nicht das einzige Produkt heutzutage bei dem die Entwickler anscheinend noch niemals was von 16-235 vs. 0-255 gehört haben... mittlerweile programmiert halt Gen Z und die Alten sind alle in Rente oder weggestorben.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
MK hat geschrieben:
Zusammenfassend kann man dann festhalten dass der VideoAssist die Data Levels nicht richtig taggt oder Resolve sie nicht richtig interpretiert.
Resolve interpretiert nichts, sondern liest die Metadaten aus.
Wenn die Kamera keine entsprechenden Daten ausgibt, gibt es allerdings auch nix lesen.
Ist allerdings auch kein Beinbruch wenn man es mal weiß - ist ja nur ein Mausklick.
Da hat sich BMD leider nicht um eine gute Unterstützung des VideoAssist gekümmert.
Ein Beinbruch ist es, wenn man von dieser mangelhaften Implementierung nichts weiß und Qualität verschenkt, da man von der Notwendigkeit eines Mausklicks nichts weiß.

Space


Antwort von MK:

iasi hat geschrieben:
Ein Beinbruch ist es, wenn man von dieser mangelhaften Implementierung nichts weiß und Qualität verschenkt, da man von der Notwendigkeit eines Mausklicks nichts weiß.
Man verschenkt keine Qualität sondern gradet von einer komplett falschen Ausgangsbasis und clippt sich zudem Schatten und Highlights weg, was bedeutet dass das Material im Ar*** ist.

Space



Space


Antwort von Frank Glencairn:

MK hat geschrieben:
Da muss dann aber schon der Recorder entsprechend die Metadaten schreiben, gerade im selben Ökosystem.
Ich hab da natürlich keine Einsicht wie das genau im Detail gelöst ist mit den Protokollen, aber soweit ich weiß, richtet sich der Recorder nach dem was der Input angibt. Es gibt ja genug Leute die z.B. kein LOG Aufnehmen wollen, sondern "fertiges" 709 Prores .

Wenn die Kamera also keine entsprechenden Metadaten sendet, kann der Recorder natürlich auch keine Gedanken lesen.
Ich denke also auch, daß da in erster Linie Panasonic gefragt ist.

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Ich hab da natürlich keine Einsicht wie das im Detail gelöst ist, aber soweit ich weiß, richtet sich der Recorder nach dem was der Input angibt. Es gibt ja genug Leute die z.B. kein LOG Aufnehmen wollen, sondern "fertiges" 709 Prores .

Wenn die Kamera also keine entsprechenden Metadaten sendet, kann der Recorder natürlich auch keine Gedanken lesen.
BM könnte eine Funktion in den Recorder implementieren die Data Levels des Eingangs manuell anzugeben, so wie es bei vielen TV-Geräten möglich ist, und das dann auch mit in die Metadaten schreiben um fehlerhafte Zuspieler unter Kontrolle zu bringen.

Man fragt sich allerdings auch warum der "Editor" nicht mit einem Blick auf Waveform / Vectorscopes gesehen hat was Sache ist...

Space


Antwort von Frank Glencairn:

Das sind beides gute Punkte.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
MK hat geschrieben:
Da muss dann aber schon der Recorder entsprechend die Metadaten schreiben, gerade im selben Ökosystem.
Ich hab da natürlich keine Einsicht wie das genau im Detail gelöst ist mit den Protokollen, aber soweit ich weiß, richtet sich der Recorder nach dem was der Input angibt. Es gibt ja genug Leute die z.B. kein LOG Aufnehmen wollen, sondern "fertiges" 709 Prores .

Wenn die Kamera also keine entsprechenden Metadaten sendet, kann der Recorder natürlich auch keine Gedanken lesen.
Ich denke also auch, daß da in erster Linie Panasonic gefragt ist.
Da würde es sich BMD aber dann doch zu leicht machen, indem einfach die Schuld auf die Kamerahersteller geschoben wird. Wie MK schon sagte: Es gibt für BMD Möglichkeiten diesem Problem/dieser Fehlerquelle zu begegnen.

Space


Antwort von Frank Glencairn:

... oder man macht einfach den entsprechenden Mausklick.

Aber die "Zero-Afford" Generation muß man natürlich beim Händchen nehmen, weil ihr alles bereits zu viel und zu schwierig ist.
Das einzige was immer geht ist Forderungen und Ansprüche an irgendwelche Firmen zu haben.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
... oder man macht einfach den entsprechenden Mausklick.

Aber die "Zero-Afford" Generation muß man natürlich beim Händchen nehmen, weil ihr alles bereits zu viel und zu schwierig ist.
Das einzige was immer geht ist Forderungen und Ansprüche an irgendwelche Firmen zu haben.
Was man aber auch nicht braucht, sind "Zero-Afford"-Unternehmen, die ihre Produkte verkaufsfördernd ihre Produkte mit immer mehr Funktionen vollpacken, sich aber nicht um die Bedienbarkeit kümmern.

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Aber die "Zero-Afford" Generation muß man natürlich beim Händchen nehmen, weil ihr alles bereits zu viel und zu schwierig ist.
Die muss man aber auch vor sich selbst schützen weil sie von Grundlegendem keine Ahnung mehr hat und sich blind auf alles verlässt.

Alleine wenn man mal schaut was die letzten Jahre noch an falsch (0-255) gemasterten BDs rauskam weil beim Materialexport der Haken falsch gesetzt wurde...

Gekniffen ist dann der Endverbraucher, denn für eine 16 Disc Box macht das Label mal nicht so eben einen Austausch.

Space


Antwort von iasi:

MK hat geschrieben:
"Frank Glencairn" hat geschrieben:
Aber die "Zero-Afford" Generation muß man natürlich beim Händchen nehmen, weil ihr alles bereits zu viel und zu schwierig ist.
Die muss man aber auch vor sich selbst schützen weil sie von Grundlegendem keine Ahnung mehr hat und sich blind auf alles verlässt.

Alleine wenn man mal schaut was die letzten Jahre noch an falsch (0-255) gemasterten BDs rauskam weil beim Materialexport der Haken falsch gesetzt wurde...

Gekniffen ist dann der Endverbraucher, denn für eine 16 Disc Box macht das Label mal nicht so eben einen Austausch.
Man muss sich doch fragen, weshalb man eigentlich so viele Haken überhaupt falsch setzen kann.

Mit dem hohen Pferd wäre ich übrigens mal sehr vorsichtig, denn ich würde von mir nicht behaupten, dass ich aus der Ahnung über grundlegende Funktionsweisen die richtige Bedienung mal eben intuitiv schließen könnte.

Wo bekommst du denn angezeigt, dass da falsch mit 0-255 gemastert wird?

Du kennst die grundlegende Funktionsweise von Relight?
Kannst du Relight allein auf dieser Grundlage auch nutzen?

Space


Antwort von MK:

iasi hat geschrieben:
Wo bekommst du denn angezeigt, dass da falsch mit 0-255 gemastert wird?
Indem das Bild am TV viel zu kontrastig ist, dunkle Bereiche absaufen und Highlights geclippt sind. Sieht man am Waveform auch sofort bzw. kann man überprüfen.

Der legale Bereich in den Codecs ist 16-235 (der Einfachheit halber für 8 Bit angegeben). Schwarz ist bei 16, Weiß bei 235, darunter und darüber ist Superschwarz bzw. Superweiß.

Am TV wird das Signal bei der Wiedergabe von 16-235 auf 0-255 des Panels aufgespreizt, alles was außerhalb von 16-235 war ist bei der Darstellung abgeschnitten.

0-255 ist als Endformat auch heute nirgends Standard, in den seltenen Fällen wo dann tatsächlich mal 0-255 benötigt wird spreizt es der Player wenn er korrekt eingestellt ist.

Space



Space


Antwort von MK:

iasi hat geschrieben:
Du kennst die grundlegende Funktionsweise von Relight?
Kannst du Relight allein auf dieser Grundlage auch nutzen?
Ist doch ganz einfach... wenn man von der Benutzung von Etwas keine Ahnung hat informiert man sich oder lässt die Finger davon.

Wer als Editor, Colorist, Mediengestalter, etc. keine Ahnung von Data Levels, Waveform, Vectorscope hat, sollte schleunigst seine Wissenslücken füllen oder sich einen anderen Job suchen.

Space


Antwort von Bluboy:

MK hat geschrieben:
"Frank Glencairn" hat geschrieben:
Aber die "Zero-Afford" Generation muß man natürlich beim Händchen nehmen, weil ihr alles bereits zu viel und zu schwierig ist.
Die muss man aber auch vor sich selbst schützen weil sie von Grundlegendem keine Ahnung mehr hat und sich blind auf alles verlässt.

Alleine wenn man mal schaut was die letzten Jahre noch an falsch (0-255) gemasterten BDs rauskam weil beim Materialexport der Haken falsch gesetzt wurde...

Gekniffen ist dann der Endverbraucher, denn für eine 16 Disc Box macht das Label mal nicht so eben einen Austausch.


Was heißt mit 0-255 falsch gemastert

Iron Man und alle VC-1 schauen doch ganz gut aus

Blu Ray und MP4 ist eben nicht Broadcast

Space


Antwort von MK:

Bluboy hat geschrieben:
Was heißt mit 0-255 falsch gemastert

Iron Man und alle VC-1 schauen doch ganz gut aus

Blu Ray und MP4 ist eben nicht Broadcast
Steht doch oben, wenn die beide Schwarz bei 0 und Weiß bei 255 haben wird bei der Wiedergabe abgeschnitten.

Das hat nichts mit Broadcast vs. Blu-ray oder MP4 zu tun sondern mit videotechnischen Grundlagen die seit Anbeginn des Fernsehens in allen Formaten bis heute Bestand haben.

Aber mich wundert mittlerweile nichts mehr...

Space


Antwort von Bluboy:

Bei allen neueren Wiedergabe-Geräten kann man den erweiterten Farbraum (0-255) einschalten, nur alte und uralte Geräte können das nicht darstellen und ziehen dann im im TV bei Schhwarz rote Schlieren.;-((

anderes Beispiel
bei DVD war das mit progressive Scan auch ein Problen, inzwischen gibts garnichts anderes mehr

Space


Antwort von MK:

Bluboy hat geschrieben:
Bei allen neueren Wiedergabe-Geräten kann man den erweiterten Farbraum (0-255) einschalten
Das ist aber ursprünglich nur für Wiedergabegeräte gedacht die 0-255 ausgeben (z.B. PC falls man dort nichts Anderes einstellt) und nicht als Workaround für fehlerhaft erstellte Discs.

Mit erweitertem Farbraum hat das nichts zu tun, das ist wieder was Anderes.

Die sollen einfach ihre Discs korrekt erstellen, dann braucht man das nur wenn man den TV als PC-Monitor benutzt.

Space


Antwort von MK:

Und in die andere Richtung ist es dafür gedacht Wiedergabegeräte die normal 16-235 ausgeben an Displays die 0-255 erwarten zu betreiben (PC-Monitore) weil das Bild dort sonst zu flau wäre... da spreizt dann der Player von 16-235 auf 0-255 bevor er es über HDMI schickt.

Space


Antwort von iasi:

MK hat geschrieben:
iasi hat geschrieben:
Wo bekommst du denn angezeigt, dass da falsch mit 0-255 gemastert wird?
Indem das Bild am TV viel zu kontrastig ist, dunkle Bereiche absaufen und Highlights geclippt sind. Sieht man am Waveform auch sofort bzw. kann man überprüfen.

Der legale Bereich in den Codecs ist 16-235 (der Einfachheit halber für 8 Bit angegeben). Schwarz ist bei 16, Weiß bei 235, darunter und darüber ist Superschwarz bzw. Superweiß.

Am TV wird das Signal bei der Wiedergabe von 16-235 auf 0-255 des Panels aufgespreizt, alles was außerhalb von 16-235 war ist bei der Darstellung abgeschnitten.

0-255 ist als Endformat auch heute nirgends Standard, in den seltenen Fällen wo dann tatsächlich mal 0-255 benötigt wird spreizt es der Player wenn er korrekt eingestellt ist.
Netter Vortrag über 16-235 und 0-255, jedoch beantwortet es die ganz praktische Frage nicht.

Am Bild etwas ablesen zu wollen, ist immer schwierig, denn wer sagt dir denn, dass Schwarz in den Schatten nicht beabsichtigt war.

Space


Antwort von MK:

iasi hat geschrieben:
Am Bild etwas ablesen zu wollen, ist immer schwierig, denn wer sagt dir denn, dass Schwarz in den Schatten nicht beabsichtigt war.
Falsche Data Levels sieht man sehr eindeutig auf dem Waveform wenn es einem nicht am Clipping auffällt, da gibt es wenig zu diskutieren.

Space


Antwort von iasi:

MK hat geschrieben:
iasi hat geschrieben:
Am Bild etwas ablesen zu wollen, ist immer schwierig, denn wer sagt dir denn, dass Schwarz in den Schatten nicht beabsichtigt war.
Falsche Data Levels sieht man sehr eindeutig auf dem Waveform wenn es einem nicht am Clipping auffällt, da gibt es wenig zu diskutieren.
Wann siehst du dir denn den Waveform einer ausgerenderten Datei an?

Es geht vor allem darum, dass die Fehlerquellen mit dem Funktionsumfang zunehmen, aber die Bedienung dem nicht Rechnung trägt.

Warum ist so etwas nötig:

https://www.slashcam.de/news/single/Zeh ... 18077.html

Wir haben Software mit KI, aber für die Bedienung muss man sich durch ein Handbuch mit hunderten Seiten lesen.

Man sieht übrigens nicht jeder Aufnahme an, ob sie nun in 16-235 oder 0-255 vorliegt - auch nicht am Waveform.

Space



Space


Antwort von MK:

iasi hat geschrieben:
Wann siehst du dir denn den Waveform einer ausgerenderten Datei an?
Weil hier immer wieder fehlerhaft exportiertes Material reinkommt bei dem die Levels dann korrigiert werden müssen.

Man kann natürlich wie manche Major-Labels in letzter Zeit Filme oder ganze Serien im falschen Wertebereich veröffentlichen, das will aber keiner...

Space


Antwort von MK:

iasi hat geschrieben:
Man sieht übrigens nicht jeder Aufnahme an, ob sie nun in 16-235 oder 0-255 vorliegt - auch nicht am Waveform.
Auf einzelne Szenen mag das zutreffen, vor allem wenn sie noch nicht gegraded sind.

Filme ohne absolutes Schwarz oder Weiß kommen aber eher selten bis gar nicht vor, und ein durchgängig flaues oder übersättigtes Bild ist per se verdächtig und bedarf einer weiteren Prüfung.

Space


Antwort von roki100:

0-255 (8 Bit) oder 0-1023 (10 Bit) steht für Full/Data Level, Full Swing, extended Range oder -7-109 IRE
16-235 (8 Bit) oder 64-940 (10 Bit) steht für Video Level, Studio Swing, legal Range, 0-100 IRE
Bildschirmfoto 2023-08-17 um 19.15.55.png ...
...
Die korrekten Metadaten bleiben jedoch Anwendersache, d.h man sollte beim Export darauf achten die richtigen Levels einzustellen. Und während ein Authoring-Programm hier explizit darauf achtet, alles richtig zu machen, tut dies ein Schnittprogramm eher nicht.

Resolve erlaubt gleichwertig den Export von Data- oder Video-Pegeln in praktisch jedem Codec. Damit der Export mit korrekten Metadaten gelingt muss wiederum die Timeline schon "wissen" was die korrekten Levels im Projekt sind. Und das hängt wiederum von den individuellen Projekteinstellungen ab. Resolve arbeitet im Default mit Full/Data-Pegeln, während Avid im Default die Timeline auf Studio Swing steht.

Erweitert kommt hinzu, dass man auch beim Import darauf achten muss, mit welchen Pegeln die importierten Clips aufgezeichnet wurden. Panasonic erlaubt beispielsweise sogar in seinen Lumix Kameras die Einstellung des digitalen Encoding-Pegels. Wer RAW filmt hat die Level beim Debayering sowieso buchstäblich fließend in der Hand...
https://www.slashcam.de/artikel/Grundla ... inleitung_

Space


Antwort von MK:

roki100 hat geschrieben:
während ein Authoring-Programm hier explizit darauf achtet, alles richtig zu machen
0-255 gibt es weder bei DVD noch bei Blu-ray oder UHD. Wenn das Zeug nicht 16-235 encoded ist (bzw. halt bei UHD 10 Bit 64-940) war es das mit der korrekten Wiedergabe.

Space


Antwort von MK:

Und der 0-255/0-1023 Export bei Endformaten ist auch nur für Schlaubis gedacht die in den Foren weinen wenn exportiere Videos auf dem PC-Monitor flau aussehen weil der Player die Levels nicht transformiert.

Wird dann halt am eigenen Rechner korrekt angezeigt und anderswo falsch. Standard ist auch im Jahr 2023 immer noch Video Levels + Viewer Transformation.

Full Levels als Endformat ist außer für wenige Spezialanwendungen komplett irrelevant.


Bei Resolve ist auch nur die Timelinedarstellung Full Range, im Hintergrund wird weiterhin mit Video Levels gearbeitet und beim Export entsprechend den Einstellungen Full oder Video exportiert. Superschwarz- und Superweiß wird im kompletten Pfad erhalten und kann wieder mit Exportiert oder bei externem Monitoring mit dargestellt werden.

Blicken halt wie an anderer Stelle schonmal angesprochen manche Plugin-Hersteller nicht und clampen das Signal auf Full und killen damit Superschwarze/Superweiße Werte, Generation Z Programmierung at its best.

Space


Antwort von dienstag_01:

Man muss vielleicht anmerken, dass es in Resolve die Importoptionen Full und Video deshalb gibt, DAMIT man die richtigen Level einstellt.
Muss man halt nur machen.

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Man muss vielleicht anmerken, dass es in Resolve die Importoptionen Full und Video deshalb gibt, DAMIT man die richtigen Level einstellt.
Muss man halt nur machen.
Um Fehler bei der Quellmaterialerstellung bzw. den Metadaten ausbügeln zu können und für Formate ohne Metadaten (z.B. Bildsequenzen) oder Formate bei denen die Levels eigentlich vom Format fest definiert sind, aber von einem "Experten" mit der falschen Range befüllt wurden.

Früher gab es den Quatsch übrigens nicht in dem Ausmaß, da hat man höchstens mal einen Praktikanten gehabt der bei Komponentenvideo SMPTE und Betacam Pegel verwechselt hat, oder was auch oft ein Problem war, dass bei USA-NTSC der erhöhte analoge 7.5 IRE Schwarzwert bei der Wandlung nach Digital nicht nach 0 IRE korrigiert wurde.

Heute liest man fast täglich von Leuten die Probleme mit den Pegeln und der daraus resultierenden fehlerhaften Darstellung haben. Selber helfen können sie sich nicht weil technische Grundlagen und Verständnis komplett fehlen. Die Früchte der Ausbildung bei der YouTube-Academy.

Space


Antwort von roki100:

dienstag_01 hat geschrieben:
Man muss vielleicht anmerken, dass es in Resolve die Importoptionen Full und Video deshalb gibt, DAMIT man die richtigen Level einstellt.
Muss man halt nur machen.
Ja, nur erkennt DaVinci angeblich automatisch (siehe unter Clip Attributes, da ist Auto eingestellt) ?

Space


Antwort von dienstag_01:

Früher gab es sowas natürlich auch, besonders in Erinnerung ist mir der Roundtrip zwischen Avid und Premiere mit DNxHD-Material geblieben, da gabs übrigens keine Möglichkeit, in Premiere die Levels anders zu interpretieren.

@roki100
Was könnte Auto bedeuten? Für Video Video Level und für Grafik Full Level. Wenn das Material anders ankommt, dann funktioniert es eben mit Auto nicht mehr so gut ;)

Space



Space






Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kamera Zubehör: Objektive, Gimbals, Stative, ...-Forum

Antworten zu ähnlichen Fragen //


Sony Alpha 6700 APS-C/S35 Hybrid Kamera mit interner 10bit 4:2:2-Log Aufzeichnung
Blackmagic Video Assist 12G HDR 7-Zoll Recorder/Monitor mit RAW-Aufzeichnung
Jetzt BRAW Aufzeichnung für Nikon in den 12G Video Assist Modellen
AJA: HDR Image Analyzer 12G, KUMO 6464-12G und mehr // IBC 2019
AJA Ki Pro Ultra 12G: 12G 4K-UltraHD ProRes Multikanal Recorder und Player
AJA veröffentlicht 12G-AM 12G-SDI Audio-Embedder/Disembedder
Neues von AJA: HDR Image Analyzer 12G Update, Kona X und 12G-SDI-openGear-Karten
NK Dokus die unterschiedlicher nicht sein könnten
gleiche Kameras, unterschiedlicher Speicherbedarf
Verwirrung bei VideoAssist-DNxHD Codecs
Frage: Panasonic S1 & Blackmagic 4K Videoassist
Blackmagic VideoAssist SSD Kaufberatung
Blackmagic Videoassist 5 Zoll SDi
Bildprofil Farbraum Konvertierung Sony a7 III Hlg3 vs cine2 oder cine4
Resolve und Mac - welcher Farbraum?
Apple stellt neues iPad Pro mit mehr Leistung, LiDAR, Dual-Kamera und P3-Farbraum Support vor
4K BluRays von 2K Master: Erweiterter Farbraum „echt“?
WQHD Monitor mit 144hz, 10bit und gutem Farbraum




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash