Frage von -paleface-:Hi zusammen,
dachte mal ich mach mal eine kurze Aufklärung zu RAW und LOG bezüglich Highlites zurück holen. Anscheinend bedarf es da ein wenig Aufklärung.
Ich habe 2 Testaufnahmen für euch.
Aufgenommen mit der Ursa Mini 4.6k.
1x in Prores XQ
1x in CDNG Uncompressed
Jeweils mit Base ISO 800.
Beide hab ich bewusst überstrahlen lassen. Sprich die Lichter clippen...und das massiv.
Kann ich jetzt, da ja in LOG und RAW gefilmt einfach meine Lichter zurück holen?
Hier erst einmal das Prores:
prores_normal_slash.png
Wir sehen der Himmel und vor allem die Bäume sind weißer als weiß.
Nun senke ich meinen Highlites Regler:
prores_cc_slash.png
Hmmm....hab nichts dadurch gewonnen. Nur das das weiß nun grau ist. Logisch hab die Werte ja nur runter gesetzt. Aber ich habe keine neuen Informationen gewonnen.
Nun gehen wir mal ins RAW. Wir sehen das RAW sieht auf den ersten Blick exakt so aus wie das Prores:
cdng_normal_slash.png
Nun senken wir im RAW Tab. Die Belichtung etwas und aktivieren Highlite Recovery.
Und tadaaa....wir haben tatsächlich ETWAS mehr Informationen rettet können im Gegensatz zum Prores. (Man achte auf die Bäume)
cdng_cc_slash.png
Nun muss man sagen das das Beispiel natürlich ein extrem Test ist. Dennoch sollte man NIE seine Highlites clippen lassen. Den das was man da zurückholt kann vielleicht in Ausnahme fällen mal jemanden den Arsch retten. Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion wo die Software die ISOs zusammen legt. Es geht also nichts über sauber belichtetes Material.
Wir sehen also, mehr rettet man da auch gar nicht. Man darf das bitte nicht mit den LOG zu REC709 Konvertierungen vergleichen wo dann aus Wunderhand die Highlites zurück gewonnen werden.
Die Highlites waren schon vorher im Material. Man kann seine Kamera nicht clippen lassen und dann in der POST alles wieder zurück holen. Weder im Rec709, noch im LOG, noch bei 10Bit noch bei RAW.
Es darf diskutiert werden.
Antwort von dienstag_01:
So, und jetzt zeigst du uns Mal den Vorteil.
Antwort von -paleface-:
dienstag_01 hat geschrieben:
So, und jetzt zeigst du uns Mal den Vorteil.
Der Beitrag soll nicht unter dem Thema laufen "RAW ist das geilste".
Aber Vorteile liegen eindeutig in der besseren Bearbeitung von White Balance und generell der Farben oder aber auch Highlite Rollofs.
Hier ein Beispiel zur White Balance:
Falsche WB
01_blau.PNG
Mit den Colow Wheels In Davinci Resolve korrigiert sorgt für Farbverschiebungen. Sein T-Shirt soll grau sein und nicht grün.
02_color.PNG
Im RAW Tab korrigiert. Korrekte Farben und natürlicherer Hautton.
03_raw.PNG
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
dachte mal ich mach mal eine kurze Aufklärung zu RAW und LOG bezüglich Highlites zurück holen. Anscheinend bedarf es da ein wenig Aufklärung.....
Was ist das denn für eine seltsame Herrangehensweise?
Mach das ganze noch mal, fasse nur die Tonwertkorektur an, den highlights Punkt oben rechts anfassen und an der Kante entlang runter ziehen, solange bis der clippende Part unter 1024 kommt, mehr nicht.
Was Du da machst ist wieder was ganz anderes, Du holst kein Highlights zurück, Du füllst nix mit Luft.
Ich sagte ja bereits, wenn man nicht weiß was man tut, wird das nix und erst Recht nicht, wenn man so ein albernes Beispiel wählt, wo man versucht eine hoffnungslos Überbelichtete Aufnahme zu retten um damit meinen angesprochenen Punkt, zu widerlegen.
Wäre nett von Dir wenn Du das Material hochlädst, dann lade ich meine Aufnahme auch hoch, dann können wir mal ein bisschen rumspielen. :-)
Antwort von Peppermintpost:
aber liegt komplimentär zu blau nicht orange anstatt grün? Nur mal so als Frage ;-) Gerade wenn der Blaustich durch eine fehlende bzw falsche white balace zustande kommt dann ist es doch noch einfacher weil die white balance ja im blau/rot spekrtum liegt, da kommt grün ja garnicht vor, oder?
hihi
Antwort von -paleface-:
Peppermintpost hat geschrieben:
aber liegt komplimentär zu blau nicht orange anstatt grün? Nur mal so als Frage ;-) Gerade wenn der Blaustich durch eine fehlende bzw falsche white balace zustande kommt dann ist es doch noch einfacher weil die white balance ja im blau/rot spekrtum liegt, da kommt grün ja garnicht vor, oder?
hihi
Ich hab lediglich den TEMP Regler genutzt. Ich bin mir sicher das ein guter Colorist aus dem zerschossenen Material auch noch mal was raus holt. Aber das dauert mehr Zeit und er wird mehr maskieren müssen. Und ob es hinterher genauso wird....kein Plan.
Antwort von -paleface-:
@kluster
Lade es gerade hoch. Dann kannst du mir deine Magie zeigen! ;-)
Antwort von Peppermintpost:
-paleface- hat geschrieben:
Ich hab lediglich den TEMP Regler genutzt. Ich bin mir sicher das ein guter Colorist aus dem zerschossenen Material auch noch mal was raus holt. Aber das dauert mehr Zeit und er wird mehr maskieren müssen. Und ob es hinterher genauso wird....kein Plan.
au echt? Hattest du da Neon Röhren unter der Decke? Weil ich mich sonst tatsächlich frage wo das Grün her kommt.
Antwort von -paleface-:
Hier das Prores:
https://wetransfer.com/downloads/93fc27 ... 510/618d4a
Antwort von -paleface-:
Peppermintpost hat geschrieben:
-paleface- hat geschrieben:
Ich hab lediglich den TEMP Regler genutzt. Ich bin mir sicher das ein guter Colorist aus dem zerschossenen Material auch noch mal was raus holt. Aber das dauert mehr Zeit und er wird mehr maskieren müssen. Und ob es hinterher genauso wird....kein Plan.
au echt? Hattest du da Neon Röhren unter der Decke? Weil ich mich sonst tatsächlich frage wo das Grün her kommt.
Neon Röhren waren an der Decke, ja. Aber halt angeblich Tageslicht. Ob da jetzt doch etwas grün von abgeht, keine Ahnung.
Aber arbeitet der Temp Regler den Liniear? Weil wenn ja, warum macht dann der im RAW so ein anderes Bild? Da muss ja irgend ein Algorithmus hinter hängen der jetzt meint die Farben woanders hinzuschieben.
Antwort von nic:
Das liegt daran, dass das Rawentwicklungstool den Sensor und seine Eigenschaften kennt und die Farbtemperatur dementsprechend richtig einstellen kann. Danach kann das Gradingtool nur noch allgemein die Gewichtung der Farbkanäle zueinander verschieben, was immer weitere manuelle Korrekturen nach sich zieht.
Antwort von pillepalle:
Das erste Beispiel ist einfach falsch gefiltert und deshalb ist es auch nicht so neutral wie das zweite Beispiel... Gelb ist komplementär zu blau und wenn man an der Farbtemperatur dreht ändert man den Bildton von kühl (Mix aus Blau und Cyan) nach warm (Mix aus Rot und Gelb). Um ein Bild neutral zu bekommen muss man natürlich auch den Tint Regler benutzen, der die Komplementärfarben Grün und Magenta steuert. Sonnst kann das Bild auch mal grün oder magenta wirken ;) Achte mal auf die Farbtemperatur und Tint Werte der RAW Datei...
VG
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
@kluster
Lade es gerade hoch. Dann kannst du mir deine Magie zeigen! ;-)
Ich habe weder von Magie gesprochen, noch davon, das ich eine verbrannte Aufnahme retten kann.
Vielmehr sprach ich davon, das viele das potential von 8Bit in verbindung mit Slog2 verkennen und gezeigt wieso.
Wer auf erden sollte bitte eine so vergurte Aufnahme retten?
Das einzige was ich zeigen will ist, das es footage gibt, welches mit der richtigen rangehensweise etwas korrigiert werden kann und gleichzeitig welches, bei dem man es vergessen kann.
Kindisch ist aber zu glauben, bloß weil man 10Bit fährt, eine zerschossene Aufnahme bedingungslos retten zu können.
Davon habe ich zb. nie gesprochen und auch nicht davon, das ich grundsätzlich etwas besser weiß, sondern lediglich bei mir was einwenden kann, was scheibar bei mir aber nicht bei Dir funktioniert.
So könnte es ja auch in Deinem Interesse sein, dieses zu erörtern, aber es wird lieber wieder mit den Muskeln gespielt! ;-)
Antwort von dienstag_01:
-paleface- hat geschrieben:
dienstag_01 hat geschrieben:
So, und jetzt zeigst du uns Mal den Vorteil.
Der Beitrag soll nicht unter dem Thema laufen "RAW ist das geilste".
Aber Vorteile liegen eindeutig in der besseren Bearbeitung von White Balance und generell der Farben oder aber auch Highlite Rollofs.
Hier ein Beispiel zur White Balance:
Falsche WB
01_blau.PNG
Mit den Colow Wheels In Davinci Resolve korrigiert sorgt für Farbverschiebungen. Sein T-Shirt soll grau sein und nicht grün.
02_color.PNG
Im RAW Tab korrigiert. Korrekte Farben und natürlicherer Hautton.
03_raw.PNG
Und was ist mit der Dynamic?
Antwort von -paleface-:
Ich greife dich nicht an Kluster! Hatte gehofft das Smiley zeigt das.
ABER du hast ja dein S-Log Material ja auch wieder um eine Blende "gerettet". Das müsste ja dann eigentlich hier auch gehen.
Zudem hast ja obern selber gschrieben:
Mach das ganze noch mal, fasse nur die Tonwertkorektur an, den highlights Punkt oben rechts anfassen und an der Kante entlang runter ziehen, solange bis der clippende Part unter 1024 kommt, mehr nicht.
Dann bitte ich dich das doch selber mal zu machen und das Bild zu posten. Dadurch sollte nämlich rein gar nichts gerettet sein.
Was halt beweist, bei deinem S-LOG Material war immer alles da. Nur scheint Resolve und Premiere das Material anders zu interpretieren und dadurch hat man das Gefühl man rettet etwas.
Aber das kann anders herum auch böses erwachen geben. Angenommen man dreht mal eine extrem Situation und sagt..."das rette ich später-1 Blende kann ich mit Resolve immer noch retten". Was aber einfach nicht geht.
Antwort von -paleface-:
dienstag_01 hat geschrieben:
Und was ist mit der Dynamic?
Die Dynamic ist doch bei RAW wie Prores genau die selbe. Lediglich den Highlite Rolloff kann man besser kontrollieren. Wobei man da bei einer RED z.B. viel mehr Eingriff hat als jetzt bei der Ursa.
Antwort von klusterdegenerierung:
Hier mein 8Bit Slog2 mit ausgebrannter Eiskante beim betrachten und importieren.
Rückführung durch lediglich Tonwertkorrektur Regler runter ziehen.
https://we.tl/t-fEw7j0AG9y
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
Hier mein 8Bit Slog2 mit ausgebrannter Eiskante beim betrachten und importieren.
Rückführung durch lediglich Tonwertkorrektur Regler runter ziehen.
https://we.tl/t-fEw7j0AG9y
Anscheinend wird S-Log falsch interpretiert. Mach mal einen rechts klick drauf und geh bei den Werten von Auto auf Full...und schon ist es wieder normal. Das ist die ganze Magie.
auto.PNG
full.PNG
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
Hier das Prores:
https://wetransfer.com/downloads/93fc27 ... 510/618d4a
Keine Chance, da geht garnix, da kann man nix zurückholen, was mich doch bei ProRes sehr wundert.
Interessant ist halt zu beobachten, ob beim runterdrücken der Highlightkurve der obere Berreich abgeschnitten bleibt, oder ob er wie bei dem Slog aus dem nichtsichtbaren Berreich hervor gezogen werden kann.
Das geht hier garnicht. Aus welcher Cam kommt das?
Hast Du meines mal probiert?
Antwort von -paleface-:
Aus der Ursa Mini 4.6k
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
klusterdegenerierung hat geschrieben:
Hier mein 8Bit Slog2 mit ausgebrannter Eiskante beim betrachten und importieren.
Rückführung durch lediglich Tonwertkorrektur Regler runter ziehen.
https://we.tl/t-fEw7j0AG9y
Anscheinend wird S-Log falsch interpretiert. Mach mal einen rechts klick drauf und geh bei den Werten von Auto auf Full...und schon ist es wieder normal. Das ist die ganze Magie.
auto.PNG
full.PNG
paleface, klasse, Du hast doch Recht! :-)
Wenn Du mir jetzt noch zeigst wie man das in Premiere macht, dann gebe ich Dir einen aus! :-))
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
Aus der Ursa Mini 4.6k
Hattest Du das auch als Raw, dann können wir mal sehen, wie es da aussieht?
Antwort von dienstag_01:
-paleface- hat geschrieben:
dienstag_01 hat geschrieben:
Und was ist mit der Dynamic?
Die Dynamic ist doch bei RAW wie Prores genau die selbe. Lediglich den Highlite Rolloff kann man besser kontrollieren. Wobei man da bei einer RED z.B. viel mehr Eingriff hat als jetzt bei der Ursa.
Prores kann ja vieles sein, daher giebt es noch einen halben Punkt. PRINZIPIELL ist das aber kompletter Nonsens. Leider.
Beschäftige dich damit.
Antwort von -paleface-:
dienstag_01 hat geschrieben:
-paleface- hat geschrieben:
Die Dynamic ist doch bei RAW wie Prores genau die selbe. Lediglich den Highlite Rolloff kann man besser kontrollieren. Wobei man da bei einer RED z.B. viel mehr Eingriff hat als jetzt bei der Ursa.
Prores kann ja vieles sein, daher giebt es noch einen halben Punkt. PRINZIPIELL ist das aber kompletter Nonsens. Leider.
Beschäftige dich damit.
Warum ist das Nonsens? Wir reden doch von Dynamic Range oder nicht?
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
paleface, klasse, Du hast doch Recht! :-)
Wenn Du mir jetzt noch zeigst wie man das in Premiere macht, dann gebe ich Dir einen aus! :-))
Kein Plan ob man das in Premiere ändern kann. Ich meine Premiere arbeitet halt immer im Rec709. Ob man es überhaupt umstellen kann, kann ich dir nicht beantworten.
Antwort von cantsin:
-paleface- hat geschrieben:
dienstag_01 hat geschrieben:
Prores kann ja vieles sein, daher giebt es noch einen halben Punkt. PRINZIPIELL ist das aber kompletter Nonsens. Leider.
Beschäftige dich damit.
Warum ist das Nonsens? Wir reden doch von Dynamic Range oder nicht?
Der hängt erst einmal nur vom Sensor ab, und dann vom Farbraum und der Bittiefe, in dem das Bild gespeichert wird. Der Codec ist dabei weitgehend egal, solange er Farbraum und Bittiefe unterstützt.
Antwort von Onkel Danny:
Ich muss den Leuten hier Recht geben. Das Prores ist durch und da ist nichts mehr zu machen.
Und genau so, sollte man eben auch nicht belichten, egal welches Format man wählt ;)
Sicher es war nur ein Beispiel, aber eben auch extrem.
Das Sony Material lässt sich nur zurückholen, weil es noch da ist. Sieht man auch ganz leicht beim runterziehen.
Für 22Mbit ganz ok, leichtes Banding im Ausgangsmaterial. Wenn man direkt auf das Ergebnis hin dreht, gibt es da keine großen Probleme. Für ein Feature würde ich es trotzdem nicht nehmen.
Aber es gibt genug andere Anwendugsmaßnahmen für die es ausreicht.
Daraus folgt: immer richtig belichten!
greetz
Antwort von cantsin:
-paleface- hat geschrieben:
Nun gehen wir mal ins RAW. Wir sehen das RAW sieht auf den ersten Blick exakt so aus wie das Prores:
Nun senken wir im RAW Tab. Die Belichtung etwas und aktivieren Highlite Recovery.
Und tadaaa....wir haben tatsächlich ETWAS mehr Informationen rettet können im Gegensatz zum Prores. (Man achte auf die Bäume)
Du hattest im RAW-Tab "Highlight Recovery" aktiviert. Das funktioniert nur bei RAW, rekonstruiert geclippte Information in einem oder zwei Farbkanälen aus den übrigens Farbkanälen, führt tatsächlich zu mehr noch sichtbaren Details in den Highlights, resultiert aber oft in Falschfarben.
Was Du da siehst, ist keine zusätzliche, echte Bildinformation, die in RAW gespeichert wird, sondern dank RAW rekonstruierte (aber eigentlich in der Aufzeichnung nicht mehr vorhandene) Bildinformation.
Bzw.: Es ist nicht so, dass ProRes-Log früher clippt, sondern dass sich mit RAW-Bildinformation geclippte Bildteile zurück-erraten lassen.
Antwort von -paleface-:
cantsin hat geschrieben:
-paleface- hat geschrieben:
Warum ist das Nonsens? Wir reden doch von Dynamic Range oder nicht?
Der hängt erst einmal nur vom Sensor ab, und dann vom Farbraum und der Bittiefe, in dem das Bild gespeichert wird. Der Codec ist dabei weitgehend egal, solange er Farbraum und Bittiefe unterstützt.
Na das ist doch logisch. Ich rede ja in diesem Fall von der Ursa die als RAW und Prores aufnehmen kann. Und die Aufnahmen haben exakt den selben Dynamic Ränge als Ursprung.
Unterschiedliche Kameras haben unterschiedlichen DR. Egal ob sie RAW aufnehmen oder nicht. Das ist ja wohl logisch und hab nie was anderes gesagt.
Antwort von cantsin:
-paleface- hat geschrieben:
Na das ist doch logisch. Ich rede ja in diesem Fall von der Ursa die als RAW und Prores aufnehmen kann. Und die Aufnahmen haben exakt den selben Dynamic Ränge als Ursprung.
Du hast mich missverstanden. ProRes-Log speichert nicht weniger DR als RAW und RAW nicht mehr DR als ProRes-Log, sondern Resolve kann aus den RAW-Daten verlorene Bildinformation rekonstruieren bzw. erraten.
Antwort von -paleface-:
cantsin hat geschrieben:
-paleface- hat geschrieben:
Nun gehen wir mal ins RAW. Wir sehen das RAW sieht auf den ersten Blick exakt so aus wie das Prores:
Nun senken wir im RAW Tab. Die Belichtung etwas und aktivieren Highlite Recovery.
Und tadaaa....wir haben tatsächlich ETWAS mehr Informationen rettet können im Gegensatz zum Prores. (Man achte auf die Bäume)
Du hattest im RAW-Tab "Highlight Recovery" aktiviert. Das funktioniert nur bei RAW, rekonstruiert geclippte Information in einem oder zwei Farbkanälen aus den übrigens Farbkanälen, führt tatsächlich zu mehr noch sichtbaren Details in den Highlights, resultiert aber oft in Falschfarben.
Was Du da siehst, ist keine zusätzliche, echte Bildinformation, die in RAW gespeichert wird, sondern dank RAW rekonstruierte (aber eigentlich in der Aufzeichnung nicht mehr vorhandene) Bildinformation.
Bzw.: Es ist nicht so, dass ProRes-Log früher clippt, sondern dass sich mit RAW-Bildinformation geclippte Bildteile zurück-erraten lassen.
Was ich ja auch geschrieben habe:
Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion...
Antwort von cantsin:
-paleface- hat geschrieben:
Was ich ja auch geschrieben habe:
Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion...
Dein vollständiges Zitat lautete: "Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion wo die Software die ISOs zusammen legt" - was nicht technisch korrekt ist.
Antwort von -paleface-:
cantsin hat geschrieben:
-paleface- hat geschrieben:
Was ich ja auch geschrieben habe:
Dein vollständiges Zitat lautete: "Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion wo die Software die ISOs zusammen legt" - was nicht technisch korrekt ist.
Wie wäre es denn technisch korrekt?
Ich weiß das wirklich nicht. Hab es aber. Immer so verstanden das die die ISOs zusammen legen. Weil ja quasi in einem RAW file ISO 200 bis 1600 drinnen sind.
Antwort von dienstag_01:
Unterschiedliche Kameras haben unterschiedlichen DR.
Das ist sehr wahrscheinlich. Also korrekt.
Egal ob sie RAW aufnehmen oder nicht.
Und das stimmt eben eher nicht. Um die Dynamic Range zu nutzen, braucht man Raw oder ein Log Profil, wobei ein Log in 8 bit das schon auch nicht mehr schafft (wahrscheinlich). Ein Standard Rec709 kommt definitiv nicht mit.
Antwort von cantsin:
-paleface- hat geschrieben:
Wie wäre es denn technisch korrekt?
Auch in Deinem Beispielvideo clippt das Bild in der Farbe Weiß. Die setzt sich bei Bayer-Sensoren aber bekanntlich aus 2xGrün, Rot und Blau zusammen. Diese vier Farbkanäle bzw. Sensel haben unterschiedliche Dynamik-Kapazitäten. I.d.R. clippen der Rot- oder der Blau-Kanal schneller als die Grünkanäle; bei Kunstlicht, wenn Weiß durch den Weißabgleich nach Blau verschoben wurde, clippt der Blau-Kanal noch schneller.
Wenn bei Weiss ein Farbkanal clippt, ist Weiss eigentlich überbelichtet - und genauso verhalten sich auch ProRes Rec709 und ProRes-Log (bzw. alle konventionellen Videocodecs, da hier die Farbkanäle bereits in andere Farbräume umgerechnet sind und daher nicht mehr 'im Original' vorliegen). Faktisch steckt aber in den übrigen Kanälen noch nicht-geclippte Information.
Würde man diese nicht-geclippte Information konventionell darstellen, gäbe es im o.g. Beispiel also noch etwas grüne Details oberhalb des geclippten Weiss. Die sind natürlich unbrauchbar bzw. würden gewissermaßen als grüne Artefakte/Geister-Schemas im Bild sitzen, wenn sie noch ausgewertet würden.
Klickt man in Resolve die Option "Highlight Reconstruction" im RAW-Tab an, dann geht das Programm davon aus, dass das Grün-Geisterbild äquivalent auch in den beiden anderen, geclippten Kanälen Rot und Blau existiert, schreibt die äquivalenten Werte in die beiden Kanälen und macht so daraus Hellgrau bis Weiss. Wo vorher nur geclipptes Weiss war, werden durch die Hellgrauabstufungen wieder Bildinformationen sichtbar.
Das funktioniert in Deiner Beispieldatei gut, weil es tatsächlich nach Weiss clippt. Wenn aber z.B. ein Teil des Himmels im Blau- und Rot-Kanal geclippt ist und nur noch als Restinformation im Grünkanal vorhanden ist (weil es im Himmelbau-Cyanblau auch Grünanteile gibt), würde der Highlight-Rekonstruktionsalgorithmus rosa Artefakte erzeugen, wenn die Grüninformation sowohl auf den geclippten Blau- als auch auf den geclippten Rotkanal gemappt wird. (Ich nehme dieses Beispiel, weil rosa Himmel bei RAW-Highlightrekonstruktion in der Tat ein bekanntes Phänomen sind.)
Deshalb ist Highlight-Rekonstruktion leider kein Allheilmittel, zumindest nicht mit der heute eingesetzten Technologie. (Auf der Basis von Deep Learning/KI wären sicherlich bessere Heuristiken und Ergebnisse möglich.)
Antwort von iasi:
Warum wird denn eigentlich immer auf überbelichteten Aufnahmen herumgeritten?
Auch sollte man eine auf 5000k kalibrierte nicht mit Kerzenlicht quälen und dann auch noch versuchen, neutrale Farben bekommen zu wollen.
Raw kann doch nur deshalb mehr Details in den Lichtern und den Schatten wiedergeben, weil meist ein Kanal noch nicht geclippt hat und man aus dessen Zeichnungen noch Informationen wiedergewinnen kann.
(cantsin war schneller und ausführlicher)
Aber das ist doch eigentlich nicht Sinn und Zweck von Raw.
Antwort von nic:
-paleface- hat geschrieben:
cantsin hat geschrieben:
Dein vollständiges Zitat lautete: "Aber es ist kein echtes "Highlites zurück gewonnen", sondern eine Notfunktion wo die Software die ISOs zusammen legt" - was nicht technisch korrekt ist.
Wie wäre es denn technisch korrekt?
Ich weiß das wirklich nicht. Hab es aber. Immer so verstanden das die die ISOs zusammen legen. Weil ja quasi in einem RAW file ISO 200 bis 1600 drinnen sind.
Es werden die nicht überbelichteten Farbkanäle als Grundlage für ein Errechnen/Erraten der geclippten Kanäle genutzt - und wieder in das nutzbare Signal gemapped.
Antwort von Darth Schneider:
Jesus...was für eine Diskussion...Um was gehts euch eigentlich, wirklich ?
Zum Glück hab ich immer noch so wenig visuelle Ansprüche und auch zu wenig Ahnung von RAW Video, und Colorgrading, das ich jetzt immer noch am liebsten mit meiner neuen Pocket meistens nur in ProRes filme...nicht mal in 4K...und ich bin immer noch mehr als zufrieden...da kriegt man ja als RAW Anfänger Minderwertigkeitskomplexe....bei solchen Debatten.
SlashCAM, bitte Off Topic, wegen schlechter Werbung...
Gruss Boris
Antwort von Jott:
ProRes mit der Pocket? Blasphemie! Den Zorn des Iasi du spüren wirst.
Antwort von klusterdegenerierung:
"Darth Schneider" hat geschrieben:
Jesus...was für eine Diskussion...Um was gehts euch eigentlich, wirklich ?
Zum Glück hab ich immer noch so wenig visuelle Ansprüche und auch zu wenig Ahnung von RAW Video, und Colorgrading, das ich jetzt immer noch am liebsten mit meiner neuen Pocket meistens nur in ProRes filme...nicht mal in 4K...und ich bin immer noch mehr als zufrieden...da kriegt man ja als RAW Anfänger Minderwertigkeitskomplexe....bei solchen Debatten.
SlashCAM, bitte Off Topic, wegen schlechter Werbung...
Gruss Boris
Boris, das wird schon noch, Dich werden sie auch noch kriegen und anstecken damit! :-)
Aber mal im Ernst, Du hast noch nicht im iasi Format gefilmt, wieso nicht?
Gerade das macht doch richtig Bock, denn da kannst Du in Resolve wie im ACR alle Parameter inkl. Iso einstellen und das max aus der Cam rausholen, das ist doch das was bock macht. Du fährst ja die ganze Zeit mit einem Maserati durch die 30er Zone, wie lahm ist das denn? ;-))
Antwort von Darth Schneider:
An Jott
Ich spanne gleich zur Sicherheit meinen Langbogen, richte 50 Kriegs Pfeile, schleife mein Schwertreplika von 300, poliere meinen Helm und bestell mir gleich noch noch einen Spartaner Schild...( ich wünschte nur ich wäre 20 Jahre jünger, langsam schwer das blöde Zeugs...)
Gruss Boris
Antwort von iasi:
Jott hat geschrieben:
ProRes mit der Pocket? Blasphemie! Den Zorn des Iasi du spüren wirst.
Solange nicht mit ProRes bekommt man dasselbe wie mit Raw kommt, ist mir"s wurscht.
Meine Nichte macht auch nur JPGs mit ihrer DSLR. Raw würde sie nicht brauchen, sagt sie.
Antwort von cantsin:
"Darth Schneider" hat geschrieben:
Jesus...was für eine Diskussion...Um was gehts euch eigentlich, wirklich ?
Wieso - das ist hier doch eine sachliche und auch für Drittleser nützliche Diskussion, die das vermeintliche Mysterium der Highlight-Rekonstruktion in RAW (und die damit verbundene Wahrnehmung, dass RAW mehr Dynamikumfang abbildet) aufklärt.
das ich jetzt immer noch am liebsten mit meiner neuen Pocket meistens nur in ProRes filme...
Spricht ja nichts dagegen - ausser, dass ProRes ggü. BRAW eigentlich nur den Vorteil hat, in praktisch allen NLEs bearbeitbar zu sein. BRAW hat kleinere Dateigrößen, mehr Farbtiefe/nachträglich voll korrigierbaren Weissabgleich und verhält sich in Resolve ansonsten genauso wie ProRes.
Antwort von -paleface-:
Wäre schön mal einen Beitrag auf Slashcam zu haben wo nicht rumgespackt wird.
@cantsin
Das leuchtet mir ein mit den RGB Werten.
Ich muss mal testen ob ich diese visuell ansprechen kann.
Antwort von Darth Schneider:
An Kluster
Hallo erstmal...
Die Pocket ist doch kein echter Maserati, das wäre dann eher eine Alexa, oder mindestens eine Red...
Wollte zuerst mal sicher gehen das mir das ProRes gefällt und in meinem Workflow einfach und schnell funktioniert, auch nicht zuletzt wegen den Tanzaufführungen (und auch noch mit dem neuen Resolve) und abgesehen davon, musste, oder wollte ich halt gleich am Anfang als erstes einige ziemlich wichtige Familien Feste mit der brandneuen Pocket filmen.
Ich wollte kein Risiko eingehen, und hatte nicht wirklich viel Zeit um mit der Kamera und gleichzeitig mit RAW zu üben, weil ich im Moment noch relativ viel Arbeit habe....und auch Familie...
ProRes in HD ist schon super....finde ich, auch die Möglichkeiten in Post soweit, die Kamera ist der Hammer, mehr gibts dazu eigentlich nicht mehr zu schreiben.
Aber ich freue mich schon auch sehr auf 4K und Raw, aber sooo dringend isses jetzt nicht bei der Cam...wie manche hier schreiben, finde ich.
Aber von Heute auf Morgen kann das keiner lernen, oder sich wirklich darüber eine richtige Meinung bilden...
Gruss Boris
Antwort von -paleface-:
Ich hab gerade die einzelnen Kanäle gesplittet und da kann man tatsächlich sehr schön sehen wie das Highlite Recovery arbeitet. Da man dort die "zusätzlichen Informationen" sehen kann.
Interessant. Heute was gelernt! :-)
Antwort von nic:
-paleface- hat geschrieben:
Ich hab gerade die einzelnen Kanäle gesplittet und da kann man tatsächlich sehr schön sehen wie das Highlite Recovery arbeitet. Da man dort die "zusätzlichen Informationen" sehen kann.
Interessant. Heute was gelernt! :-)
Immerhin. :)
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
Wäre schön mal einen Beitrag auf Slashcam zu haben wo nicht rumgespackt wird.
@cantsin
Das leuchtet mir ein mit den RGB Werten.
Ich muss mal testen ob ich diese visuell ansprechen kann.
Sag mal, kann ich ein frame aus dem Raw bekommen, hattest Du doch auch gedreht, oder?
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
-paleface- hat geschrieben:
Wäre schön mal einen Beitrag auf Slashcam zu haben wo nicht rumgespackt wird.
@cantsin
Das leuchtet mir ein mit den RGB Werten.
Ich muss mal testen ob ich diese visuell ansprechen kann.
Sag mal, kann ich ein frame aus dem Raw bekommen, hattest Du doch auch gedreht, oder?
Bitte:
https://wetransfer.com/downloads/64a167 ... 211/ba521f
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
klusterdegenerierung hat geschrieben:
Sag mal, kann ich ein frame aus dem Raw bekommen, hattest Du doch auch gedreht, oder?
Bitte:
https://wetransfer.com/downloads/64a167 ... 211/ba521f
Naja, Hoffnung konnte man ja mal haben. ;-))
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
-paleface- hat geschrieben:
Bitte:
https://wetransfer.com/downloads/64a167 ... 211/ba521f
Naja, Hoffnung konnte man ja mal haben. ;-))
Was meinst damit?
Antwort von klusterdegenerierung:
Das im Raw nix zu retten ist, hoffnungslos überbelichtet.
Antwort von -paleface-:
Jop.
Wie gesagt. Überbelichtet ist überbelichtet. Da kann man mit keinem Codec was retten.
Antwort von dienstag_01:
-paleface- hat geschrieben:
Jop.
Wie gesagt. Überbelichtet ist überbelichtet. Da kann man mit keinem Codec was retten.
Und dafür benötigst du einen Test? Auf mich wirkt das eher albern.
Antwort von cantsin:
dienstag_01 hat geschrieben:
-paleface- hat geschrieben:
Jop.
Wie gesagt. Überbelichtet ist überbelichtet. Da kann man mit keinem Codec was retten.
Und dafür benötigst du einen Test? Auf mich wirkt das eher albern.
Es gibt in Foren immer noch den verbreiteteten Mythos, dass RAW (auf beinahe magische Weise) mehr Dynamik speichert.
Dieser Mythos speist sich aus der Erfahrung mit durch Rec709 im Dynamikumfang beschnittenem Material bzw. der Tatsache, dass sich bei als Rec709/sRGB interpretiertem (und dadurch im Dynamikumfang beschnittenem) RAW-Material geclippte Highlights "zurückholen" lassen.
Antwort von -paleface-:
dienstag_01 hat geschrieben:
-paleface- hat geschrieben:
Jop.
Wie gesagt. Überbelichtet ist überbelichtet. Da kann man mit keinem Codec was retten.
Und dafür benötigst du einen Test? Auf mich wirkt das eher albern.
Was ist albern?
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Und dafür benötigst du einen Test? Auf mich wirkt das eher albern.
Es gibt in Foren immer noch den verbreiteteten Mythos, dass RAW (auf beinahe magische Weise) mehr Dynamik speichert.
Dieser Mythos speist sich aus der Erfahrung mit durch Rec709 im Dynamikumfang beschnittenem Material bzw. der Tatsache, dass sich bei als Rec709/sRGB interpretiertem (und dadurch im Dynamikumfang beschnittenem) RAW-Material geclippte Highlights "zurückholen" lassen.
RAW speichert auch mehr Dynamic als 709, daran ist nichts magisch. Und an diesem Verständnis scheint es hier beim TO zu fehlen. Sonst würde er sich nicht darüber freuen, dass, wenn er einen Sensor ins Clipping führt, der auch wirklich clippt ;)
Antwort von cantsin:
dienstag_01 hat geschrieben:
cantsin hat geschrieben:
Es gibt in Foren immer noch den verbreiteteten Mythos, dass RAW (auf beinahe magische Weise) mehr Dynamik speichert.
Dieser Mythos speist sich aus der Erfahrung mit durch Rec709 im Dynamikumfang beschnittenem Material bzw. der Tatsache, dass sich bei als Rec709/sRGB interpretiertem (und dadurch im Dynamikumfang beschnittenem) RAW-Material geclippte Highlights "zurückholen" lassen.
RAW speichert auch mehr Dynamic als 709, daran ist nichts magisch. Und an diesem Verständnis scheint es hier beim TO zu fehlen. Sonst würde er sich nicht darüber freuen, dass, wenn er einen Sensor ins Clipping führt, der auch wirklich clippt ;)
Ich hätte präziser schreiben sollen: Mythos, dass RAW auf magische Weise unbegrenzte Dynamik speichert.
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
RAW speichert auch mehr Dynamic als 709, daran ist nichts magisch. Und an diesem Verständnis scheint es hier beim TO zu fehlen. Sonst würde er sich nicht darüber freuen, dass, wenn er einen Sensor ins Clipping führt, der auch wirklich clippt ;)
Ich hätte präziser schreiben sollen: Mythos, dass RAW auf magische Weise unbegrenzte Dynamik speichert.
Naja, dann passt der Thread ja ;)
Antwort von -paleface-:
dienstag_01 hat geschrieben:
RAW speichert auch mehr Dynamic als 709, daran ist nichts magisch. Und an diesem Verständnis scheint es hier beim TO zu fehlen. Sonst würde er sich nicht darüber freuen, dass, wenn er einen Sensor ins Clipping führt, der auch wirklich clippt ;)
Äh. Das hab ich nie gesagt!
Ich glaube du bist leicht auf den falschen Dampfer, lies dir das alles noch mal in Ruhe durch was ich gesagt oder behauptet habe.
Einen Fehler hab ich begangen, ja. Und zwar das ich behauptet habe das Highlite-Recovery aus dem zusammen Schluss von mehreren ISOs kommt. Das hatte ich tatsächlich mal falsch verstanden und wurde aber jetzt aufgeklärt.
Warum ich dieses Thema überhaupt aufmache sind Videos wie dieses hier:
Was einfach mal so tut als könnte man geclippte Highlites einfach zurück ziehen. Was er aber nur kann weil er das Material vorher als REC709 interpretiert.
In einem anderen Beitrag hatte der User Kluster einen ähnlichen Effekt. Wo ich auch schon sagte das die Informationen die er da zurück holt einfach schon immer da waren.
Daher mein simpler "Test". Es gibt bestimmt einige User die noch nicht mit RAW gedreht haben aber denken wenn sie sich nun eine RAW Kamera holen sie ein Allheilmittel in der Hand haben.
Antwort von dienstag_01:
-paleface- hat geschrieben:
dienstag_01 hat geschrieben:
RAW speichert auch mehr Dynamic als 709, daran ist nichts magisch. Und an diesem Verständnis scheint es hier beim TO zu fehlen. Sonst würde er sich nicht darüber freuen, dass, wenn er einen Sensor ins Clipping führt, der auch wirklich clippt ;)
Äh. Das hab ich nie gesagt!
Ich glaube du bist leicht auf den falschen Dampfer, lies dir das alles noch mal in Ruhe durch was ich gesagt oder behauptet habe.
Einen Fehler hab ich begangen, ja. Und zwar das ich behauptet habe das Highlite-Recovery aus dem zusammen Schluss von mehreren ISOs kommt. Das hatte ich tatsächlich mal falsch verstanden und wurde aber jetzt aufgeklärt.
Warum ich dieses Thema überhaupt aufmache sind Videos wie dieses hier:
Was einfach mal so tut als könnte man geclippte Highlites einfach zurück ziehen. Was er aber nur kann weil er das Material vorher als REC709 interpretiert.
In einem anderen Beitrag hatte der User Kluster einen ähnlichen Effekt. Wo ich auch schon sagte das die Informationen die er da zurück holt einfach schon immer da waren.
Daher mein simpler "Test". Es gibt bestimmt einige User die noch nicht mit RAW gedreht haben aber denken wenn sie sich nun eine RAW Kamera holen sie ein Allheilmittel in der Hand haben.
Ja, das trifft es schon ganz gut, was ich mit albern meine.
Es dürfte doch wohl wirklich jedem klar sein, dass man nur Informationen zurückholen kann, die vorhanden sind.
Das ist eine Binsenweisheit.
(Das Video schenke ich mir mal. Und wenn du wieder mal solche Aufklärung hast, schreib dazu: nur für Trottel - langsam werde ich sauer)
 |
Antwort von -paleface-:
dienstag_01 hat geschrieben:
Es dürfte doch wohl wirklich jedem klar sein, dass man nur Informationen zurückholen kann, die vorhanden sind.
Das ist eine Binsenweisheit.
(Das Video schenke ich mir mal. Und wenn du wieder mal solche Aufklärung hast, schreib dazu: nur für Trottel - langsam werde ich sauer)
Oh du großer Filmgott...es tut mir Leid dich erzürnt zu haben. Ich wusste ja nicht das jedes Wissen welches du erlangst, automatisch per Memo an alle User auf der Welt gleichzeitig verteilt wird.
Antwort von iasi:
Es bleibt dann leider bei so vielen die Ansicht hängen, dass Raw eigentlich nur für Fix-it-in-Post gut ist.
Zurückholen von Details in den Lichtern bei überbelichteten Aufnahmen.
Oder Korrekturen von Farben, weil man eine auf Tageslicht kalibrierte Kamera mit Kunstlicht füttert.
Oder das Entrauschen von unterbelichteten Aufnahmen.
Oder das Nachschärfen von Aufnahmen mit zu geringer Schärfentiefe oder objektivbedingten flauen Rändern.
Für all das ist Raw eigentlich nicht da.
Ständig bekommt man zu hören, man würde Raw doch nur nutzen, weil man nicht sauber belichten will. Oder auch, wer Raw nutzt, kümmert sich nicht um Lichtsetzung.
Dieser Thread zeigt mal wieder, woher solche Behauptungen letztlich kommen.
Wofür Raw wirklich gut ist, scheint vielen gar nicht klar.
Es ist gar nicht so spektakulär präsentiert - und da wird auch nicht von cinematischem Look gesprochen:
Antwort von iasi:
Es bleibt dann leider bei so vielen die Ansicht hängen, dass Raw eigentlich nur für Fix-it-in-Post gut ist.
Zurückholen von Details in den Lichtern bei überbelichteten Aufnahmen.
Oder Korrekturen von Farben, weil man eine auf Tageslicht kalibrierte Kamera mit Kunstlicht füttert.
Oder das Entrauschen von unterbelichteten Aufnahmen.
Oder das Nachschärfen von Aufnahmen mit zu geringer Schärfentiefe oder objektivbedingten flauen Rändern.
Für all das ist Raw eigentlich nicht da.
Ständig bekommt man zu hören, man würde Raw doch nur nutzen, weil man nicht sauber belichten will. Oder auch, wer Raw nutzt, kümmert sich nicht um Lichtsetzung.
Dieser Thread zeigt mal wieder, woher solche Behauptungen letztlich kommen.
Wofür Raw wirklich gut ist, scheint vielen gar nicht klar.
Es ist gar nicht so spektakulär präsentiert - und da wird auch nicht von cinematischem Look gesprochen:
Antwort von cantsin:
iasi hat geschrieben:
Es ist gar nicht so spektakulär präsentiert - und da wird auch nicht von cinematischem Look gesprochen:
Alles, was in dem Video gezeigt wird, ist auch mit 10bit-Log-Material machbar.
Da es im Jahr 2011 produziert wurde, würde ich sogar stark vermuten, dass das darin verwendete Alexa-Material in ProRes (und nicht in Arriraw) gedreht wurde - zumal der Macher sagt, dass er auf einem Laptop (=Macbook) arbeitet.
Antwort von roki100:
also das was in dem Video gezeigt wird, ist wahrscheinlich auch mit 8Bit möglich. Ist ja nichts besonderes.
Antwort von cantsin:
roki100 hat geschrieben:
also das was in dem Video gezeigt wird, ist wahrscheinlich auch mit 8Bit möglich. Ist ja nichts besonderes.
Bei der Farbstichkorrektur der rechten Wand dürfte es bei 8Bit zu Tonwertabrissen kommen, die auf einem guten Display/in guter Projektion auch sichtbar sind.
Antwort von roki100:
ah komm :) so pingelig muss man nun wirklich nicht sein, das geht mit Sicherheit auch mit 8Bit, ohne das irgendwelche Störungen oder sonstiges zu sehen sind. Wenn ich mir manche Videos anschaue, was manche mit 8Bit Bilder in Photoshop gestalten und das sieht einfach top aus..das wenige in dem Video, ist nichts dagegen.
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Es ist gar nicht so spektakulär präsentiert - und da wird auch nicht von cinematischem Look gesprochen:
Alles, was in dem Video gezeigt wird, ist auch mit 10bit-Log-Material machbar.
Da es im Jahr 2011 produziert wurde, würde ich sogar stark vermuten, dass das darin verwendete Alexa-Material in ProRes (und nicht in Arriraw) gedreht wurde - zumal der Macher sagt, dass er auf einem Laptop (=Macbook) arbeitet.
Es geht um das Prinzip. Das Grading hier ist recht einfach - aber es geht eben nur um Gestaltung und nicht um Korrektur.
Und nun denke mal weiter und mach dir klar, dass Raw eben einen noch größeren Gestaltungsspielraum bietet.
Es gibt da noch ein anderes Gradingvideo mit einer Kapelle, bei dem noch weiter gegangen wird. (Ich kann"s leider gerade nur nicht finden.)
ProRes 10bit 422 ist schon mal gut - Raw bietet aber eben nochmal mehr.
Und ich will das bestmögliche Ausgangsmaterial.
Zumal ProRes schon seit RedRaw keinen Datenmengenvorteil mehr hat.
Es könnte auch mit 8bit gehen ohne dass es auffällt, reicht mir nicht. Warum sollte es mir auch reichen? Warum soll ich mich mit einem Könnte zufrieden geben.
Wenn andere Leute Zeit und Energie in eine Einstellung investieren, hätte ich kein gutes Gewissen bei "könnte reichen".
Noch so ein älteres Beispiel:
Antwort von roki100:
also mehr xBit bedeutet für mein Verständnis nicht nur mehr Colorgrading Möglichkeiten, sondern auch besseres Compositing/VFX (Greenscreen etc. ). Und RAW, ist nun mal wirklich speziell, weil RAW eigene WB/ColorTemp anders auf das Bild wirkt, als einfaches WB. Man hat damit nur Vorteile (u.a. eben Highlight Recovery, ISO usw. ) und keine Nachteile und das zählt. Es ist einfach besser.
Es ist nicht so, dass auch mit 8Bit Bild/Video, VFX unmöglich ist... Ich habe es doch selber öfter gemacht, ohne zu wissen, dass es auch 10bit oder 12, 14bit Bilder/Videos gibt ;)) und alle waren begeistert.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
-paleface- hat geschrieben:
Äh. Das hab ich nie gesagt!
Ich glaube du bist leicht auf den falschen Dampfer, lies dir das alles noch mal in Ruhe durch was ich gesagt oder behauptet habe.
Einen Fehler hab ich begangen, ja. Und zwar das ich behauptet habe das Highlite-Recovery aus dem zusammen Schluss von mehreren ISOs kommt. Das hatte ich tatsächlich mal falsch verstanden und wurde aber jetzt aufgeklärt.
Warum ich dieses Thema überhaupt aufmache sind Videos wie dieses hier:
Was einfach mal so tut als könnte man geclippte Highlites einfach zurück ziehen. Was er aber nur kann weil er das Material vorher als REC709 interpretiert.
In einem anderen Beitrag hatte der User Kluster einen ähnlichen Effekt. Wo ich auch schon sagte das die Informationen die er da zurück holt einfach schon immer da waren.
Daher mein simpler "Test". Es gibt bestimmt einige User die noch nicht mit RAW gedreht haben aber denken wenn sie sich nun eine RAW Kamera holen sie ein Allheilmittel in der Hand haben.
Ja, das trifft es schon ganz gut, was ich mit albern meine.
Es dürfte doch wohl wirklich jedem klar sein, dass man nur Informationen zurückholen kann, die vorhanden sind.
Das ist eine Binsenweisheit.
(Das Video schenke ich mir mal. Und wenn du wieder mal solche Aufklärung hast, schreib dazu: nur für Trottel - langsam werde ich sauer)
Du hast es immer noch nicht verstanden und stellst paleface und uns wieder als Trottel hin!
Es geht "nicht" darum, das wir alle nicht vertsehen, das Raw "keinen" unbegrenzten DR hat, sondern, das je nach import, oder interpretation, bestimmtes Material, wie zb mein Slog, so importiert wird, das es clipt und man die highlights zurück holen kann.
Die brauch man aber garnicht zurück holen, denn sie sind vorhanden, werden aber von der NLE nicht dargestellt.
Insofern wäre das Video für Dich doch ganz gut gewesen.
Statt einfach mal zu sagen, ach so hast dus gemeint, nein, dann kommen wieder die Oberlehrersprüche.
Verstehe nicht warum hier 80% der User immer so überheblich und destruktiv daher kommen.
 |
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Die brauch man aber garnicht zurück holen, denn sie sind vorhanden, werden aber von der NLE nicht dargestellt.
Insofern wäre das Video für Dich doch ganz gut gewesen.
Das ist doch Augenwischerei.
Ich stelle bei meiner nach Histogramm belichteter Raw-Kamera die ISO schön hoch und öffne das Raw in der Software, die dann die Meta-Daten nutzt und ein zu helles Bild zeigt.
Und dann komme ich als der große Magier und zaubere die Details wieder herbei, indem ich die Belichtung zurückstelle.
Antwort von roki100:
iasi hat geschrieben:
Ich stelle bei meiner nach Histogramm belichteter Raw-Kamera die ISO schön hoch und öffne das Raw in der Software, die dann die Meta-Daten nutzt und ein zu helles Bild zeigt.
das Bild ist danach, magisch, einfach sauberer, die Details klarer usw.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Die brauch man aber garnicht zurück holen, denn sie sind vorhanden, werden aber von der NLE nicht dargestellt.
Insofern wäre das Video für Dich doch ganz gut gewesen.
Das ist doch Augenwischerei.
Ich stelle bei meiner nach Histogramm belichteter Raw-Kamera die ISO schön hoch und öffne das Raw in der Software, die dann die Meta-Daten nutzt und ein zu helles Bild zeigt.
Und dann komme ich als der große Magier und zaubere die Details wieder herbei, indem ich die Belichtung zurückstelle.
iasi, schade das Du Dir nach so vielen post immer noch nicht die Mühe gegeben hast, was paleface geschrieben und gezeigt hat, zu verstehen!!!
Er hat doch 2 screenshots vom Log gemacht, einmal als "auto" import und einmal als "full".
Als auto wird es als Rec709 importiert und der obere Berreich der im Slog vorhanden ist, wird gekappt, kann aber via Tonwertkorrektur zurückgeholt werden, weil es lediglich als Rec709 behandelt wurde.
Wird es als Slog interpretiert, ist der gekappte Berreich vorhanden und muß nicht zurück geholt werden.
Also keine Magie oder Wunschdenken, sonder nur die Interpretationsweise des NLE, das hat mit dem footage überhaupt nichts zu tun, nur wenn man um diesen Umstand nicts weiß, wie ich bislang, dann könnte man auf die Idee kommen, das man Slog in den Highlights wie Raw recovern kann.
Vielleicht solltest Du endlich mal anfangen uns zu verstehen und nicht nur fishing for compliments betreiben!!!!!
Antwort von dienstag_01:
nur wenn man um diesen Umstand nicts weiß, wie ich bislang,
Das hättest du jetzt nicht nochmal extra betonen müssen ;)
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
nur wenn man um diesen Umstand nicts weiß, wie ich bislang,
Das hättest du jetzt nicht nochmal extra betonen müssen ;)
Wenn Du es gewußt hast, warum hast Du uns so lange im dunklen gelassen und nicht direkt wie paleface einen Screenshot von den Resolve settings gepostet? Ich denke das ist alles nur hohles Gerede ohne Substanz, sonst würde nicht immer der gleiche belanglose töt mit anschliesenden kompromittierungen kommen!
Antwort von Jörg:
Ich denke das ist alles nur hohles Gerede ohne Substanz,
und das sagt wer?
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Das hättest du jetzt nicht nochmal extra betonen müssen ;)
Wenn Du es gewußt hast, warum hast Du uns so lange im dunklen gelassen und nicht direkt wie paleface einen Screenshot von den Resolve settings gepostet? Ich denke das ist alles nur hohles Gerede ohne Substanz, sonst würde nicht immer der gleiche belanglose töt mit anschliesenden kompromittierungen kommen!
Wieso glaubst du eigentlich, dass alles, was du nicht verstehst, alle anderen auch nicht verstehen.
Die Interpretation des Materials im NLE hatte paleface gerade erst im Thread 422 vs 10bit angesprochen. Da kann wirklich niemand ahnen, dass du zwar darauf antwortest, es aber nicht schnallst. Sorry, ich werde mir demnächst mehr Mühe geben.
Übrigens: beschreibt der Eröffnungspost keineswegs die Interpretationsmöglichkeiten im NLE, sondern zeigt die Auswirkungen eines clippenden Sensors. Nur, damit wir uns nicht wieder falsch verstehen ;)
Antwort von cantsin:
Eigentlich sind alle Fragen bezüglich RAW und Log schon in den Grundlagen-Artikeln der Slashcam-Redaktion (bzw. von Rudi) beantwortet:
(Zu RAW):
https://www.slashcam.de/artikel/Grundla ... lles-.html
(Zu Log):
https://www.slashcam.de/artikel/Grundla ... lles-.html
Antwort von dienstag_01:
Da nehmen wir doch gleich noch den Artikel zu Highlight Recovery dazu ;)
https://www.slashcam.de/artikel/Grundla ... tzeln.html
Antwort von roki100:
Ich benutze sehr oft Highlight Recovery, gerade letztens als die Sonne stark schien und ein ND8 nicht ausreichte mit unter f6... und ich habe noch keine Falschfarben, rosa Himmel oder ähnliche Störungen gesehen. Kann es sein dass das nur mit bestimmte Linsen passieren kann?
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
Wenn Du es gewußt hast, warum hast Du uns so lange im dunklen gelassen und nicht direkt wie paleface einen Screenshot von den Resolve settings gepostet? Ich denke das ist alles nur hohles Gerede ohne Substanz, sonst würde nicht immer der gleiche belanglose töt mit anschliesenden kompromittierungen kommen!
Wieso glaubst du eigentlich, dass alles, was du nicht verstehst, alle anderen auch nicht verstehen.
Die Interpretation des Materials im NLE hatte paleface gerade erst im Thread 422 vs 10bit angesprochen. Da kann wirklich niemand ahnen, dass du zwar darauf antwortest, es aber nicht schnallst. Sorry, ich werde mir demnächst mehr Mühe geben.
Übrigens: beschreibt der Eröffnungspost keineswegs die Interpretationsmöglichkeiten im NLE, sondern zeigt die Auswirkungen eines clippenden Sensors. Nur, damit wir uns nicht wieder falsch verstehen ;)
Du schnallst nicht das ich es geschnallt habe und Dich lediglich darauf Aufmerksam machen möchte, das Du das nicht geschnallt hast. Für Dich gibt es hier doch eh nur Nullchecker.
Eure Überheblichkeit ist so ätzend!!
Antwort von cantsin:
roki100 hat geschrieben:
Ich benutze sehr oft Highlight Recovery, gerade letztens als die Sonne stark schien und ein ND8 nicht ausreichte mit unter f6... und ich habe noch keine Falschfarben, rosa Himmel oder ähnliche Störungen gesehen. Kann es sein dass das nur mit bestimmte Linsen passieren kann?
Nein, das hängt vom Motiv ab. Hier ein Beispiel für das, was schiefgehen kann:
zum Bild
https://forum.blackmagicdesign.com/view ... hp?t=45430
Antwort von roki100:
Das sieht ja schlimm aus. Noch kein Motiv gehabt wo das so aussah.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Wieso glaubst du eigentlich, dass alles, was du nicht verstehst, alle anderen auch nicht verstehen.
Die Interpretation des Materials im NLE hatte paleface gerade erst im Thread 422 vs 10bit angesprochen. Da kann wirklich niemand ahnen, dass du zwar darauf antwortest, es aber nicht schnallst. Sorry, ich werde mir demnächst mehr Mühe geben.
Übrigens: beschreibt der Eröffnungspost keineswegs die Interpretationsmöglichkeiten im NLE, sondern zeigt die Auswirkungen eines clippenden Sensors. Nur, damit wir uns nicht wieder falsch verstehen ;)
Du schnallst nicht das ich es geschnallt habe und Dich lediglich darauf Aufmerksam machen möchte, das Du das nicht geschnallt hast. Für Dich gibt es hier doch eh nur Nullchecker.
Eure Überheblichkeit ist so ätzend!!
Versuchst du gerade, meinen Humor zu testen ;)
Antwort von iasi:
cantsin hat geschrieben:
roki100 hat geschrieben:
Ich benutze sehr oft Highlight Recovery, gerade letztens als die Sonne stark schien und ein ND8 nicht ausreichte mit unter f6... und ich habe noch keine Falschfarben, rosa Himmel oder ähnliche Störungen gesehen. Kann es sein dass das nur mit bestimmte Linsen passieren kann?
Nein, das hängt vom Motiv ab. Hier ein Beispiel für das, was schiefgehen kann:
zum Bild
https://forum.blackmagicdesign.com/view ... hp?t=45430
recht anschauliches Beispiel
Man müsst hier dann aber auch die Farben in den kritischen Bereichen korregieren.
Aber es ist eben nicht korrekt belichtet.
Erinnert mich an mein Hundchen in der Sonne:
Schwarz-weißes Fell. Den Unterschied kann man dann sogar erfühlen. :)
Hundchen in der Sonne überfordert so manche meiner Kameras - und AE sowieso.
Antwort von Peppermintpost:
ich hab dann mal was zum Thema RAW und LOG gemacht und auch die Bilder benutzt die hier als Beispiele auftauchen
viel Spass:
https://youtu.be/Jkri4gTGNFA
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Versuchst du gerade, meinen Humor zu testen ;)
Welchen Humor?
Antwort von Framerate25:
Peppermintpost hat geschrieben:
die hier als Beispiele auftauchen
Min: 36:24 - Fast wäre mein Kaffee auf dem Panel gelandet - Prust - bestes Beispiel ever ;))))))
Aber wieder granadenstark. Du erklärst das super. Vielen Dank dafür. Und ich freu mich auf mehr Input ;)
Antwort von -paleface-:
@peppermint
Kleine Anmerkung von mir. Ich wusste nicht das du meine Fenstertests mit einbaust. Dann hätte ich dir gesagt das die die beiden Beispiele mit unterschiedlicher Blende gefilmt sind.
Als der User Kluster das Prores haben wollte um daran rumzuspielen hab ich das genommen welches ich unter 2GB groß war, wegen Wetransfer.
Die Kamera ist also nicht kaputt und wenn man in Prores und Raw mit jeweils gleichen Einstellungen etwas filmt sieht das bei der Ursa auch exakt gleich aus. Zumindest solange bis man an den RAW Settings arbeitet.
Antwort von Peppermintpost:
-paleface- hat geschrieben:
@peppermint
Kleine Anmerkung von mir. Ich wusste nicht das du meine Fenstertests mit einbaust. Dann hätte ich dir gesagt das die die beiden Beispiele mit unterschiedlicher Blende gefilmt sind.
Als der User Kluster das Prores haben wollte um daran rumzuspielen hab ich das genommen welches ich unter 2GB groß war, wegen Wetransfer.
Die Kamera ist also nicht kaputt und wenn man in Prores und Raw mit jeweils gleichen Einstellungen etwas filmt sieht das bei der Ursa auch exakt gleich aus. Zumindest solange bis man an den RAW Settings arbeitet.
ah ja das erklärt einiges - konnte mir auch schlecht vorstellen das der Unterschied so groß ist und es keinem auffällt.
Antwort von klusterdegenerierung:
Peppermintpost hat geschrieben:
ich hab dann mal was zum Thema RAW und LOG gemacht und auch die Bilder benutzt die hier als Beispiele auftauchen
Soso, kein Slog?
Doch Slog2, Screenshot angehangen.
Ich dachte Du seißt Profi?
- Seit wann klatscht ein Profi irgendwelche Luts übers Material bevor man es normalisiert?
- Warum eine 709 Lut auf Raw Material?
- Warum Raw nicht mit der Raw engine weiterverarbeiten?
- Wieso die Tiefen die sich im mittleren Berreich aufhalten, mit "lift" durch die Mitte stretchen, statt mit offset die gesamte Range vermitteln, das Mitten in den Mitten liegen und die Tiefen in den Tiefen und von da aus die Mittelhöhen und Höhen nach oben ziehen?
Im übrigen sieht Raw in Resolve oft erstmal anders aus als zb Slog oder ProRes, denn Resolve weiß noch garnicht welches Raw es da bekommen hat.
Dafür muß man erstmal in den Raw settings die richtige Cam, Gamma und Log wählen, dann sieht es auch so aus wie es aussehen muß, vorher aber nicht zwingend, solltest Du aber wissen, auch dazu ein screenshot.
Hier auch noch mal ein gutes Beispiel von BMD zu dem Thema.
https://youtu.be/jo0YcNRlrNA?t=639