In unser Diskussion gehen munter die Kategorien von Format (ProRes Raw), Software-Unterstützung (Apples SDK und dessen Implementierung in Programmen wie Scratch) und Hardware-Implementierung (Umweg über HDMI und Atomos-Recorder, Line Skipping bei der Nikon Z6) durcheinander.
Darth Schneider hat geschrieben: ↑Mi 12 Feb, 2020 06:22
Also Fazit von dieser Diskussion, ProRes Raw braucht definitiv ein Update
Die Software-Unterstützung definitiv, die Hardware-Implementierung zumindest bei Nikon, aber bei allen anderen Herstellern, die die Aufzeichnung an Atomos auslagern, um die RED-Lizenzgebühren zu sparen.
und Nikon auch kommt ja sicher, die Formate sind ja noch sehr neu.
Bei Nikon würde ich in dieser Kamerageneration nicht mehr mit Verbesserungen rechnen, denn die Beschränkung auf 4K-RAW mit Line Skipping hat, wie bei der Sigma fp, sehr wahrscheinlich mit Hardware-, möglicherweise auch mit Lizenz-Beschränkungen des (in beiden Kameras identischen) Sony-Sensors zu tun.
inklusive dem Highlight Recovery...Obwohl ich bei dem Knopf eigentlich keinen Unterschied in den Schatten sehe, ich drück ihn einfach jedes Mal...
Ich werde den Eindruck nicht los, dass in unseren Foren-Diskussionen z.T. grundsätzliche Dinge nicht verstanden werden und "Highlight Recovery" mit dem vermeintlichen Zurückholen ausgebrannter Spitzlichter mit Raw- oder Log-Material verwechselt wird.
Letzteres bedeutet nur: Wenn RAW- oder Log-Material als Rec709 oder sRGB interpretiert wird (z.B. durch Wahl von Rec709 im Raw-Tab oder Anwenden einer LUT), werden Schatten und Spitzlichter abgeschnitten, weil Rec709 eigentlich nur 6 Blenden Dynamik abbilden kann. Dreht man an den Kurven, kommt die abgeschnittenen Spitzlichter scheinbar "magisch" wieder zurück (wenn mit Log oder Raw gedreht wurde - wurde in Rec709 bzw. Standardprofilen gedreht, sind dir Spitzlichter bereits bei der Aufnahme abgeschnitten und unwiderruflich verloren).
Dies hat aber nichts mit Highlight Recovery zu tun. Highlight Recovery ist ein eher experimentelles und spekulatives Notnagel-Feature, bei dem physisch (d.h. auch in Raw oder Log) ausgebrannte Spitzlichter aus Restinformationen einzelner Farbkanäle rekonstruiert werden. Wenn Du z.B. in Kunstlicht mit seinem hohen Rotanteil drehst und die Spitzlichter brennen aus, dürfte vor allem der Rotkanal überbelichtet sein, bzw. die roten Sensorpixel im Rot-Blau-Grün-Grün-Sensorpattern auf dem Maximalwert stehen. Sind die Blau- und/oder Grün-Pixel nicht ausgebrannt, sondern erzeugen ein visuelles Muster, kann die Raw-Highlight-Recovery dieses Muster auf die Rot-Pixel interpolieren und so die verlorene Bildinformation rekonstruieren.
Das ist zwangsläufig spekulativ: Stell Dir vor, Du drehst im Bühnenlicht, und auf der Bühne steht eine cyanblau bemalte weisse Leinwand (z.B. ein Aktbild von Yves Klein), die durch ein Spotlicht angestrahlt wird. Wegen der Tungsten-Beleuchtung clippt die Leinwand in den Rot-Sensorpixeln der Kamera. Klickst Du jetzt Highlight-Recovery an, könnte Resolve (oder ein anderes Programm, dass Raw interpretiert) versuchen, das visuelle Muster des Cyan- Gemäldes (d.h. in den Blau- und Grün-Sensorpixel) auf die weisse Leinwand auszuschmieren; oder es könnte annehmen, dass in der Cyan-Farbe der Rotkanal geclippt ist, den Rotkanal entsprechend "rekonstruieren" und dadurch das Gemälde grau machen. (Letzteres ist wahrscheinlicher und passiert auch häufig bei aktivierter Highlight Recovery. Kannst Du gut testen, wenn Du nachts Leuchtreklamen aufnimmst und die bei der Aufnahme eine Blende clippen lässt.)
Man kann ja auch nix gross da was einstellen nur ein Häckchen setzen, oder sehe ich da was falsch ? Also was soll der Hype ?
S.o.
Was mich auch schon wirklich überrascht, ist das man bei BRaw nix an der Schärfe herumdrehen kann, komischerweise im Kameramenü aber doch schon..
Warum nicht in Resolve ?
Weil Braw nur halbes oder Pseudo-Raw ist und zumindest einen Teil des Debayerings bereits in der Kamera erledigt.
Das wäre doch eigentlich noch ziemlich wichtig für den finalen Look eines Films, denke ich.
Du kannst nach wie vor normale Nachschärf-Filter in Resolve & Co. anwenden, nur dass die dann eben nicht als Debayering-Parameter verwendet werden, sondern wie bei konventionellem Videomaterial aufs debayerte Bild angewendet.