
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
ETTR verständlich erklärt
For ProRes mode, as long as you are careful about what is clipping - you would want to expose a scene as follows:
Set camera to iso 800, light your scene.
Expose the camera until just under clipping.
But this time, instead of pulling the exposure down in post, you would want to lower your iso slightly before filming. This is because ProRes is a compressed format so less flexible in post production. By Lowering the ISO the camera is pulling it down before compressing it onto your SSD.
Do not lower the ISO too much, as you will lose details in the shadows if you are not careful - but if it does look way too bright on screen - perhaps just lower it to 400.
The Zebra's will show the clipping at the same place whether on iso 800, 400 or 200.
Nein, es geht darum, wie vermeide ich sowohl Clipping als auch Noise, wenn ich mit einem Format zu schaffen habe, das mir ein WYSIWYG prinzipbedingt verweigert. Für dessen endgültige Erscheinung ich also im Moment der Aufnahme blind bin. Und für das auch herkömmliche in-camera Messmethoden nur bedingt taugen.domain hat geschrieben:Im Grunde geht es hier ja um eine ziemliche Banalität: wieviel Clipping bzw. wieviel Noise ist die menschliche Auge-Hirn-Kombination individuell bereit zu akzeptieren?
Ob man überhaupt eine HDR-Anmutung z.B. mit 8-bit als Ziel umsetzen will, steht auf einem anderen Blatt. Jpeg- und Mjpeg-Aufnahmen nehmen mir größtenteils die Entscheidung ab (ich kann nur verschiedene Kurven-Förmchen durchprobieren, ich mache die "Post" per Kamera-Presets, chris_wenzel lässt grüßen). Mit Raw ist eine "Entwicklung" nötig, und für die sollte ich Informationen maximieren und optimieren. Für die ohnehin unabdingbare Nachbearbeitung den größtmöglichen echten Dynamikumfang. Was daran nicht neu und scheinbar "banal" ist, wie du schreibst, ist, dass für die normalen Codecs im Grunde dasselbe Prinzip gilt: Noise und Clipping vermeiden. Vergessen wir nicht, dass moderne Kameras auch in 8-bit über S-Kurven bis 11 Blenden Dynamikumfang erreichen können. Auch hier ließe sich mittels einer entsprechenden Quantisierung (Bildprofil, damit ich im bildwichtigen Teil des Spektrum - etwa menschliche Haut - genügend Abstufungen habe) leicht überbelichten. Landläufig gilt Clipping als das schlimmere Übel (zu Recht), weswegen man ein Motiv mit hohem Kontrastumfang eher unter- als überbelichtet.domain hat geschrieben:Sehr vielen Menschen erscheinen HDR-Bilder als abnormal, weil sie diese Art der Darstellung auf einem kontrastreduzierenden Medium einfach nicht gewohnt sind, z.B. speziell nicht auf doch ziemlich beschränkten Drucken und Foto-Papierabzügen.
Der hat das Problem. Nämlich, dass er ein ETTR-Bild auf seinem Monitor so hell sieht, dass ein Fokussieren nach Augenmaß unmöglich ist, als nur ein Beispiel (auch Peaking kann man vergessen). Die Lösung des Problems ist "trivial" (studiolondon), zumindest für BMCC + BMPCC (mit zukünftigem Raw): Iso runter. Iso hat nur Auswirkungen auf nicht-Raw-Codecs wie ProRes.domain hat geschrieben:Axel, im Grunde handelt sich hier um ein physiologisches bzw. technisches Problem.
Wenn eine optimale Belichtung speziell der Lichter nur knapp unter dem 100%-Zebra denkbar ist, aber der Kontrollmonitor dabei ein voll überbelichtetes Bild anzeigt, also bei wem liegt dann das Problem?
Doch wohl nicht bei dem das Monitorbild Betrachtendem, oder?
zebra zeigt mir wenn es clippt - sofern ich 100% eingestellt habe - dann ist es schon zu spät - das ist dann wie ein feuermelderAxel hat geschrieben:Zusammenfassend und vereinfachend kann man sagen, dass ETTR eine schnelle Messmethode über Zebra ist, die als einzige geeignet ist, sofort zu sehen, welcher Bildbereich clippt. Das Histogramm erlaubt mir dies nicht, ich sehe nur, dass etwas clippt. Und Waveform ("ETTT") auch nicht spontan, es sei denn, ich kann es aus Erfahrung sofort interpretieren.
Ich kann mir vorstellen (hab ja leider noch immer kein Raw-Video), dass externe Monitore für die Belichtungsbeurteilung null taugen, weil sie das Signal interpretieren, das sie selbst darstellen und was ein 8-bit-Signal ohne Kurve ist, mithin maximal 5 Blendenstufen aus 13 (16-240), wobei vielleicht noch OSD-Zeichen mitgerechnet werden. Ich sehe immer nur einen Ausschnitt (auf dem eingebauten Display ja auch), und sobald ich tendenziell rechts von der Mitte belichte, *erscheint* ein weißes Bild.
Weiter ist ETTR ein Konzept, das im Widerspruch zu Lowlight steht. Ich tue in Raw nicht nur so, ich habe tatsächlich nur die native Empfindlichkeit des Sensors zur Verfügung. Noch einmal: Iso verändert weder nach unten noch nach oben die Empfindlichkeit, diese Idee ist ein Missverständnis.
Somit kann ich nur über Licht, Blendenöffnung und in Grenzen Verschlusswinkel bestimmen, ob ich die linken, verrauschten Bildteile mitnehme oder nicht. Im Zweifelsfall bedeutet das nach Goethe "mehr Licht".
also gut, dann erkläre ich es dir eben mal ausführlich:domain hat geschrieben:Nun sag aber bloß nicht Iasi, dass RAW für dich überhaupt noch eine Rolle spielen dürfte.
Bekanntlich können die betr. Filmer falsch und ohne jedweden Weißabgleich irgenwie belichten, um danach auch mit großartigen Ergebnissen im NLE in der Post aufzuwarten.
Ich glaube, ich werde auch bald so bequem werden, RAW ist was für alternde Tateln, wie mich: bei der Aufnahme kann man nicht mehr viel verhauen. ist was für die Alterssbevölkerung in unseren Breiten.
Schade das du immer noch nicht verstanden hast, das Korrekturfilter bei Bayer-Sensoren nix bringen, außer das du den Sensor in seiner Dynamik beschneidest.iasi hat geschrieben: Ich nehme mal als Beispiel RedRaw:
1. Der Red MX Sensor reagiert nicht sonderlich gutmütig auf große Abweichungen von seinen nativen 5000 Kelvin. Daher sollte man ggf. zu den guten alten Korrekturfiltern greifen.
Was du wieder redest.Valentino hat geschrieben:Schade das du immer noch nicht verstanden hast, das Korrekturfilter bei Bayer-Sensoren nix bringen, außer das du den Sensor in seiner Dynamik beschneidest.iasi hat geschrieben: Ich nehme mal als Beispiel RedRaw:
1. Der Red MX Sensor reagiert nicht sonderlich gutmütig auf große Abweichungen von seinen nativen 5000 Kelvin. Daher sollte man ggf. zu den guten alten Korrekturfiltern greifen.
Das kann man so nicht nachvollziehen, weil es sich um zwei unabhängige Prozesse handelt.cantsin hat geschrieben:Zusammenfassend lässt sich sagen, dass ProRes für ETTR der falsche Codec ist, weil alle Belichtungskorrekturen in der Post zu Gamma-Shifts führen. Also entweder ETTR mit Raw, oder ProRes auf 18% Grau.
Wie wird eigentlich ProRes in der Arri Alexa belichtet? Und: Gibt's das Problem eigentlich auch mit DnXHD?
Die "Schätzungen" sind nicht so schlecht, dass man sie in der Praxis nicht nutzen könnte. Jedoch stimmt der Hinweis mit dem Belichtungsmesser. Will man ganz sicher sein, sollte man wie in guten alten Zeiten messen.WoWu hat geschrieben:
Es macht also überhaupt keinen Sinn über-oder unter zu belichten, wohl aber das Mapping in Richtung ETTR zu verändern.
Und nichts anderes machen die LOG Kurven.
Wer RAW filmt, sollte den guten alten Belichtungsmesser wieder einstecken und die beiden Dynamikpunkte seiner Kamera kennen.
Der Belichtungsmesser ist nämlich deutlich genauer als die unpräzisen Softwaretools in den Kameras, die dazu noch (für die Messung) gefiltert werden. Das sind wirklich nur Schätzungen.
Diese Formulierung könnte man missverstehen: Munter drauf los, die Kurve richtet es schon.WoWu hat geschrieben: Und wenn man dazu noch LOG arbeitet, kann man sich das ETTR sowieso schenken, denn das macht die Kurve schon für die Kamera.
Ich kenne weder den "guten alten" noch die guten neuen, digitalen. Worauf sollte man beim Kauf achten? Auch beim Preis? Wie stelle ich in der Praxis den Bezug zu den Kameraeinstellungen her? Iso einstellen, draufhalten und Blende ablesen? Sorry, absolut ahnungslos.iasi hat geschrieben:Wer RAW filmt, sollte den guten alten Belichtungsmesser wieder einstecken und die beiden Dynamikpunkte seiner Kamera kennen.
Das ist wohl richtig, nur versucht man mit ETTR genau denselben Effekt zu erzeugen, nämlich die Lichtmenge, die den Sensor trifft anzuheben, um den darunter liegenden Noisefloor in der Post (incl. der Lichtanhebung) abzusenken, um dann wieder Schwarz -aber bei einem geringeren Rauschen- zu erreichen.Diese Formulierung könnte man missverstehen: Munter drauf los, die Kurve richtet es schon.
Gehört zwar nicht zum Thema, interessiert mich aber - daher frag ich doch:WoWu hat geschrieben:
Und was die Quanteneffizienz des Sensors angeht ... Auch die Bayermaske besteht nicht aus RGB in den Standardwerten sondern die Farben in den Filtern sind exakt auf die QE angepasst.
Deswegen ist es ja so wichtig, die entsprechenden Werte der exakten Farbe in das De-Bayering zu übernehmen und nicht einfach die Metadaten wegfallen zu lassen.
Das (und noch ein paar Dinge) bedeuten ja eigentlich die "Unterstützung" von DNG.
Fallen solche Metadaten nämlich weg, dann stimmt das nachfolgende De-Bayering nur so ungefähr oder das Bild wird nach gemittelten (Vergleichts-)Werten gerechnet.
Aber das gehört hier eigentlich nicht zum Thema.
Ja, natürlich, das macht einen Unterschied weil Resolve nicht weiss, welches die Originalfarbe des Lichtes war, ohne den Wert des Filters und des effektiv angelegten Wertes zu kennen.Ergibt sich nun ein Unterschied, wenn ich z.B. Resolve sage, es soll statt den Metadaten einen eingegebenen Farbtemperaturwert nutzen?
Da muss ich nochmal nachfragen:WoWu hat geschrieben:Ja, natürlich, das macht einen Unterschied weil Resolve nicht weiss, welches die Originalfarbe des Lichtes war, ohne den Wert des Filters und des effektiv angelegten Wertes zu kennen.Ergibt sich nun ein Unterschied, wenn ich z.B. Resolve sage, es soll statt den Metadaten einen eingegebenen Farbtemperaturwert nutzen?
Adobe macht das in dem DNG Konvertern bei den Formaten, die diese Metadaten nicht mitführen so, dass sie solche Werte aufgrund bekannter Farbmodelle re-engineered. Aber das ist dann eben (mehr oder weniger) Glückssache und hat nur noch eingeschränkt mit der Farbe zu tun, die am Set vorlag.
Das heisst doch nur, dass er so abgestimmt ist, dass er am "kalten Ende" von "Neutrallicht" eine ausgeglichene Quanteneffizienz hat.Der Red MX-Sensor wird mit 5000 Kelvin angegeben.
Nun tu ich mich immer noch ein wenig schwer, das klar zu verstehen.WoWu hat geschrieben:
Ein De Bayerin braucht immer die Korrekturwerte der Farbmaske sonst vergleicht der RAW Konverter immer das Bild mit neutralen Farbmodellen und stellt seine Werte nach stochastischen Statistiken ein.
Das hat aber u.U. nicht mehr viel mit dem Licht am Set zu tun.
So richtig implementiert hat Adobe CinemaDNG doch eigentlich noch gar nicht.WoWu hat geschrieben: Deswegen war ja auch meine Frage (schon etwas her), warum das Signal einer Kamera, die CDNG unterstützt, bei Adobe vorher durch einen "hauseigenen" Converter laufen muss.
Die beste Methode ist noch, DNG lediglich als Container zu benutzen, in dem das original-RAW file optional abgelegt ist und der nachlaufende Converter gemeinsam die Metadaten und das Original-RAW Material benutzt. Das ist genau das Verfahren, was auch in den Kameras zur Anwendung kommt, nur dass man extern eben alternative Algorithmen hat und auf die Einzelparameter Einfluss nehmen kann.