Logo Logo
/// 

tolles a6300 Dynamic Range tuto



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Frage von klusterdegenerierung:


Für alle die eine a6300 besitzen und etwas rund um DR und Slog erfahren möchten.
Nicht zwingend was neues, aber diesmal professionell erklärt und vor allem visualisiert.




Antwort von Roland Schulz:

Man muss sich entscheiden ob man ~14 verrauschte S-Log2/3 Blenden bei ISO800 oder ~13 "saubere" bei Cine1 und ISO125 bevorzugt.
"Ich" ziehe letzteres vor.

Ansonsten gut gemacht, auch nicht schlecht ne 4k€ DSC-XYLA21 "in der Ecke" liegen zu haben ;-)!



Antwort von klusterdegenerierung:

Du meinst aber wohl eher 12 zu 9, 14 ist ne Alexa :-)








Antwort von Roland Schulz:

klusterdegenerierung hat geschrieben:
Du meinst aber wohl eher 12 zu 9, 14 ist ne Alexa :-)
Das sind keine 3 stops Delta zwischen Cine1 und S-Log3, die Zählweise definiere "ich" über "sichtbare" Abstufungen, eine Norm zur Ermittlung des DR gibt's nicht. Beziehen wir den SNR mit ein verliert S-Log weiter.
Klar geht ne Alex weiter, von mir aus sind's da dann 16 stops...



Antwort von Roland Schulz:

Guck Dir das nochmal genau an: Bei PP5 kommen in seinem Test schon 13 sichtbare Balken raus. Da sich der Hintergrund dazu schwarz absetzt differenziert die Kamera ~13 Blenden (1 Balken der Xyla = d1EV), nirgends ist irgendwas anderes zur Messung "definiert"!
In den S-Log Profilen kommen dann "bis zu" 14 Balken zum Vorschein.
Selbst im Youtube Video erkennt man aber schon das starke Rauschen bei den Profilen 7-9!
Vergessen darf man auch nicht dass der Kollege die ganzen Profile nur bis knapp unter IRE100 belichtet/Zebra setzt. Wozu das "allgemein" gut sein soll weiß auch nur er... Cine1 kann man sehr kontrolliert bis ~IRE105 belichten, hab bei mir das Zebra auf 103 gesetzt, passt in der Praxis! Mit Cine2 geht das z.B. nicht, auch nicht wenn man das KneeKnee im Glossar erklärt "invers" anpasst.
Hab wenig mit S-Log gemacht und daher nicht mehr im Kopf wie groß die Ausgangsdynamik war, aber laut seinem Vectorscope kommt ungefähr nur IRE85 dabei raus - "gute" Vorraussetzungen für verrauschtes 8-bit Material ;-)!!

Hab ne eigene "Bastelxyla" hier (aus Lee Filterfolien machen lassen). Nach meinen Tests und Optimierungen fahre "ich" die a6500 mit Cine1 bei ISO125, BL -2, BG mid/+4, KN97,5/+3 "ziemlich gut"!
ISO125 senkt den Schwarzpunkt incl. zusätzlicher Zeichnung gegenüber ISO100 nochmal leicht sichtbar ab ohne deutlich mehr zu rauschen.
ISO100 wäre zwar flacher/"grauer", liefert aber keine zusätzliche sondern eher weniger Zeichnung. Sollte bei der a6300 auch so sein.
Auf ne Cine1 muss man auch keinen Mathe-LK anwenden um das später gucken zu können, das Material behält zudem mehr sichtbare und sinnvolle Abstufungen, gewinnt an "Tiefe und Leben".



Antwort von klusterdegenerierung:

Du nutzt also nie Slog?



Antwort von Roland Schulz:

klusterdegenerierung hat geschrieben:
Du nutzt also nie Slog?
NIEMALS - nur für Tests um erneut festzustellen, dass "ich" damit nichts anfangen kann - muss und soll aber jeder selbst entscheiden...



Antwort von klusterdegenerierung:

Versuche es doch mal an einem sonnigen Tag mit ITTR, da kannst Du die 800Iso gut mit mehreren Blenden über ND oder Verschluß kompensieren.
Das so entstandene Material rauscht dann so wenig, wie abzüglich der ND/Verschluß bezogen auf Iso.

Der entstehende Look ist echt toll und das graden in Resolve macht richtig Laune.
Auf der Convergent Seite habe ich übrigens genau passende & kostenlose SLog luts dafür gefunden,
welche die highlights nicht crushen wie die standart luts in den NLEs.

Wenn Du magst poste ich Dir mal die Adresse oder Luts? :-)



Antwort von Axel:

Hallo ihr beiden. Interessante Diskussion.
"Roland Schulz" hat geschrieben:
Cine1 kann man sehr kontrolliert bis ~IRE105 belichten, hab bei mir das Zebra auf 103 gesetzt, passt in der Praxis! Mit Cine2 geht das z.B. nicht, auch nicht wenn man das KneeKnee im Glossar erklärt "invers" anpasst.
(...)
Auf ne Cine1 muss man auch keinen Mathe-LK anwenden um das später gucken zu können, das Material behält zudem mehr sichtbare und sinnvolle Abstufungen, gewinnt an "Tiefe und Leben".
Wenn sich das nachher bestätigt, wäre ich dir zu großem Dank verpflichtet, denn du hättest mir ~200 € Ausgaben für einen Vari-ND, Step-Up-Ringe und XUME-Adapter erspart. Hatte mich schon auf S-Log2 eingeschossen. Cine1 war, wie ich bereits merkte, für Lowlight weitaus besser geeignet.
Versuche es doch mal an einem sonnigen Tag mit ITTR, da kannst Du die 800Iso gut mit mehreren Blenden über ND oder Verschluß kompensieren.
Das so entstandene Material rauscht dann so wenig, wie abzüglich der ND/Verschluß bezogen auf Iso. Ich stellte öfter fest, dass ich mit ETTR gar nicht so viele Blenden überbelichte ohne ND. Vielleicht wären ISO 125 statt 800 genau das, was fehlt. Wäre schön ...



Antwort von klusterdegenerierung:

Moinsen Axel,
ja das stimmt und kann man besonders gut auf einem Fieldmoni sehen.

Bei meiner FS700 ist es besonders extrem, da ist das Slog bei 2000Iso quasi genauso hell bzw dunkel wie ein normales GammaGamma im Glossar erklärt bei 320Iso.
Da müßte man also für ETTR schon fasst mit 3000ISo oder mehr ran gehen.

Auch festgestellt habe ich, das dies nur sehr begrentzt funktioniert, ein bisschen zu viel overexposed und man ist draussen.



Antwort von mash_gh4:

dass diese völlig übertriebenen empfindlichkeiten der sensoren auch ziemlich gewichtige nachteile mit sich bringen, unterschreib ich sofort! aber erzähl das einmal all den jünglingen dort draußen, die glauben, dass sich sich eine fortschrittliche kamera alleine durch ihre low-light-fähigkeiten auszeichnet. :(

aber, auch wenn ich die meisten bedenken gegenüber den div. log-varianten durchaus teile und das zeug auch kaum praktisch nutze, würde ich die traditionellen alternativen dazu deshalb nicht unbedingt als so viel befriedigender loben. wobei ich den schwerpunkt der kritik hier halt eher auf die farbproblematik und die unbefriedigenden möglichkeiten der liniearisierung, wie sie mir für ernsthafterer eingriffe und korrekturen fast unabdingbar erscheint, legen würde. mit 12bit RAW in log. darstellung könnte ich aber ganz gut leben. ;)



Antwort von Axel:

Ich habe gerade mal Rolands PP5 mit den vorgeschlagenen BL, BG, KneeKnee im Glossar erklärt + Slope auf Iso 125 auf der Terrasse probiert. WB "Wolke" (passt, sieht aus wie Karfreitag, bevor im Allerheiligsten der Vorhang zerreißt), Belichtung Zebra 100, der Wolkenformation (fast schwarz) mit der Sonne dahinter habe ich einen gestreiften Zebra-Saum erlaubt. Dasselbe mit S-Log 2. Ergebnis: schon die (nicht extremen) Schatten der Bambustöpfe rauschen ganz entsetzlich, sobald ich die Mitten etwas hochziehe. Bei S-Log nicht. Bei S-Log (KN77,5, SL+3), obwohl gezwungenermaßen Iso 800 und damit - rein rechnerisch* - zweieinhalb Blenden heller - sehe ich weniger Zebra (auch 100). Wesentlich dramatischerer Himmel, die Vergleichstöpfe rauschen nicht.
(*lässt sich wohl nicht 1:1 übertragen)








Antwort von klusterdegenerierung:

Interessant auch in dem Zusammenhang, das ja aus meiner FS700 über SDISDI im Glossar erklärt angeblich nur Slog Raw bzw nur Raw wenn auch Slog
gewählt ist raus kommen soll, wenn ich das richtig verstanden habe, aber wenn ich ein Standartgamma mit 320Iso bei Raw wähle,
wird dieses auch wie 320 STd GammaGamma im Glossar erklärt dargestellt und rauscht auch nur wie 320Iso.

Da aber auch dies ja Raw ist und genauso gut bearbeitet werden kann, frage ich mich,
warum es bei Cinema DNG überhaupt diesen Unterschied gibt, den es ja eigentlich garnicht geben dürfte , oder?
Blöd ausgedrückt? ;-)



Antwort von Axel:

Bei Raw (Raw ist nicht gleich Raw, wie WoWu nicht müde wird zu betonen) ist die Belichtung im Prinzip wie bei AVCHDAVCHD im Glossar erklärt, bloß, dass durch die höhere Farb- und Helligkeitstiefe die Werte - bezogen auf 8-bit rec709 - nicht eingebacken zu sein scheinen. Richtig müsste es heißen: da bei gleicher Belichtung (die du ja auch von Iso abhängig wählst) mehr Werte vorhanden sind, hast du in Resolve oder ACR mehr Freiheiten. Ein quantitativer Unterschied. Hast du Raw unterbelichtet und ziehst du die unteren Mitten hoch, werden diese genau so rauschen, als hättest du AVCHDAVCHD im Glossar erklärt mit höherer Iso aufgenommen. Eventuell sogar mehr, weil interne NR bei Raw nicht angewendet wird. Ein weiterer Vorteil von Raw sind, unabhängig von dieser Geschichte, die höheren Datenraten = weniger Kompressionsartefakte.

Ich verwende S-Log übrigens mit den von Hrvoje Simic (omeneo primers) vorgeschlagenen Einstellungen (S-Log2 gamma, S-Gamut3Cine, saturation: 25), nur mit weniger Sättigung, nämlich 10, sowie manuellem Knee. Das ist kein PP7 mehr, sondern geht sogar schon über GFILM hinaus, das ja immer noch flat ist. Für Lowlight absolut untauglich (da scheint Cine1 die Nase vorn zu haben). Die mit den feilgebotenen Primers (nichts anderes als minimale Farbanpassungs-Luts) noch leicht korrigierten Farben ließen sich gewiss auch als CC-Filterkombi sichern.

Mir ist klar, dass dies eine unwissenschaftliche Farbpanscherei ist. Aber, wie Mr. Heilbron, der Ersteller des Eingangs-Tutorials, richtig anmerkt, würde ein Menschenleben nicht langen, um sämtliche Kombinationen durchzuprobieren, und irgendwann muss man sich für eine gangbare Lösung entscheiden. Wäre eine Gelegenheit, PNs zu probieren ;-)



Antwort von Roland Schulz:

Axel hat geschrieben:
Ich habe gerade mal Rolands PP5 mit den vorgeschlagenen BL, BG, KneeKnee im Glossar erklärt + Slope auf Iso 125 auf der Terrasse probiert. WB "Wolke" (passt, sieht aus wie Karfreitag, bevor im Allerheiligsten der Vorhang zerreißt), Belichtung Zebra 100, der Wolkenformation (fast schwarz) mit der Sonne dahinter habe ich einen gestreiften Zebra-Saum erlaubt. Dasselbe mit S-Log 2. Ergebnis: schon die (nicht extremen) Schatten der Bambustöpfe rauschen ganz entsetzlich, sobald ich die Mitten etwas hochziehe. Bei S-Log nicht. Bei S-Log (KN77,5, SL+3), obwohl gezwungenermaßen Iso 800 und damit - rein rechnerisch* - zweieinhalb Blenden heller - sehe ich weniger Zebra (auch 100). Wesentlich dramatischerer Himmel, die Vergleichstöpfe rauschen nicht.
(*lässt sich wohl nicht 1:1 übertragen)
Gut dass ich das nochmal getestet habe - jetzt bin ich restlos davon überzeugt dass S-LOG Mist ist ;-)!!
Irgendwas haben wir ggf. anders gemacht, es bleibt dabei, die CINE1 Konstellation bringt mir "bessere" Ergebnisse!
Ich habe Dein Setting mal in nen PP gelegt (S-LOG2, nicht 3, richtig?!) und ebenfalls aus dem Schatten gegen weiße Wolken gefilmt, dabei bei mir mit ~IRE103-105, mit S-LOG ist das "so" nicht erreichbar, komme auf knapp 100. Wenn ich das Ergebnis meiner CINE1 Konstellation jetzt visuell Deinem S-LOG Setting angleichen will kommt eine recht einfache Gammakurve ins Spiel, die ungefähr so aussieht. gamma.JPG Wenn ich mir die Geschichte dann genauer ansehe erkenne ich in der S-LOG Variante dann schon mehr Abrisse und "etwas" mehr Rauschen, wobei das keine Welten sind wenn ich die CINE1 unten nochmal wie dargestellt pushe - irgendwo wird"s dann ja auch sowas wie ISO800.
Vorteile sehe ich bei der S-LOG Geschichte keine, nur Nachteile. Mit der CINE1 Konstellation kann man so schon ne Menge abwickeln ohne nochmal groß ran zu müssen, die S-LOG Variante kann man ohne LUT so niemandem antun. Sind die Tiefen weg kriege ich aus der CINE1 unten das gleiche raus, sogar mit weniger Abrissen.
Ggf. haben wir irgendwas verschieden eingestellt, sicher dass Du bei CINE1 mit ISO125 und nicht ggf. auch mit ISO800 weitergemacht hast?! Hast Du auch ne a6500 oder ne a6300? Ggf. hat sich da durch den neuen Prozessor doch mehr getan als man zunächst dachte. Bei sehr hohen ISOs ist die 6500er auf jeden Fall etwas besser.
Mich kann S-LOG so weiterhin nicht überzeugen, im Gegenteil!



Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
Vorteile sehe ich bei der S-LOG Geschichte keine, nur Nachteile.
und wie gehst du mit dem problem um, dass s-log normalerweise auch in verbindung mit s-gamut genutzt wird, die klassischen profile aber alle bereits rec709 gammut-kompression irreversibel eingebacken haben?



Antwort von klusterdegenerierung:

Roland, ich kann mir wohl vorstellen das Du da viel Ahnung hast und gute Tests machst,
aber die Ergebnisse zu denen Du kommst, verstehe ich nicht!

Wenn ich wie beschrieben aufzeiche, muß ich fasst immer nur runterfahren statt rauf,
so das ich die Tiefen nicht aufhellen muß und wie gesagt, wenn ich dies bei ausreichend Licht mache,
kann ich da nicht viel negatives sehen.

Allerdings muß ich natürlich auch zugeben, das ich diese Szene hier (Screenshot FS700 bei 2000Iso, AVCHDAVCHD im Glossar erklärt 240fps)
nicht auch als Rec709 bzw. std GammaGamma im Glossar erklärt 320Iso gemacht habe und somit nicht sagen kann,
ob mir überhaupt was verloren gegengen wäre.
Aber vielleicht hätte ich damit und evtl. weniger Sorgfalt dann die Arm- & Eiskanten verloren?

Vielleicht brauch ich dann auch mal eure Settings für cine1 etc.
Mir zumindest fällt hier nichts negatives am Ergebnis auf und zudem finde ich den Unterschied
von beiden auch garnicht so groß wie Du sagst.



Antwort von klusterdegenerierung:

klusterdegenerierung hat geschrieben:
Roland, ich kann mir wohl vorstellen das Du da viel Ahnung hast und gute Tests machst,
aber die Ergebnisse zu denen Du kommst, verstehe ich nicht!

Wenn ich wie beschrieben aufzeiche, muß ich fasst immer nur runterfahren statt rauf,
so das ich die Tiefen nicht aufhellen muß und wie gesagt, wenn ich dies bei ausreichend Licht mache,
kann ich da nicht viel negatives sehen.

Allerdings muß ich natürlich auch zugeben, das ich diese Szene hier (Screenshot FS700 bei 2000Iso, AVCHDAVCHD im Glossar erklärt 240fps)
nicht auch als Rec709 bzw. std GammaGamma im Glossar erklärt 320Iso gemacht habe und somit nicht sagen kann,
ob mir überhaupt was verloren gegengen wäre.
Aber vielleicht hätte ich bei etwas wenig Sorgfalt, die Arme- und Eiskanten verloren?

Vielleicht brauch ich dann auch mal eure Settings für cine1 etc.
Mir zumindest fällt hier nichts negatives am Ergebnis auf und zudem finde ich den Unterschied
von beiden auch garnicht so groß wie Du sagst.




Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
Man muss sich entscheiden ob man ~14 verrauschte S-Log2/3 Blenden bei ISO800 oder ~13 "saubere" bei Cine1 und ISO125 bevorzugt.
"Ich" ziehe letzteres vor.
Also sicher nicht grundsätzlich, denn es ist nicht richtig dass slog generell rauscht. Das weist dann eher auf ungünstige Einstellungen hin.



Antwort von domain:

Ich glaube fast, dass hinter den vielen Einstellmöglichkeiten eine Marketingstrategie steckt: was aktuell Wertvolles zu filmen überlässt man den Smartphoneinhabern, der Rest ist zeitlebens damit beschäftigt, für die hypothetischen zukünftigen Aufnahmen die Einstellungen zu durchforsten und zu optimieren :-)



Antwort von klusterdegenerierung:

Man darf auch nie vergessen, das ist 8Bit und wir können uns alle noch daran erinnern,
wie 8Bit 25Mbit aus einem Henkelmann aussieht!

Hier noch mal ein screenshot meines Sohnes, der bei einer AG160 etc. bestimmt keine intackten highlights mehr gehabt hätte!
Gut, etwas unpassender Vergleich, aber ihr wisst wie das aussehen kann?!

Aber ich will mich da auch gern belehren lassen, vielleicht hätte es mit einem geeigneten Profil bei weiniger Iso genauso ausgesehen?








Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
"Roland Schulz" hat geschrieben:
Vorteile sehe ich bei der S-LOG Geschichte keine, nur Nachteile.
und wie gehst du mit dem problem um, dass s-log normalerweise auch in verbindung mit s-gamut genutzt wird, die klassischen profile aber alle bereits rec709 gammut-kompression irreversibel eingebacken haben?
...wo kommt das denn her ;-)?!?!
Technisch wie praktisch ist das nicht korrekt, die Y-Dimension ist von der UV-Dimension völlig unabhängig.
Zudem lässt sich das zumindest bei Sony frei wählen und zuweisen.



Antwort von Roland Schulz:

klusterdegenerierung hat geschrieben:
Roland, ich kann mir wohl vorstellen das Du da viel Ahnung hast und gute Tests machst,
aber die Ergebnisse zu denen Du kommst, verstehe ich nicht!

Wenn ich wie beschrieben aufzeiche, muß ich fasst immer nur runterfahren statt rauf,
so das ich die Tiefen nicht aufhellen muß und wie gesagt, wenn ich dies bei ausreichend Licht mache,
kann ich da nicht viel negatives sehen.

Allerdings muß ich natürlich auch zugeben, das ich diese Szene hier (Screenshot FS700 bei 2000Iso, AVCHDAVCHD im Glossar erklärt 240fps)
nicht auch als Rec709 bzw. std GammaGamma im Glossar erklärt 320Iso gemacht habe und somit nicht sagen kann,
ob mir überhaupt was verloren gegengen wäre.
Aber vielleicht hätte ich damit und evtl. weniger Sorgfalt dann die Arm- & Eiskanten verloren?

Vielleicht brauch ich dann auch mal eure Settings für cine1 etc.
Mir zumindest fällt hier nichts negatives am Ergebnis auf und zudem finde ich den Unterschied
von beiden auch garnicht so groß wie Du sagst.
S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken, die Cine1 habe ich mit der dargestellten GammaGamma im Glossar erklärt aufgehellt, um erstmal das "gleiche" Ergebnis wie das S-Log zu erhalten. Die "Qualität" war hier trotzdem noch "besser".
In der Praxis passt die Cine1 dazu auch meistens schon OOC, zumindest muss weniger verlustbehaftet verbogen werden.



Antwort von wolfgang:

domain hat geschrieben:
Ich glaube fast, dass hinter den vielen Einstellmöglichkeiten eine Marketingstrategie steckt: was aktuell Wertvolles zu filmen überlässt man den Smartphoneinhabern, der Rest ist zeitlebens damit beschäftigt, für die hypothetischen zukünftigen Aufnahmen die Einstellungen zu durchforsten und zu optimieren :-)
Verwechsle das nicht mit der Unwissenheit, die hier vorherrscht.



Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
Technisch wie praktisch ist das nicht korrekt, die Y-Dimension ist von der UV-Dimension völlig unabhängig.
so einfach ist das nicht -- mit den kanälen, egal ob RGBRGB im Glossar erklärt od. irgendeiner YUV-variante, hat das nicht viel zu tun, sondern mit den tatsächlichen abbildungsmöglichkeiten und referenzen der farbdarstellung. sensoren nehmen ja gewöhnlich wesentlich größere farbbereiche wahr, als sie sich in rec709 wiedergeben lassen. das ist auch weiter kein problem, wenn man den rest einfach bewusst ausklammert, unterdrückt od. eben in verzerrter weise ins bild holt. nur ist es wirklich ungut, wenn das geschieht, bevor entsprechende nachträgliche korrekturen bzw. entscheidungen über ein möglichst passende adaption erfolgen. das ist jedenfalls der technische hintergrund, warum man z.b. dem panasonic CineD keine wirklich befriedigenden farben entlocken kann.
"Roland Schulz" hat geschrieben:
Zudem lässt sich das zumindest bei Sony frei wählen und zuweisen.
interessant -- bei den panasonics geht das definitv nicht. dort gibt es v-gammut nur im zusammenspiel mit v-log. ich kann mir aber ehrlich gestanden auch nicht vorstellen, wer sich rec709-profile mit s-gamut im sony umefeld antun sollte? (obwohl ich mir techn. schon vorstellen könnte, dass man derartige exotische kombination im OpenColorIO tatsächlichg konfiguirieren und nutzen könnte)



Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken
Wenn man slog korrekt aufgenommen hat, und die Aufnahme macht man eher mit einer gewissen Überbelichtung, dann wir man bei slog zwingend in der Postproduktion den Mittelgrauwert und den Weißwert absenken müssen.
http://www.xdcam-user.com/2014/12/ultim ... y-pxw-fs7/

Und zwar deshalb, weil slog eben nicht von sich aus rauscht - den rauschen tut der Sensor und man bekommt verrauschtes Material daher nur wenn man das Material es falsch belichtet hat. Wer tatsächlich meint dass slog rauscht hat einen Schulungsbedarf, meint zumindest Herr Uli Mores, Author von http://www.fs7handbuch.de/

Und richtig belichten tut man slog immer so, dass man dafür sorgt dass mehr Licht auf den Sensor kommt - etwa eine halbe bis eineinhalb Blendenstufen mehr als es den klassischen 18% Grauwert und 90% Weißwert entspricht. Und das dann in der Postproduktion eben exakt um diesen Wert korrigiert.



Antwort von Roland Schulz:

wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:
Man muss sich entscheiden ob man ~14 verrauschte S-Log2/3 Blenden bei ISO800 oder ~13 "saubere" bei Cine1 und ISO125 bevorzugt.
"Ich" ziehe letzteres vor.
Also sicher nicht grundsätzlich, denn es ist nicht richtig dass slog generell rauscht. Das weist dann eher auf ungünstige Einstellungen hin.
Jein, nicht ganz falsch. Das Rauschen welches aber immer da ist wird durch Skalierung/Transformation mit einer LUT an den Inkrementen nochmals verstärkt (Abrisse "wackeln") - schwer auszudrücken...
Man kriegt Verläufe in einer begrenzten QuantisierungQuantisierung im Glossar erklärt nicht "fliessender", indem man mit einer Übertragungsfunktion skaliert und dann gleichzeitig in einem begrenzten Wertebereich abbildet. Ganz schlimm wirds wenn das alles auf Integerbasis geschieht. Dazu gehört aber jedes Grading mit geringer Quantisierung.



Antwort von wolfgang:

Roland, ich habs dir gerade im anderen Thread geschrieben: rauschen tut nicht slog sondern rauschen tut immer der Sensor. Diese Äußerung ist eher blamabel.

Punkt 1.

Punkt 2: wenn du für die Linearisierung zu rec709 einen LUT verwendest, dann verwende den korrekt. Moderne Applikationen interpolieren die Stützstellen der LUTs, und da reißt gar nichts ab weil eine Integerberechnung ist bei 32bit Floating Point mehr als nur veraltet. Wenn was abreißt dann höchstens im oberen Bereich weil du ins Clipping gehst. Und das vermeidest so, dass du den LUT an die Ende der Rechenkette stellst. Was übrigens Resolve automatisch macht, in einem node wirkt der LUT immer zum Schluss.

Also wirklich: befasse dich mal mit diesen Dingen und erzählt bitte nicht, dass die Grundlagen falsch sind.



Antwort von klusterdegenerierung:

wolfgang hat geschrieben:
Herr Uli Mores, Author von http://www.fs7handbuch.de/
Haha, lustig, Uli Mörs, bei dem habe ich 2012 meinen Sony FS700 Masterclass Schein gemacht! :-)



Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
"Roland Schulz" hat geschrieben:
Technisch wie praktisch ist das nicht korrekt, die Y-Dimension ist von der UV-Dimension völlig unabhängig.
so einfach ist das nicht -- mit den kanälen, egal ob RGBRGB im Glossar erklärt od. irgendeiner YUV-variante, hat das nicht viel zu tun, sondern mit den tatsächlichen abbildungsmöglichkeiten und referenzen der farbdarstellung. sensoren nehmen ja gewöhnlich wesentlich größere farbbereiche wahr, als sie sich in rec709 wiedergeben lassen. das ist auch weiter kein problem, wenn man den rest einfach bewusst ausklammert, unterdrückt od. eben in verzerrter weise ins bild holt. nur ist es wirklich ungut, wenn das geschieht, bevor entsprechende nachträgliche korrekturen bzw. entscheidungen über ein möglichst passende adaption erfolgen. das ist jedenfalls der technische hintergrund, warum man z.b. dem panasonic CineD keine wirklich befriedigenden farben entlocken kann.
"Roland Schulz" hat geschrieben:
Zudem lässt sich das zumindest bei Sony frei wählen und zuweisen.
interessant -- bei den panasonics geht das definitv nicht. dort gibt es v-gammut nur im zusammenspiel mit v-log. ich kann mir aber ehrlich gestanden auch nicht vorstellen, wer sich rec709-profile mit s-gamut im sony umefeld antun sollte? (obwohl ich mir techn. schon vorstellen könnte, dass man derartige exotische kombination im OpenColorIO tatsächlichg konfiguirieren und nutzen könnte)
Hätte, könnte, wenn: Alle Kurven die bei der Graduation bzw. deren Übertragung zum Einsatz kommen sind Y-Kurven, welche nach dem Demosaicing aus RGBRGB im Glossar erklärt Werten des Sensors gebildet werden.
Welche Farbumfänge (Gamuts) die Kamera erfassen kann hängt in erster Linie von den eingesetzten Farbfiltern ab. Da kommen wir aber i.d.R. nicht mehr dran, es sei denn wir haben RAW Dateien.
Gamuts stellen nichts weiter als eine Begrenzung bzw. Skalierung des Farbraums dar, d.h. welcher interne UV Wert wie stark multipliziert in das Ausgangssignal abgebildet wird. Auch hier gilt nicht "zu übertreiben", da bei begrenzter QuantisierungQuantisierung im Glossar erklärt (8-bit...) wieder Abrisse entstehen können, "übergroße" Farbräume in der Praxis auch keinen Sinn machen, da extreme Farben in der Natur selten vorkommen und andererseits Ausgabegeräte diese selten darstellen können.
Anwendungsfälle mag es in geringem Umfang dennoch geben!








Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
Hätte, könnte, wenn: Alle Kurven die bei der Graduation bzw. deren Übertragung zum Einsatz kommen sind Y-Kurven, welche nach dem Demosaicing aus RGBRGB im Glossar erklärt Werten des Sensors gebildet werden.
Welche Farbumfänge (Gamuts) die Kamera erfassen kann hängt in erster Linie von den eingesetzten Farbfiltern ab. Da kommen wir aber i.d.R. nicht mehr dran, es sei denn wir haben RAW Dateien.
Gamuts stellen nichts weiter als eine Begrenzung bzw. Skalierung des Farbraums dar, d.h. welcher interne UV Wert wie stark multipliziert in das Ausgangssignal abgebildet wird.
was die technische beschribung angeht, gehe ich großteils d'accore -- nur das die betreffenden werte halt in den meisten kameras nicht einfach nur multipliziert werden, sondern ziemlich ungute komplexere gammut kompressionen genutzt werden, die sich nachträglich nur mehr sehr schwer umkehren bzw. rausrechnen lassen.
"Roland Schulz" hat geschrieben:
Auch hier gilt nicht "zu übertreiben", da bei begrenzter QuantisierungQuantisierung im Glossar erklärt (8-bit...) wieder Abrisse entstehen können, "übergroße" Farbräume in der Praxis auch keinen Sinn machen, da extreme Farben in der Natur selten vorkommen und andererseits Ausgabegeräte diese selten darstellen können.
Anwendungsfälle mag es in geringem Umfang dennoch geben!
in dem punkt stimme ich dir wieder voll zu! diese probleme mit unnötig groß bemessenen farbbezugsräumen gibt es leider in der tat. im falle von panasonic v-log/v-gamut ist es der grund dafür, warum in gering gesättigen gleichmäßigen farbverläufen, diese schrecklichen sprünge in der grün-mangenta-achse auftauchen. das schaut in der praxis schrecklich aus und bildeten eben im farbumfeld das unmittelbare gegenstück zu jenen problemen, die man bekommt, wenn man den vollen dynamikumfang in den verhälnismäßig kleinen v-log werteumfang zu stopfen versucht.

trotzdem bleibt die tatsache zurück, die abbildung der farben in v-log viel genauer den tatsächlich abgebildeten werte (bspw. auf testcharts) entspricht, als in allen rec709 bildprofilen. und das lässt sich leider auch mit trickreichen 3d-lust kaum beheben. spätestens, wenn man bspw. aufnahmen aus zwei verschiedene kameras tatsächlich vernünftig aneinander angleichen will, wird das auch in der praxis zu einem äußerst ärgerlichen problem.



Antwort von Roland Schulz:

wolfgang hat geschrieben:
Roland, ich habs dir gerade im anderen Thread geschrieben: rauschen tut nicht slog sondern rauschen tut immer der Sensor. Diese Äußerung ist eher blamabel.

Punkt 1.

Punkt 2: wenn du für die Linearisierung zu rec709 einen LUT verwendest, dann verwende den korrekt. Moderne Applikationen interpolieren die Stützstellen der LUTs, und da reißt gar nichts ab weil eine Integerberechnung ist bei 32bit Floating Point mehr als nur veraltet. Wenn was abreißt dann höchstens im oberen Bereich weil du ins Clipping gehst. Und das vermeidest so, dass du den LUT an die Ende der Rechenkette stellst. Was übrigens Resolve automatisch macht, in einem node wirkt der LUT immer zum Schluss.

Also wirklich: befasse dich mal mit diesen Dingen und erzählt bitte nicht, dass die Grundlagen falsch sind.
Jetzt werden aber die letzten morschen Fäden gezogen ;-)!! NATÜRLICH rauscht eine Übertragungsfunktion nicht sondern das System in dem sie eingebunden ist, mir so ne tote Ratte in die Socken schieben zu wollen disqualifiziert Dich hier eigentlich von jeglicher weiteren, gemeinsamen Diskussion. Wir sind hier nicht im Kindergarten beim kleinen 1x1!

Erzähl mal Sony oder irgendwem dass Du bereits in der Kamera FP-OPs haben willst um die GammaGamma im Glossar erklärt auf die interpolierten Sensordaten zu legen - ne Ahnung wie groß der Unterschied der Rechenaufwände ist?! Befasse Dich mal mit Dingen... wir sind hier über die theoretischen Grundlagen hinaus, die Praxis sieht anders aus.
Wenn Du in Resolve gerne mit "echtem" FP arbeitest mach das, ich bin dafür mit EDIUS und 16/32/64 bit Festkommaoperationen seit Stunden fertig. Darum gehts auch gar nicht! Das was mit Abrissen aus der Kamera kommt (der Wertebereich der xLOG Funktionen ist fast überall kleiner als 8/n-bit, zudem im "Mittelfeld" ungünstig verteilt) wirst Du auch mit FP-OPs nicht mehr "richtig" bügeln. Mit den Stützstellen der LUTs hat das überhaupt nichts zu tun, wer hat das behauptet?! Du müsstest hier die Werte der benachbarten PixelPixel im Glossar erklärt neu abschätzen bzw. interpolieren, nen Debandingfilter o.ä. einsetzen. Die reduzieren aber die Auflösung und bringen andere Effekte mit sich.
Das was man bei der Aufnahme bereits versaut hat biegt man in 8/10-bit Codecs nicht mehr in die Reihe, der Fehler verstärkt sich zudem wenn man alles wieder in ne 8-bit Ausgangsdynamik bringen muss, egal auf welches ppm du intern gerechnet hast!! Es gibt hier kein Fach zwischen zwei Schubladen und wenn du bereits eingangs falsch gerechnet hast überspringst du auch das ein oder andere Ziel!



Antwort von Roland Schulz:

wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:
S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken
Wenn man slog korrekt aufgenommen hat, und die Aufnahme macht man eher mit einer gewissen Überbelichtung, dann wir man bei slog zwingend in der Postproduktion den Mittelgrauwert und den Weißwert absenken müssen.
http://www.xdcam-user.com/2014/12/ultim ... y-pxw-fs7/

Und zwar deshalb, weil slog eben nicht von sich aus rauscht - den rauschen tut der Sensor und man bekommt verrauschtes Material daher nur wenn man das Material es falsch belichtet hat. Wer tatsächlich meint dass slog rauscht hat einen Schulungsbedarf, meint zumindest Herr Uli Mores, Author von http://www.fs7handbuch.de/

Und richtig belichten tut man slog immer so, dass man dafür sorgt dass mehr Licht auf den Sensor kommt - etwa eine halbe bis eineinhalb Blendenstufen mehr als es den klassischen 18% Grauwert und 90% Weißwert entspricht. Und das dann in der Postproduktion eben exakt um diesen Wert korrigiert.
...gemeint war natürlich der Post wie es sich aus dem Zusammenhang ergibt. Etwas schwierig geworden hier, diesen Deinen Post hatte ich bisher gar nicht gelesen, hängt anscheinend immer noch manchmal in der Forumsoftware rum....



Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
was die technische beschribung angeht, gehe ich großteils d'accore -- nur das die betreffenden werte halt in den meisten kameras nicht einfach nur multipliziert werden, sondern ziemlich ungute komplexere gammut kompressionen genutzt werden, die sich nachträglich nur mehr sehr schwer umkehren bzw. rausrechnen lassen.
...was ist eine "Kompression" in Zusammenhang des Gamuts?!
Eine "Multiplikation" - nicht mit einem einzigen Faktor, sondern wieder mit einer Übertragungsfunktion, ebenfalls wieder nichtlinear.
In diesem Fall aber umgekehrt zur Lumafunktion, mit zunehmend mehr Abstufungen im "oberen" Bereich, da hier Abrisse stärker auffallen als in "Pastelltönen" - einverstanden ;-)??!



Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
...was ist eine "Kompression" in Zusammenhang des Gamuts?!
"gamut compression" ist der gängige fachbegriff für die gebräuchlichste variante, wie sensor-farbraume in das rec709 bezugssystem übertragen werden...

wobei sich solche fragen ja nicht nur hier stellen, sondern auch in sehr vielen anderen zusammenhängen der bildverarbeitung am computer und im druckgewerbe -- überall dort, wo vernünftiges color management sinn macht.

hier eine netter link dazu, wo das sogar in einem video veranschaulicht wird :)

http://www.johnpaulcaponigro.com/blog/t ... mpression/





Antwort von Roland Schulz:

Sorry, meine "Frage" war rein rhetorischer Natur ;-), dachte das wurde klar da die Erklärung unmittelbar folgte...

In der Druckvorstufe bin ich auch ganz gut unterwegs ;-), dort gibt's zur Gamut Adaption sogar verschiedene, von der icc.org "standardisierte" Rendering Intents, wobei "eigentlich" nur zwei in der Praxis Anwendung finden (relativ farbmetrisch und perzeptiv, zzgl. der Option der Tiefenanpassung). Die Adaptionen werden hier bereits in die Farbprofile eingebunden, macht aber auch jeder etwas anders, wobei es nicht mehr sooo viele Hersteller gibt (Gretag Macbeth und Monaco sind seinerzeit in X-Rite integriert worden, dann gibt's da noch basiccolor und ein paar wenige mehr...).




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Antworten zu ähnlichen Fragen:
Tolles Scarlet footage behind the scene tuto
Dynamic Range in Prozentangaben?
4K Kameras Dynamic Range Shootout 2016
Canon C500: Wide dynamic range?
Dialogue Levels and Dynamic Range (Netflix)
Dynamic Range Video Vergleich Lumix S1 Fuji X-T3
Dynamic Range vs Base ISO mit Slog am Beispiel Sony erklärt?
Sony Alpha 7000 - Kommendes Dynamikwunder dank Digital Overlap High Dynamic Range?
Gutes Slog grading tuto
Tolles colorconcept!
Tolles Bokeh für ein paar Euro :-)
Scarlet vs Varicam Dynamic Test
Trapcode Suite 15 für After Effects -- erstmals mit Dynamic Fluids Engine
Dynamic Perspective XimeraX5: Profi 5-Achsen Gimbal Kameraplatform // NAB 2018
Blitzsynchronisationszeit der a6300?
FS700+Odyssey VS A6300
Canon 10-18mm an a6300!
Sony A6300 oder A6500 ?
Sony A6300 + PlayMemoriesMobile App
A6300 externer Monitor gesucht
Christoph 76 + a6300 + Zhiyun Crane
Sony A6300 oder Panasonic G81?
Neue Firmware v1.10 für Sony A6300
Sony A7, A6300, F5 Gammakurven leicht gemacht!
Crane v2 + Sony A6300 + 10-18er - Balancing?
Badenfahrt 2017 – a6300 Lowlight Test

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom