Das sind keine 3 stops Delta zwischen Cine1 und S-Log3, die Zählweise definiere "ich" über "sichtbare" Abstufungen, eine Norm zur Ermittlung des DR gibt's nicht. Beziehen wir den SNR mit ein verliert S-Log weiter.klusterdegenerierung hat geschrieben: ↑Mo 17 Apr, 2017 23:35 Du meinst aber wohl eher 12 zu 9, 14 ist ne Alexa :-)
NIEMALS - nur für Tests um erneut festzustellen, dass "ich" damit nichts anfangen kann - muss und soll aber jeder selbst entscheiden...
Wenn sich das nachher bestätigt, wäre ich dir zu großem Dank verpflichtet, denn du hättest mir ~200 € Ausgaben für einen Vari-ND, Step-Up-Ringe und XUME-Adapter erspart. Hatte mich schon auf S-Log2 eingeschossen. Cine1 war, wie ich bereits merkte, für Lowlight weitaus besser geeignet.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 00:41Cine1 kann man sehr kontrolliert bis ~IRE105 belichten, hab bei mir das Zebra auf 103 gesetzt, passt in der Praxis! Mit Cine2 geht das z.B. nicht, auch nicht wenn man das Knee "invers" anpasst.
(...)
Auf ne Cine1 muss man auch keinen Mathe-LK anwenden um das später gucken zu können, das Material behält zudem mehr sichtbare und sinnvolle Abstufungen, gewinnt an "Tiefe und Leben".
Ich stellte öfter fest, dass ich mit ETTR gar nicht so viele Blenden überbelichte ohne ND. Vielleicht wären ISO 125 statt 800 genau das, was fehlt. Wäre schön ...klusterdegenerierung hat geschrieben:Versuche es doch mal an einem sonnigen Tag mit ITTR, da kannst Du die 800Iso gut mit mehreren Blenden über ND oder Verschluß kompensieren.
Das so entstandene Material rauscht dann so wenig, wie abzüglich der ND/Verschluß bezogen auf Iso.
Gut dass ich das nochmal getestet habe - jetzt bin ich restlos davon überzeugt dass S-LOG Mist ist ;-)!!Axel hat geschrieben: ↑Di 18 Apr, 2017 15:47 Ich habe gerade mal Rolands PP5 mit den vorgeschlagenen BL, BG, Knee + Slope auf Iso 125 auf der Terrasse probiert. WB "Wolke" (passt, sieht aus wie Karfreitag, bevor im Allerheiligsten der Vorhang zerreißt), Belichtung Zebra 100, der Wolkenformation (fast schwarz) mit der Sonne dahinter habe ich einen gestreiften Zebra-Saum erlaubt. Dasselbe mit S-Log 2. Ergebnis: schon die (nicht extremen) Schatten der Bambustöpfe rauschen ganz entsetzlich, sobald ich die Mitten etwas hochziehe. Bei S-Log nicht. Bei S-Log (KN77,5, SL+3), obwohl gezwungenermaßen Iso 800 und damit - rein rechnerisch* - zweieinhalb Blenden heller - sehe ich weniger Zebra (auch 100). Wesentlich dramatischerer Himmel, die Vergleichstöpfe rauschen nicht.
(*lässt sich wohl nicht 1:1 übertragen)
und wie gehst du mit dem problem um, dass s-log normalerweise auch in verbindung mit s-gamut genutzt wird, die klassischen profile aber alle bereits rec709 gammut-kompression irreversibel eingebacken haben?Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 18:12Vorteile sehe ich bei der S-LOG Geschichte keine, nur Nachteile.
Also sicher nicht grundsätzlich, denn es ist nicht richtig dass slog generell rauscht. Das weist dann eher auf ungünstige Einstellungen hin.Roland Schulz hat geschrieben: ↑Mo 17 Apr, 2017 22:50 Man muss sich entscheiden ob man ~14 verrauschte S-Log2/3 Blenden bei ISO800 oder ~13 "saubere" bei Cine1 und ISO125 bevorzugt.
"Ich" ziehe letzteres vor.
...wo kommt das denn her ;-)?!?!mash_gh4 hat geschrieben: ↑Di 18 Apr, 2017 18:58und wie gehst du mit dem problem um, dass s-log normalerweise auch in verbindung mit s-gamut genutzt wird, die klassischen profile aber alle bereits rec709 gammut-kompression irreversibel eingebacken haben?Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 18:12Vorteile sehe ich bei der S-LOG Geschichte keine, nur Nachteile.
S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken, die Cine1 habe ich mit der dargestellten Gamma aufgehellt, um erstmal das "gleiche" Ergebnis wie das S-Log zu erhalten. Die "Qualität" war hier trotzdem noch "besser".klusterdegenerierung hat geschrieben: ↑Di 18 Apr, 2017 19:03 Roland, ich kann mir wohl vorstellen das Du da viel Ahnung hast und gute Tests machst,
aber die Ergebnisse zu denen Du kommst, verstehe ich nicht!
Wenn ich wie beschrieben aufzeiche, muß ich fasst immer nur runterfahren statt rauf,
so das ich die Tiefen nicht aufhellen muß und wie gesagt, wenn ich dies bei ausreichend Licht mache,
kann ich da nicht viel negatives sehen.
Allerdings muß ich natürlich auch zugeben, das ich diese Szene hier (Screenshot FS700 bei 2000Iso, AVCHD 240fps)
nicht auch als Rec709 bzw. std Gamma 320Iso gemacht habe und somit nicht sagen kann,
ob mir überhaupt was verloren gegengen wäre.
Aber vielleicht hätte ich damit und evtl. weniger Sorgfalt dann die Arm- & Eiskanten verloren?
Vielleicht brauch ich dann auch mal eure Settings für cine1 etc.
Mir zumindest fällt hier nichts negatives am Ergebnis auf und zudem finde ich den Unterschied
von beiden auch garnicht so groß wie Du sagst.
Verwechsle das nicht mit der Unwissenheit, die hier vorherrscht.domain hat geschrieben: ↑Di 18 Apr, 2017 19:29 Ich glaube fast, dass hinter den vielen Einstellmöglichkeiten eine Marketingstrategie steckt: was aktuell Wertvolles zu filmen überlässt man den Smartphoneinhabern, der Rest ist zeitlebens damit beschäftigt, für die hypothetischen zukünftigen Aufnahmen die Einstellungen zu durchforsten und zu optimieren :-)
so einfach ist das nicht -- mit den kanälen, egal ob RGB od. irgendeiner YUV-variante, hat das nicht viel zu tun, sondern mit den tatsächlichen abbildungsmöglichkeiten und referenzen der farbdarstellung. sensoren nehmen ja gewöhnlich wesentlich größere farbbereiche wahr, als sie sich in rec709 wiedergeben lassen. das ist auch weiter kein problem, wenn man den rest einfach bewusst ausklammert, unterdrückt od. eben in verzerrter weise ins bild holt. nur ist es wirklich ungut, wenn das geschieht, bevor entsprechende nachträgliche korrekturen bzw. entscheidungen über ein möglichst passende adaption erfolgen. das ist jedenfalls der technische hintergrund, warum man z.b. dem panasonic CineD keine wirklich befriedigenden farben entlocken kann.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:54 Technisch wie praktisch ist das nicht korrekt, die Y-Dimension ist von der UV-Dimension völlig unabhängig.
interessant -- bei den panasonics geht das definitv nicht. dort gibt es v-gammut nur im zusammenspiel mit v-log. ich kann mir aber ehrlich gestanden auch nicht vorstellen, wer sich rec709-profile mit s-gamut im sony umefeld antun sollte? (obwohl ich mir techn. schon vorstellen könnte, dass man derartige exotische kombination im OpenColorIO tatsächlichg konfiguirieren und nutzen könnte)Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:54Zudem lässt sich das zumindest bei Sony frei wählen und zuweisen.
Wenn man slog korrekt aufgenommen hat, und die Aufnahme macht man eher mit einer gewissen Überbelichtung, dann wir man bei slog zwingend in der Postproduktion den Mittelgrauwert und den Weißwert absenken müssen.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:59 S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken
Jein, nicht ganz falsch. Das Rauschen welches aber immer da ist wird durch Skalierung/Transformation mit einer LUT an den Inkrementen nochmals verstärkt (Abrisse "wackeln") - schwer auszudrücken...wolfgang hat geschrieben: ↑Di 18 Apr, 2017 19:20Also sicher nicht grundsätzlich, denn es ist nicht richtig dass slog generell rauscht. Das weist dann eher auf ungünstige Einstellungen hin.Roland Schulz hat geschrieben: ↑Mo 17 Apr, 2017 22:50 Man muss sich entscheiden ob man ~14 verrauschte S-Log2/3 Blenden bei ISO800 oder ~13 "saubere" bei Cine1 und ISO125 bevorzugt.
"Ich" ziehe letzteres vor.
Haha, lustig, Uli Mörs, bei dem habe ich 2012 meinen Sony FS700 Masterclass Schein gemacht! :-)wolfgang hat geschrieben: ↑Di 18 Apr, 2017 20:08 Herr Uli Mores, Author von http://www.fs7handbuch.de/
Hätte, könnte, wenn: Alle Kurven die bei der Graduation bzw. deren Übertragung zum Einsatz kommen sind Y-Kurven, welche nach dem Demosaicing aus RGB Werten des Sensors gebildet werden.mash_gh4 hat geschrieben: ↑Di 18 Apr, 2017 20:07so einfach ist das nicht -- mit den kanälen, egal ob RGB od. irgendeiner YUV-variante, hat das nicht viel zu tun, sondern mit den tatsächlichen abbildungsmöglichkeiten und referenzen der farbdarstellung. sensoren nehmen ja gewöhnlich wesentlich größere farbbereiche wahr, als sie sich in rec709 wiedergeben lassen. das ist auch weiter kein problem, wenn man den rest einfach bewusst ausklammert, unterdrückt od. eben in verzerrter weise ins bild holt. nur ist es wirklich ungut, wenn das geschieht, bevor entsprechende nachträgliche korrekturen bzw. entscheidungen über ein möglichst passende adaption erfolgen. das ist jedenfalls der technische hintergrund, warum man z.b. dem panasonic CineD keine wirklich befriedigenden farben entlocken kann.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:54 Technisch wie praktisch ist das nicht korrekt, die Y-Dimension ist von der UV-Dimension völlig unabhängig.
interessant -- bei den panasonics geht das definitv nicht. dort gibt es v-gammut nur im zusammenspiel mit v-log. ich kann mir aber ehrlich gestanden auch nicht vorstellen, wer sich rec709-profile mit s-gamut im sony umefeld antun sollte? (obwohl ich mir techn. schon vorstellen könnte, dass man derartige exotische kombination im OpenColorIO tatsächlichg konfiguirieren und nutzen könnte)Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:54Zudem lässt sich das zumindest bei Sony frei wählen und zuweisen.
was die technische beschribung angeht, gehe ich großteils d'accore -- nur das die betreffenden werte halt in den meisten kameras nicht einfach nur multipliziert werden, sondern ziemlich ungute komplexere gammut kompressionen genutzt werden, die sich nachträglich nur mehr sehr schwer umkehren bzw. rausrechnen lassen.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 20:21 Hätte, könnte, wenn: Alle Kurven die bei der Graduation bzw. deren Übertragung zum Einsatz kommen sind Y-Kurven, welche nach dem Demosaicing aus RGB Werten des Sensors gebildet werden.
Welche Farbumfänge (Gamuts) die Kamera erfassen kann hängt in erster Linie von den eingesetzten Farbfiltern ab. Da kommen wir aber i.d.R. nicht mehr dran, es sei denn wir haben RAW Dateien.
Gamuts stellen nichts weiter als eine Begrenzung bzw. Skalierung des Farbraums dar, d.h. welcher interne UV Wert wie stark multipliziert in das Ausgangssignal abgebildet wird.
in dem punkt stimme ich dir wieder voll zu! diese probleme mit unnötig groß bemessenen farbbezugsräumen gibt es leider in der tat. im falle von panasonic v-log/v-gamut ist es der grund dafür, warum in gering gesättigen gleichmäßigen farbverläufen, diese schrecklichen sprünge in der grün-mangenta-achse auftauchen. das schaut in der praxis schrecklich aus und bildeten eben im farbumfeld das unmittelbare gegenstück zu jenen problemen, die man bekommt, wenn man den vollen dynamikumfang in den verhälnismäßig kleinen v-log werteumfang zu stopfen versucht.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 20:21Auch hier gilt nicht "zu übertreiben", da bei begrenzter Quantisierung (8-bit...) wieder Abrisse entstehen können, "übergroße" Farbräume in der Praxis auch keinen Sinn machen, da extreme Farben in der Natur selten vorkommen und andererseits Ausgabegeräte diese selten darstellen können.
Anwendungsfälle mag es in geringem Umfang dennoch geben!
Jetzt werden aber die letzten morschen Fäden gezogen ;-)!! NATÜRLICH rauscht eine Übertragungsfunktion nicht sondern das System in dem sie eingebunden ist, mir so ne tote Ratte in die Socken schieben zu wollen disqualifiziert Dich hier eigentlich von jeglicher weiteren, gemeinsamen Diskussion. Wir sind hier nicht im Kindergarten beim kleinen 1x1!wolfgang hat geschrieben: ↑Di 18 Apr, 2017 20:14 Roland, ich habs dir gerade im anderen Thread geschrieben: rauschen tut nicht slog sondern rauschen tut immer der Sensor. Diese Äußerung ist eher blamabel.
Punkt 1.
Punkt 2: wenn du für die Linearisierung zu rec709 einen LUT verwendest, dann verwende den korrekt. Moderne Applikationen interpolieren die Stützstellen der LUTs, und da reißt gar nichts ab weil eine Integerberechnung ist bei 32bit Floating Point mehr als nur veraltet. Wenn was abreißt dann höchstens im oberen Bereich weil du ins Clipping gehst. Und das vermeidest so, dass du den LUT an die Ende der Rechenkette stellst. Was übrigens Resolve automatisch macht, in einem node wirkt der LUT immer zum Schluss.
Also wirklich: befasse dich mal mit diesen Dingen und erzählt bitte nicht, dass die Grundlagen falsch sind.
...gemeint war natürlich der Post wie es sich aus dem Zusammenhang ergibt. Etwas schwierig geworden hier, diesen Deinen Post hatte ich bisher gar nicht gelesen, hängt anscheinend immer noch manchmal in der Forumsoftware rum....wolfgang hat geschrieben: ↑Di 18 Apr, 2017 20:08Wenn man slog korrekt aufgenommen hat, und die Aufnahme macht man eher mit einer gewissen Überbelichtung, dann wir man bei slog zwingend in der Postproduktion den Mittelgrauwert und den Weißwert absenken müssen.Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 19:59 S-LOG muss man auch nicht mehr (zwingend) aufhellen sondern eher wie Du schreibst absenken
http://www.xdcam-user.com/2014/12/ultim ... y-pxw-fs7/
Und zwar deshalb, weil slog eben nicht von sich aus rauscht - den rauschen tut der Sensor und man bekommt verrauschtes Material daher nur wenn man das Material es falsch belichtet hat. Wer tatsächlich meint dass slog rauscht hat einen Schulungsbedarf, meint zumindest Herr Uli Mores, Author von http://www.fs7handbuch.de/
Und richtig belichten tut man slog immer so, dass man dafür sorgt dass mehr Licht auf den Sensor kommt - etwa eine halbe bis eineinhalb Blendenstufen mehr als es den klassischen 18% Grauwert und 90% Weißwert entspricht. Und das dann in der Postproduktion eben exakt um diesen Wert korrigiert.
...was ist eine "Kompression" in Zusammenhang des Gamuts?!mash_gh4 hat geschrieben: ↑Di 18 Apr, 2017 20:41 was die technische beschribung angeht, gehe ich großteils d'accore -- nur das die betreffenden werte halt in den meisten kameras nicht einfach nur multipliziert werden, sondern ziemlich ungute komplexere gammut kompressionen genutzt werden, die sich nachträglich nur mehr sehr schwer umkehren bzw. rausrechnen lassen.
"gamut compression" ist der gängige fachbegriff für die gebräuchlichste variante, wie sensor-farbraume in das rec709 bezugssystem übertragen werden...Roland Schulz hat geschrieben: ↑Di 18 Apr, 2017 21:20 ...was ist eine "Kompression" in Zusammenhang des Gamuts?!