Logo Logo
/// 

Dynamikumfang: Panasonic S1H vs Sony A7 III: V-Log vs S-Log Vollformat Vergleich



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://images.slashcam.de/texte/1854-- ... -FRONT.jpg
Die Panasonic S1 gehört in Sachen Dynamikumfang (genauer: Belichtungsspielraum) zu den besten von uns bislang getesteten Kameras. Wie schlägt sich die populäre Sony A7 III beim Thema Dynamikumfang gegen die nochmals videoafinere Panasonic S1H? Kann der Panasonic 10 BitBit im Glossar erklärt CodecCodec im Glossar erklärt seine höhere Farbtiefe gegenüber dem 8 BitBit im Glossar erklärt Sony CodecCodec im Glossar erklärt beim Log-Material ausspielen?

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Test: Dynamikumfang: Panasonic S1H vs Sony A7 III: V-Log vs S-Log Vollformat Vergleich




Antwort von Mediamind:

Herzlichen Dank für den informativen Artikel. Dies bestätigt meine gemachten Erfahrungen im Bereich der nächtlichen Straßenfotografie und -videografie am letzten Wochenende. Die Spitzlichter von Laden- und Straßenbeleuchtung clippen in V-log nicht einfach, die Highlights sind regelmäßig "gerundet" und nicht abrasiert. Nicht, dass man in Straßenlaternen noch sinnvoll Details auflösen möchte, im Vergleich zur Z6 und zur Gh5s ist der nicht geclippte Bereich deutlich größer. Geringes Rauschen und hohe Dynamik bei excellenter Stabilisierung machen die S1 zu meiner neuen A-Kamera. Der AF ist aber nach wie vor panatypisch Käse. Gestern kam das 24-105 mm Kitobjektiv bei mir an. Ich werde in den Herbstferien ausführlich auf einer Nordseeinsel testen und bin gespannt. Offener Himmel und starke Kontraste werden den Dynamikumfang fordern. Ich werde das mit der Z6 vergleichen und bin auf das Ergebnis gespannt.



Antwort von MrMeeseeks:

Wenn sich die S1 und S1H so ähnlich sind, warum sollte man fast den doppelten Preis ausgeben? 6K ist sicher kein Grund und der Body der SH1 ist ja noch größer.








Antwort von Mediamind:

Habe ich auch so gesehen. Der Mehrwert gegenüber der S1 ist definitiv nicht über die Preisdifferenz darstellbar.



Antwort von Kamerafreund:

Wenn ich UHD 50p in Super35 drehen will, würde ich mir ehrlich gesagt jetzt eher eine günstige FS7 holen..



Antwort von Xergon:

Ich versuche mir gerade eine Reim zu machen um die Testbilder hier mit dem Lowlight - Test der BM PCC6K in Einklang zu bringen. So wirklich konsistent ist euer Testverfahren noch nicht, oder? @slashcam, könnt ihr bitte kurz erklären wie man am besten vorgeht um den Test der A7iii / s1h mit der PCC6K zu verknüpfen? Ins besondere würde mich interessieren ob die Blackmagic im Lowlightbereich ansatzweise mit der A7iii mithalten kann. Habe gerade eine Gh5s und suche eine lichtstärkere Kamera. Hatte die A7iii im Auge, aber die S1h scheint viel lichtstärker zu sein? Oder hat sie nur mehr nutzbare dynamic range?



Antwort von MrMeeseeks:

Naja man kann sich das mit ein wenig "Umweg" erklären.

Slashcam hat einen Vergleich zwischen GH5s vs BMPCC....GH5s vs a7III und S1 vs a7III.

Die S1 scheint das neue Sahnetörtchen beim Thema Lowlight zu sein. Die A7III ist da aber ziemlich ähnlich und nahezu identisch, ebenfalls die A7sII aber die ist einfach nicht mehr aktuell.

GH5s und BMPCC sind quasi identisch. Vergleiche zwischen GH5s und S1 findest du genügend auf Youtube.

Im Grunde aber haben alle Kameras ein Niveau erreicht mit welchem man mit etwas Licht hervorragende Ergebnisse liefert. Das nervige Gequatsche von manchen die mit Mondlicht filmen wollen ist da totaler Blödsinn.



Antwort von Xergon:

Genau, und weil die Gh5s mit Speedbooster an 1.8er Optik so unverbesserlich bei Lowlight aussieht, suche ich nach einer besseren Lowlight - Lösung.
Danke. Fürs bemühen, aber lese meinen Post doch noch mal genau durch. TIPP: BMCC6k! = BMCC4k



Antwort von MrMeeseeks:

Und was ist nun so schwer einer der unzähligen Vergleiche zwischen BMPCC4k und BMPCC6k anzuschauen? Die BMPCC 4k samt Speedbooster entspricht in etwa der BMPCC 6k. Folglich eine BlendeBlende im Glossar erklärt mehr.

Wenn man bereit ist 2500€ zu investieren dann schadet ein wenig Eigeninitiative sicherlich nicht.



Antwort von klusterdegenerierung:

An alle die die A7III auf lowlight Fähigkeit testen, tut euch bitte den gefallen und stellt im Gegensatz zu so vielen Youtubern die sie getestet haben, die interne Rauschunterdrückung ab, denn das gibt sonst fiexe Wachsbilder.

Auch wenn das Rauschen natürlicherweise bei höheren Iso stärker wird, so ist das Bild aber viel schöner und das entstandene Korn gibt eigentlich noch ein bisschen Stimmung.
Also erst abschalten, dann testen und am besten den ganzen andere Automatikkram wie hdr etc auch abschalten. :-)

PS Log rauscht zwar oft schneller, aber mehr im Luma als im Chroma, sieht am Ende nicht so fies aus.



Antwort von Xergon:

Mrxxxx, toller Tipp. Und, was sagst du? BMCC6k oder A7iii oder S1h?

Slashcam hat ein neues lowlight testverfahren angekündigt, ich frage wie es zu verstehen ist.

Kannst du mehr als unfreundlich sein?



Antwort von MarcusG:

Wie kommt es denn zu den seltsamen Farbunterschieden mal in die eine dann wieder in die andere Richtung bei der A7? Ist das manuell schusellig farbkorrigiert, oder nehmt ihr von Slashcam immer nur ne lut und fertig? Verstehe das Verfahren nicht so genau könntet ihr mal eine Anleitung zeigen was genau ihr in Resolve macht, damit man es auch mit eigenem Material Machen kann?








Antwort von rob:

Hallo M.

das Verfahren ist ziemlich einfach und von jedem selbst nachvollziehbar. Sofern offizielle LUTS zur Verfügung stehen nutzen wir diese. Danach wird das Material der jeweiligen Blendenreihe auf die Normalbelichtung zurückkorrigiert. Mit mehr Zeit lassen sich die Farbveränderungen auch besser an die Normalbelichtung anpassen. Allerdings interessieren uns die Farbdifferenzen hier nur am Rande - in erster Linie sind wir am Rauschen und am Clipping-Punkt interessiert ...

Viele Grüße

Rob/
slashCAM



Antwort von klusterdegenerierung:

Farbdifferenzen bedeuten aber auch das es auch zu abrissen kommen kann, die man bei ggfl richtem WB nicht hätte.
Persönlich finde ich das verwenden einer Lut bei solchen Test kontraproduktive, da selbst die hauseigenen Hersteller Luts quasi nur unter optimal Bedingungen passen.

Egal wie ich seit Jahren mit meinen diversen Sonys filme, eine Lut hat grundsätzlich immer zu Abbrüchen / rolloffs geführt.
Klar kann man das zurückdrehen weil es nur ein Lut ist, aber ich hänge mir beim Radfahren ja nicht auch zusätzlich Gewichte an die Beine. ;-)

Dazu kommt das man wie ihr die Lut und deren Folgen einfach so belässt und Eindrücker verfälschen kann. :-)



Antwort von rob:

Hallo Kluster,

bislang haben wir hier nur Material getestet, für das es offizielle Hersteller LUTs gibt - und zwar nach 709, somit sind die Bedingungen für alle Hersteller gleich.

Viele Grüße

Rob/
slashCAM



Antwort von klusterdegenerierung:

Wieso sollte damit alles gleich sein, die werkeln doch alle unterschiedlich.
Warum lasst ihr die nicht einfach weg?



Antwort von rob:

Weil 709 eine Norm darstellt, die die unterschiedlichen Log-Formate vergleichbarer macht.

Viele Grüße

Rob/
slashCAM



Antwort von roki100:

vielleicht einfach beides mit Rec709 und ohne. Und eventuell ein paar Test Files zum download? Dann kann jeder selbst überprüfen.

VG



Antwort von Xergon:

@rob
Wenn ich eure Tests jetzt richtig verstehe, dann kann man die A7iii bis ETTR-4 gut verwenden, die S1H bis ETTR-5, und die BMCC6K aber bis -6/-7, right?

liegt das an dem RAW-Codec der BMCC6K? Oder sind die Testreihen nicht miteinander vergleichbar?

Besten Gruß,
Stefan



Antwort von rob:


@rob
Wenn ich eure Tests jetzt richtig verstehe, dann kann man die A7iii bis ETTR-4 gut verwenden, die S1H bis ETTR-5, und die BMCC6K aber bis -6/-7, right?

liegt das an dem RAW-Codec der BMCC6K? Oder sind die Testreihen nicht miteinander vergleichbar?

Besten Gruß,
Stefan

Hallo X,

nein - da sind ein paar Sachen bei dir durcheinander gegangen.

Also zur A7III: "bis Minus 4 gut verwenden" würde ich nicht sagen. Wieviel Rauschen/Bildfehler du für deine Praxis "erträgst" ist stets Teil deiner persönlichen Einschätzung. Schau dir am besten das komplett ausgespielte Still der A7III bei Minus 4 Blendenstufen an und entscheide dann für dich, ob das für deine Praxis noch akzeptabel ist. Für meine wäre es das nicht ;-)

Zur BMPCC6K:

Wenn in einem Test von "6 Blendenstufen unterhalb des Clippings" die Rede ist. Dann musst du die 6 Blendenstufen vom ersten Clippng zurückrechnen. Die 6K hatten wir ja glaube ich noch nicht in der Blendenreihe aber auf die A7III hier bezogen würdest du nach dem ersten Clippingwert schauen, der hier bei ca. +5 liegt und dann davon 6 Blendenstufen abziehen. Bei der A7III würdest du dann bei Minus 1 oder Minus 2 (je nach Definition von "unterhalb") als noch akzeptablem Bild landen.

Bedeutet unterm Strich: Die S1H bietet deutlich mehr Belichtungsspeilraum als die Pocket 6K...

Viele Grüße

Rob/
slashCAM



Antwort von klusterdegenerierung:


Weil 709 eine Norm darstellt, die die unterschiedlichen Log-Formate vergleichbarer macht.

Viele Grüße

Rob/
slashCAM

Ach!
Problem ist aber das die Luts dem Material nicht gerecht werden. Was habe ich davon wenn eine Lut ein nicht clipendes Material zum Clipen bringt und dies als Referenz genommen wird bevor man das Clipen wieder runter fährt wenn es im Umfang enthalten ist?

Das ist doch genau das warum alle immer so frustriert sind, denn da wird am laufenden Band auf Youtube zb. das Material der tollen Pocket mit einer Lut überzogen und anschliessend heißt es dann sogar bei Raw, die Cam hat einen schlechten Dynamikumfang und hat nix auf den Kasten, da kann ich ja genauso meine 8Bit Cam nehmen und so ähnlich ist es hier ja auch.

Mit etwas Glück passen die Luts und es fällt nicht so ins Gewicht, aber bei Sony kann man das knicken.
Warum nicht einfach die Werte die reduziert sind wieder zurück führen. Wofür hat man denn ein Waveform und Parade? ;-)








Antwort von rob:

Hallo Kluster,

Danke für dein Feedback.

Wenn du individuell Files bearbeitest, kannst du natürlich auch die Hersteller LUT nach Lust und Laune weglassen.
Wir müssen hier allerdings an herstellerübergreifende Vergleichbarkeit denken und da haben wir uns derzeit für Rec 709 LUTS entschieden sofern diese angeboten werden.

Würden wir das nicht machen, wäre das Material deutlich disparater oder müsste sehr viel langwieriger korrigiert werden. Beides nicht wirklich wünschenswert.

Viele Grüße

Rob/
slashCAM



Antwort von klusterdegenerierung:


Hallo Kluster,

Danke für dein Feedback.

Wenn du individuell Files bearbeitest, kannst du natürlich auch die Hersteller LUT nach Lust und Laune weglassen.
Wir müssen hier allerdings an herstellerübergreifende Vergleichbarkeit denken und da haben wir uns derzeit für Rec 709 LUTS entschieden sofern diese angeboten werden.

Würden wir das nicht machen, wäre das Material deutlich disparater oder müsste sehr viel langwieriger korrigiert werden. Beides nicht wirklich wünschenswert.

Viele Grüße

Rob/
slashCAM

Eben, wenn ihr aber als Fazit wohlmöglich ein auf eine Lut basierters ungerechtes Bild dartstellt, ist doch keinen damit geholfen und ich habe doch garnicht Euer footage und sehe nur die screenshots, bei denen man dann wahlweise denken kann ui, das sieht aber Käse aus.



Antwort von rob:


Eben, wenn ihr aber als Fazit wohlmöglich ein auf eine Lut basierters ungerechtes Bild dartstellt ...

Hallo Kluster,

dann sind wir aber die falschen Adressaten - die Beschwerde bei einer "ungerechten 709 LUT" muss du an den Hersteller richten - nicht an uns ;-)

Viele Grüße

Rob/
slashCAM



Antwort von MarcusG:

Also ich steige hier nicht bis ins Detail durch was eine Rec709 mit einer Log File und deren Werten genau macht, aber ich würde jetzt gefühlt Kluster zustimmen:

Wenn es hier bei den Artikel darum gehen soll, wie viel man aus dem Material maximal rausholen kann, dann kann man sich doch nicht auf evtl. Schlechte LUTS verlassen, auch wenn sie vom Hersteller sind, sondern sollte es manuell machen, sonst lässt das LUT die Cam schlechter aussehen als sie eigentlich wirklich ist und dann ist ja der ganze Aufwand den ihr euch mit den Artikeln macht völlig umsonst und auch für die Leser nichtssagend, weil man selber mehr aus einer Kamera rausbekommen würde als die Bilder suggerieren. Die Kameras an sich werden dann hier gar nicht verglichen sondern eigentlich die LUTS oder die Kameras + Lut.



Antwort von srone:

wobei genau das, das ist was der hersteller dir verkauft.

lg

srone



Antwort von Jörg:

Wenn es hier bei den Artikel darum gehen soll, wie viel man aus dem Material maximal rausholen kann

ich denke, hier soll Vergleichbarkeit hergestellt werden.
Erste Eindrücke der Optionen.
und was jeder für sich selbst da raus holt..., die Ergebnisse würde ich nicht unbedingt sehen wollen, wie
die vielen miserablen Ergebnisse hier zeigen ;-((

Der, der es wirklich gebacken bekommt, der schert sich eh nicht an Testergebnissen.



Antwort von Kamerafreund:

Ich habe schon häufiger dafür plädiert, dass man eine 8Bit kamera NIEMALS mit einer 10Bit Kamera in LOG vergleichen sollte. Besonders die Sony ist eher für Cine-Profile gemacht - bei fast identischem Dynamikumfang. Eine LUT zu verwenden macht den Test noch einmal unausgeglichener. Ich kann verstehen, dass man gerne Zeit sparen möchte und direkte wiederholbare Ergebnisse will, aussagekräftig ist das aber nicht. Um Kameras wirklich zu vergleichen müsste man sich zumindest so lange mit ihnen beschäftigen bis man weiß, mit welchen Einstellungen eine Kamera optimal arbeitet und so das beste Bild aus ihnen herausholen kann. Dann kann man das bestmögliche Bild von KameraA mit dem bestmöglichen Bild von KameraB vergleichen. Drehen in LOG mit LUT ist ein absoluter Spezialfall und sagt nur aus mit welcher Kamera man am besten einen LOG-LUT Workflow machen kann, aber nicht, welche Kamera den besten Dynamikumfang hat. Warum konvertieren wir zur besseren Vergleichbarkeit nicht das 10bit Video auf 8Bit vorher runter? Dann wäre doch alles besser vergleichbar?



Antwort von klusterdegenerierung:


Wenn es hier bei den Artikel darum gehen soll, wie viel man aus dem Material maximal rausholen kann

ich denke, hier soll Vergleichbarkeit hergestellt werden.
Erste Eindrücke der Optionen.
und was jeder für sich selbst da raus holt..., die Ergebnisse würde ich nicht unbedingt sehen wollen, wie
die vielen miserablen Ergebnisse hier zeigen ;-((

Der, der es wirklich gebacken bekommt, der schert sich eh nicht an Testergebnissen.

Da gebe ich Dir wohl erst einmal Recht, aber was ist wenn der Rezipient nicht so viel knowhow hat wie Du und sich in solchen Tests umsieht?
Vielleicht sollte dann so ein Zitat drunter stehen wie mit dem Arzt oder Apotheker, also Lut kann zu Fehlinterpretationen m Dynamikbereich führen? ;-)

Besonders aufgefallen ist es mir in letzter Zeit eben im BMD Bereich wo sich wegen dea Preises auch viele Anfänger tummeln und dann auch eine Lut einbacken und vielleicht vorher noch Belichtungsfehler machen und unerfahrne und Anfänger denken, hm ist ja doch nicht so doll das DIng.

Kann ja auch verstehen, das Rob und die Jungs keine Luts haben jedes Material manuel anzufassen, aber gerechter wäre es.



Antwort von Jörg:

Ich glaube, dass es einfach nicht realistisch ist, Kameras auf einfache Art und Weise zu vergleichen.
Allein die Anzahl an Farbprofilen, die jede Cam heute anbietet, lässt ahnen, dass es gehörige Zeit für Vergleiche benötigt.
Ob ein Forumbetreiber das leisten kann?








Antwort von klusterdegenerierung:


Warum konvertieren wir zur besseren Vergleichbarkeit nicht das 10bit Video auf 8Bit vorher runter? Dann wäre doch alles besser vergleichbar?

Naja, mit dem anderen gehe ich ja noch mit, aber der Satz macht ja selbst für mich keinen Sinn mehr, denn ich will ja als Käufer auch wissen wie viel mehr an Quali ich bei 10Bit bekomme, lasse ich das weg, kann ich mir ja gleich ne 8Bit Hupe kaufen.



Antwort von roki100:

also bei manche vergleiche ist nur "Lift" etwas mehr, oder Kontrast, Farben etc. im Prinzip sagt das nicht viel über die (Sensor) Qualität der Kamera, sondern die vom Hersteller angepasste LUT wird verglichen? Das ist das was Kluster meint?



Antwort von roki100:



Warum konvertieren wir zur besseren Vergleichbarkeit nicht das 10bit Video auf 8Bit vorher runter? Dann wäre doch alles besser vergleichbar?

Naja, mit dem anderen gehe ich ja noch mit, aber der Satz macht ja selbst für mich keinen Sinn mehr, denn ich will ja als Käufer auch wissen wie viel mehr an Quali ich bei 10Bit bekomme, lasse ich das weg, kann ich mir ja gleich ne 8Bit Hupe kaufen.

was auch fehlt ist, ob es Red...oder...Blue Clipping gibt (wie nennt man das, Color Clipping check?). Wenn man z.B. S1 mit BMPCC4K vergleicht, dann wäre es doch für den Leser gut vor dem Kauf zu wissen, dass S1 Probleme mit Blue Clipping hat und BMPCC4K mit Red Clipping. Das ist m.M. viel wichtiger als wenn z.B. BRAW detaillierter untersucht - und das gefundene Macro-Blocking als sehr nah an FilmGrain bewertet - wird. ;)



Antwort von klusterdegenerierung:

Habe mir mal eben die Mühe gemacht das besprochene zu dokumentieren.
Verwendet wurde Slog2 mit original Sony Slog2 to Rec709 Lut an der ich nix verändert habe, dazu sieht man die Parade mit den orig und neu Werten, bei denen man ganz gut das ausbrechen sieht, lässt man dies auf Grund unterschiedlichster Handlungsweisen, sieht der Rezipient nicht das was er sehen soll oder will.

Untere Aufnahme wieder das gleiche Ausgangsmaterial mit serial Node und Anpassung der Tonwertkurve innerhalb der Norm plus Saturation von 50 auf 80, that"s it.
Für mich ein riesen Unterschied und klar, für den Profi nix Neues, aber wer nicht weiß was er dort sieht, kann zu falschen Schlußfolgerungen kommen. ;-)



Antwort von dienstag_01:


Hallo M.

das Verfahren ist ziemlich einfach und von jedem selbst nachvollziehbar. Sofern offizielle LUTS zur Verfügung stehen nutzen wir diese. Danach wird das Material der jeweiligen Blendenreihe auf die Normalbelichtung zurückkorrigiert. Mit mehr Zeit lassen sich die Farbveränderungen auch besser an die Normalbelichtung anpassen. Allerdings interessieren uns die Farbdifferenzen hier nur am Rande - in erster Linie sind wir am Rauschen und am Clipping-Punkt interessiert ...

Viele Grüße

Rob/
slashCAM

Nehmen wir als Beispiel den Punkt 100% Helligkeit. Log legt ihn auf einen Wert x, bei Slog3 bspw. liegt er bei - ich glaube - 63%. Wenn ihr jetzt eine Lut *Log nach 709* drauf legt, wird dieser Punkt wieder zu 100 Prozent - ihr habt also die Dynamic Range von 709 getestet, über den aufwändigen und für Rechenfehler anfälligen Weg des Log Workflows. Log wurde aber gerade entwickelt, um die Dynamic Range zu maximieren, für etwas anderes braucht man diese Kurven eigentlich nicht. Diesem Zweck wird diese Art Testverfahren nicht gerecht.



Antwort von DeeZiD:

Oder einfach ACES verwenden und per OFFSET die Belichtung anpassen?



Antwort von rob:


Oder einfach ACES verwenden und per OFFSET die Belichtung anpassen?

Hallo Deezid,

Aces wäre sicherlich auch ein Weg - allerdings stehen hier noch zu wenig Kameras zur Verfügung - gerade auch im derzeit spannenden DSLM-Bereich ...

Viele Grüße

Rob/
slashCAM



Antwort von DeeZiD:



Oder einfach ACES verwenden und per OFFSET die Belichtung anpassen?

Hallo Deezid,

Aces wäre sicherlich auch ein Weg - allerdings stehen hier noch zu wenig Kameras zur Verfügung - gerade auch im derzeit spannenden DSLM-Bereich ...

Viele Grüße

Rob/
slashCAM

Dann bleiben wiederum nur die Hersteller-eigenen Rec709 Luts.
Und vorher halt per Offset und ggf. Contrast die Belichtung anpassen.
Zumindest bei der S1H verhaelt sich das Material in etwa wie RAW, falls man es so macht. Farben sehen gar bei 4 Stops Ueberbelichtung fast identisch aus.



Antwort von Kamerafreund:

Da hätte ich wohl ein *achtung ironie* Zeichen setzen sollen. Es ging mir nur darum zu sagen, dass jede Kamera andere Settings braucht und man nicht zwei Kameras mit Settings vergleichen kann die für eine Kamera eindeutig besser sind. Wenn man log vergleicht schneiden 10 bit Kameras fast immer besser ab. Nachdem Panasonic und Blackmagic massenweise Geld in Bannerwerbung Pumpen würde ich hier sensibel sein. (sehe zumindest fast nie Werbung von Sony)


Warum konvertieren wir zur besseren Vergleichbarkeit nicht das 10bit Video auf 8Bit vorher runter? Dann wäre doch alles besser vergleichbar?

Naja, mit dem anderen gehe ich ja noch mit, aber der Satz macht ja selbst für mich keinen Sinn mehr, denn ich will ja als Käufer auch wissen wie viel mehr an Quali ich bei 10Bit bekomme, lasse ich das weg, kann ich mir ja gleich ne 8Bit Hupe kaufen.









Antwort von rob:

Hmm,

(also ich werde dir jetzt mal nicht unterstellen, dass bei dir - weshalb auch immer - verletzter Besitzerstolz mitschwingt ;-)

Das ist auch gar nicht angebracht, weil du dich ja z.B. auch darüber freuen könntest, wie gut das S-Log Material der Sony mithalten kann, obwohl es nur 8 BitBit im Glossar erklärt ist. Sieh es doch mal so rum. Das Sony Logmaterial könnte halt vermutlich noch sehr viel mehr bei 10 BitBit im Glossar erklärt leisten - wie im Fazit geschrieben.

Wenn ein Hersteller Log-Formate in seiner Kamera verbaut und 709-LUTs anbietet, dann nutzen wir die auch, wenn wir Log-fähige Kameras von Herstellern vergleichen die 709-LUTs anbieten. Klingt nach einem einfachen Satz - ist es auch.

Viele Grüße

Rob/
slashCAM



Antwort von dienstag_01:


Hmm,

(also ich werde dir jetzt mal nicht unterstellen, dass bei dir - weshalb auch immer - verletzter Besitzerstolz mitschwingt ;-)

Das ist auch gar nicht angebracht, weil du dich ja z.B. auch darüber freuen könntest, wie gut das S-Log Material der Sony mithalten kann, obwohl es nur 8 BitBit im Glossar erklärt ist. Sieh es doch mal so rum. Das Sony Logmaterial könnte halt vermutlich noch sehr viel mehr bei 10 BitBit im Glossar erklärt leisten - wie im Fazit geschrieben.

Wenn ein Hersteller Log-Formate in seiner Kamera verbaut und 709-LUTs anbietet, dann nutzen wir die auch, wenn wir Log-fähige Kameras von Herstellern vergleichen die 709-LUTs anbieten. Klingt nach einem einfachen Satz - ist es auch.

Viele Grüße

Rob/
slashCAM

Ja, ihr nutzt die, aber das ist einfach nur falsch. Zumindest, wenn es um die maximale Dynamic Range geht.



Antwort von rob:

Hallo Dienstag,

es geht zunächst darum eine praktikable Basis für Vergleiche zu schaffen.

Wenn wir mal viel Zeit übrig haben, setze ich mich an einen Vergleich ohne 709 LUT.

Ich kann dir aber jetzt schon versprechen, dass ein geclipptes Log-Signal ein geclipptes Log-Signal bleiben wird: Egal ob mit LUT oder ohne LUT ;-)

Viele Grüße
Rob/
slashCAM



Antwort von DeeZiD:



Hmm,

(also ich werde dir jetzt mal nicht unterstellen, dass bei dir - weshalb auch immer - verletzter Besitzerstolz mitschwingt ;-)

Das ist auch gar nicht angebracht, weil du dich ja z.B. auch darüber freuen könntest, wie gut das S-Log Material der Sony mithalten kann, obwohl es nur 8 BitBit im Glossar erklärt ist. Sieh es doch mal so rum. Das Sony Logmaterial könnte halt vermutlich noch sehr viel mehr bei 10 BitBit im Glossar erklärt leisten - wie im Fazit geschrieben.

Wenn ein Hersteller Log-Formate in seiner Kamera verbaut und 709-LUTs anbietet, dann nutzen wir die auch, wenn wir Log-fähige Kameras von Herstellern vergleichen die 709-LUTs anbieten. Klingt nach einem einfachen Satz - ist es auch.

Viele Grüße

Rob/
slashCAM

Ja, ihr nutzt die, aber das ist einfach nur falsch. Zumindest, wenn es um die maximale Dynamic Range geht.

Dann macht entweder Sony oder du etwas falsch.
Wenn ich ARRI, Varicam, RED, Blackmagic (Extended) usw. Material per Hersteller-Lut nach Rec709 konvertiere erhalte ich den vollen Dynamikumfang mit starker KompressionKompression im Glossar erklärt der Hoehen und u.a. auch Tiefen.

Wenn ich die Belichtung VOR der Lut anpasse entweder per RAW Exposure oder Offset erhalte ich bis zu einem gewissen Punkt mehr oder weniger identische Resultate, bis eben der CodecCodec im Glossar erklärt oder Sensor nicht mehr genuegend Informationen bereitzustellen vermag, um ein akzeptables Rec709-Resultat zu liefern. Und darum geht es doch, genau diesen Punkt zu finden?

Verstehe nicht, wo das Problem liegt.



Antwort von rob:

ich bin raus für heute - wünsche erstmal entspannte Herbstferien an alle ...

Viele Grüße

Rob/
slashCAM



Antwort von klusterdegenerierung:


Hallo Dienstag,

es geht zunächst darum eine praktikable Basis für Vergleiche zu schaffen.

Wenn wir mal viel Zeit übrig haben, setze ich mich an einen Vergleich ohne 709 LUT.

Ich kann dir aber jetzt schon versprechen, dass ein geclipptes Log-Signal ein geclipptes Log-Signal bleiben wird: Egal ob mit LUT oder ohne LUT ;-)

Viele Grüße
Rob/
slashCAM

Ja sicher, aber Du vergleichst Äpfel mit Birnen, denn das Log clipt bei richtiger Belichtung vor der Lut nicht, aber wie Du an meinem Beispiel siehst, nach der benutzung der Lut.
Ich merke das Du Dich die ganze Zeit dagegen sträubst anzuerkennen, das die luts zu Problemen im cliping führen und da klingt es ja schon fasst wie eine farce, das Du das clipping testen möchtest!

Du scheinst garnicht mit zubekommen wie viel Luft es im Log noch nach oben und unten gibt aber nach der lut nicht mehr und wenn ihr das dann als bemessung nimmt und sagt, oh guckmal, die clippt aber, dann ist das doch Augenwischerrei.

Ich kann doch nicht einen Elchtest machen und unpassende Reifen an den Wagen schrauben und in der nächsten Kurve kippt das Auto um, was das denn für ein Test? ;-)
Zudem meine ich auch das selbst Sony bei den Luts immer nur von einer Annäherung sprache wenn es darum ging keinen Aufwand betreiben zu wollen.



Antwort von dienstag_01:


Hallo Dienstag,

es geht zunächst darum eine praktikable Basis für Vergleiche zu schaffen.

Wenn wir mal viel Zeit übrig haben, setze ich mich an einen Vergleich ohne 709 LUT.

Ich kann dir aber jetzt schon versprechen, dass ein geclipptes Log-Signal ein geclipptes Log-Signal bleiben wird: Egal ob mit LUT oder ohne LUT ;-)

Viele Grüße
Rob/
slashCAM

Wenn ein Log Signal clippt, dann sieht man das auch ohne LUT im Waveform Monitor.
Ist das bei euch so?



Antwort von cantsin:

Ich sehe hier schon das Problem, dass einige LUTs Log (weitgehend) mathematisch nach Rec709 umrechnen und die im Log-Signal gespeicherte höhere Dynamik wegwerfen bzw. clippen (es sei denn, man greift vor der LUT noch mit Korrekturen bzw. angepassten Kurven ein), während andere LUTs probieren, den Dynamikumfang auch in Rec709 zu erhalten.

Das machen ja Fotokameras in der Umwandlung von Raw nach sRGB-JPEG genauso, z.B. Nikon mit seiner "dynamic d lighting"-Option, die optional mehr Dynamikumfang in 8bit-sRGB presst.

Blackmagic bietet beides an, eine LUT, die sklavisch aber clippend nach Rec709 übersetzt, sowie die "Extended Video"-LUT, die den Dynamikumfang in Rec709 konserviert, aber keine mathematisch korrekte Farbraumumwandlung mehr ist.

Die Frage ist dann in der Tat, ob man in solchen Tests letztlich nicht LUTs statt Kameras vergleicht bzw. beurteilt.



Antwort von dienstag_01:



Ja, ihr nutzt die, aber das ist einfach nur falsch. Zumindest, wenn es um die maximale Dynamic Range geht.

Dann macht entweder Sony oder du etwas falsch.
Wenn ich ARRI, Varicam, RED, Blackmagic (Extended) usw. Material per Hersteller-Lut nach Rec709 konvertiere erhalte ich den vollen Dynamikumfang mit starker KompressionKompression im Glossar erklärt der Hoehen und u.a. auch Tiefen.

Wenn ich die Belichtung VOR der Lut anpasse entweder per RAW Exposure oder Offset erhalte ich bis zu einem gewissen Punkt mehr oder weniger identische Resultate, bis eben der CodecCodec im Glossar erklärt oder Sensor nicht mehr genuegend Informationen bereitzustellen vermag, um ein akzeptables Rec709-Resultat zu liefern. Und darum geht es doch, genau diesen Punkt zu finden?

Verstehe nicht, wo das Problem liegt.

Der Test arbeitet weder mit Raw Material noch passt er die Belichtung vor der Lut an, sondern danach.








Antwort von mash_gh4:


Die Frage ist dann in der Tat, ob man in solchen Tests letztlich nicht LUTs statt Kameras vergleicht bzw. beurteilt.

das ist ja grund, warum jeder ernsthafte test bzgl. auflösung und DR sich gewöhnlich auf RAW daten und vernünftige auswertungssoftware stützt.

natürlich ist das im foto-umfeld einfacher als beim video-vergleich, wo derartige ausgangsdaten oft nur auf umwegen zugänglich sind, trotzdem machen diese völlig untauglichen anders gearteten amateur-vergleiche, auch wenn sie mit noch so viel engagement betrieben werden, einfach keinen sinn.



Antwort von DeeZiD:



Der Test arbeitet weder mit Raw Material noch passt er die Belichtung vor der Lut an, sondern danach.

Belichtung danach anzupassen waere natuerlich recht sinnfrei...
Weil das waere eher ein LUT- als ein Kamera-Test.



Antwort von MarcusG:

Ja also wäre es jetzt nicht das Einfachste und zugleich Korrekteste für alle wenn man einfach gar keine REC709 Lut verwendet sondern es einfach im Original Log lässt. Sieht halt nicht schön aus, aber dann ist es unverfälscht. Es ging Slashcam ja wohl eh nicht um die Farben...

Abwr vielleicht habe ich das Testverfahren noch nicht so ganz geblickt. Was heißt Belichtungsreihe? Dass man immer eine BlendeBlende im Glossar erklärt weiter hoch/runter geht und dann korrigiert man in der Post welche Werte wohin? Was wird bei der Aufnahme variiert, BlendeBlende im Glossar erklärt, VerschlusszeitVerschlusszeit im Glossar erklärt, ISO? Ich frage mich immer noch wie in der Sony A7 Bildreihe diese krass unterschiedlichen Farben zustande kommen, wenn immer dieselbe WhiteBalance und das gleiche LUT verwendet wurde. Wurde da bei der Aufnahme immer wieder die ISO verändert?



Antwort von dienstag_01:



Der Test arbeitet weder mit Raw Material noch passt er die Belichtung vor der Lut an, sondern danach.

Belichtung danach anzupassen waere natuerlich recht sinnfrei...
Weil das waere eher ein LUT- als ein Kamera-Test.

Aber genauso wurde es gemacht.
Hallo M.

das Verfahren ist ziemlich einfach und von jedem selbst nachvollziehbar. Sofern offizielle LUTS zur Verfügung stehen nutzen wir diese. Danach wird das Material der jeweiligen Blendenreihe auf die Normalbelichtung zurückkorrigiert…



Antwort von DeeZiD:



Belichtung danach anzupassen waere natuerlich recht sinnfrei...
Weil das waere eher ein LUT- als ein Kamera-Test.

Aber genauso wurde es gemacht.
Hallo M.

das Verfahren ist ziemlich einfach und von jedem selbst nachvollziehbar. Sofern offizielle LUTS zur Verfügung stehen nutzen wir diese. Danach wird das Material der jeweiligen Blendenreihe auf die Normalbelichtung zurückkorrigiert…

Komplett uebersehen, danke.
Gegen den Einsatz der offiziellen Lut spricht ansich nichts.
Aber diese muss gerade bei solchen Tests korrekt eingesetzt werden.
Das erklaert auch, warum die RAW-Kameras hier so gut wegkommen...



Antwort von MarcusG:

Danke übrigens an Klusterdegenerierung für das anschauliche Beispiel. Da sieht man wirklich gut dass die Sony LUT die Dynamik des Log Materials krass beschneidet /clippt im Vergleich zur manuellen Korrektur.



Antwort von Xergon:

Zum Thema BMCC6k vs A7iii vs S1H:
https://www.slashcam.de/images/texte/18 ... ETTR-6.jpg
https://www.slashcam.de/images/texte/18 ... ETTR-7.jpg

https://www.slashcam.de/images/texte/18 ... yA7III.jpg

BMCC6K - ETTR-6 ist vergleichbar mit "0" im A7iii/SiH Detailbild.

Man sieht also ganz gut dass die A7iii ungefähr eine BlendeBlende im Glossar erklärt nutzbare Dynamik mehr hat als die BMCC6K, und die S1H ca. 1.25 Blenden noch mal vor der A7iii liegt.

Bedeutet auch, dass man durch den Einsatz eines Speedboosters (https://www.dpreview.com/news/784461936 ... ame-sensor) mit der BMCC6K bei Bedarf nahe an die A7iii bezüglich der Lowlight-Fähigkeit herankommt.

Nice :-)



Antwort von pillepalle:


Habe mir mal eben die Mühe gemacht das besprochene zu dokumentieren.
Verwendet wurde Slog2 mit original Sony Slog2 to Rec709 Lut an der ich nix verändert habe, dazu sieht man die Parade mit den orig und neu Werten, bei denen man ganz gut das ausbrechen sieht, lässt man dies auf Grund unterschiedlichster Handlungsweisen, sieht der Rezipient nicht das was er sehen soll oder will.

Untere Aufnahme wieder das gleiche Ausgangsmaterial mit serial Node und Anpassung der Tonwertkurve innerhalb der Norm plus Saturation von 50 auf 80, that"s it.
Für mich ein riesen Unterschied und klar, für den Profi nix Neues, aber wer nicht weiß was er dort sieht, kann zu falschen Schlußfolgerungen kommen. ;-)

Also das Beispiel verstehe ich beim besten Willen nicht. Wenn das Bild in Deinem oberen Beispiel mit der LUT clippt, liegt das nicht an der LUT. sondern an der Belichtung, bzw. am zu hohen Motivkontrast. Da kann weder Sony, noch sonst wer was für, sondern einzig Du selber. Das Du das Motiv aus dem Log-Material heraus noch retten kannst, ist schon klar, aber das ist keine besondere Qualität der Kamera, sondern das könntest Du mit jeder logfähigen Kamera.

Das die Methode von Shlashcam nicht besonders wissenschaftlich und genau ist darüber kann man sich ja einíg sein, aber es geht dabei ja auch eher um einen Praxistest. Und sich dabei an REC709 als kleinsten gemeinsamen Nenner zu orientieren ist nicht so abwegig. Wenn Dir die LUT von Sony nicht so gut erscheint, dann spiegelt genau das die geringeren Möglichkeiten bezüglich Kontrast und Farbwiedergabe der Kamera wider. Denn alle Kameras werden im REC709 letzen Endes auf ein Standardformat/Standartbild gebracht. Nur die Ausgangsbasis ist bei jeder Kamera eine ganz andere und darin unterscheiden sich ja auch die jeweiligen Log Profile verschiedener Kameras. Wenn die Sony einen geringeren Motivkontrast als eine andere Kamera braucht um ein Standardbild zu erzeugen deutet es darauf hin, das sie eine geringere Dynamik hat. Woran das liegt (an den 8bit, oder an anderen Faktoren) ist für den Nutzer doch ersteinmal zweitrangig. Es geht bei dem Test in meinen Augen einfach um eine praxistaugliche Einschätzung. Die genauen Daten kann man besser in Labortests messen, wenn man sich nicht auf die Angaben der Hersteller verlassen möchte.

VG



Antwort von rob:

Guten Morgen miteinander,

hmm, ja, ich stehe ehrlich gesagt auch etwas kopfkratzend vor dem Beispiel ...

Das LOG-Bild ist für die genutzte LUT überbelichtet.

Zudem verstehe ich nicht, was das mit unserer Blendenreihe zu tun hat, da ja alle Über- und Unterbelichtungen in unseren Blendenreihen auf Neutral zurückkorrigiert werden.

Viele Grüße

Rob/
slashCAM








Antwort von dienstag_01:


Guten Morgen miteinander,

hmm, ja, ich stehe ehrlich gesagt auch etwas kopfkratzend vor dem Beispiel ...

Das LOG-Bild ist für die genutzte LUT überbelichtet.

Zudem verstehe ich nicht, was das mit unserer Blendenreihe zu tun hat, da ja alle Über- und Unterbelichtungen in unseren Blendenreihen auf Neutral zurückkorrigiert werden.

Viele Grüße

Rob/
slashCAM

Ich denke, es ist sicher, dass das Beispiel von klusterdegenerierung nicht (zurück-) korrigierbar ist (auf neutral), ohne dass es auch dann noch clippt. Damit verschenkt man sich also genau den Spielraum, der mit den Log-Kurven extra erst geschaffen wurde.



Antwort von klusterdegenerierung:



Aber genauso wurde es gemacht.

Komplett uebersehen, danke.
Gegen den Einsatz der offiziellen Lut spricht ansich nichts.
Aber diese muss gerade bei solchen Tests korrekt eingesetzt werden.
Das erklaert auch, warum die RAW-Kameras hier so gut wegkommen...

Aber das ist doch gerade der Witz und die Ironie an der Geschichte, denn auf der einen Seite will man nicht so viel Aufwand treiben, müßte man aber sogar noch mehr wenn man diese Luts einsetzt und auf der anderen Seite wird gerne über sehen das man bei die Luts garnicht weiß an welchen Parametern gedreht wurde, womit das zurückdrehen in den sicheren Bereich eher einem Ratespiel gleich kommt und den Aufwand noch erhöht und die Gefahr birgt, das man das Material zu ungunsten verwurstet.

Da fand ich den Tip mit einfach weglassen garnicht so schlecht und vielleicht noch ein Foto der Parade oder Waveform dazu und man kennt den headroom und ist glücklich.



Antwort von MarcusG:

@pillepalle:
Das verstehe ich nicht. Wenn das Bild ohne LUT nicht clippt, aber mit LUT schon, dann liegt es doch nicht am Motivkontrast, sondern an der LUT. Man sollte doch meinen dass die Anwendung eines LOG zu REC709 LUTS darauf ausgelegt ist, dass Log Material mit entsprechend vielen Tonwerten vorliegt und daher ALLE Tonwerte gemappt werden statt einfach abgeschnitten. Sonst macht doch der ganze Umweg über Log statt direkt 709 aufzunehmen überhaupt keinen Sinn, oder?



Antwort von MarcusG:



Guten Morgen miteinander,

hmm, ja, ich stehe ehrlich gesagt auch etwas kopfkratzend vor dem Beispiel ...

Das LOG-Bild ist für die genutzte LUT überbelichtet.

Zudem verstehe ich nicht, was das mit unserer Blendenreihe zu tun hat, da ja alle Über- und Unterbelichtungen in unseren Blendenreihen auf Neutral zurückkorrigiert werden.

Viele Grüße

Rob/
slashCAM

Ich denke, es ist sicher, dass das Beispiel von klusterdegenerierung nicht (zurück-) korrigierbar ist (auf neutral), ohne dass es auch dann noch clippt. Damit verschenkt man sich also genau den Spielraum, der mit den Log-Kurven extra erst geschaffen wurde.

Was heißt denn jetzt neutral? Wieso ist dss Beispiel nicht korrigierbar auf neutral, ich dachte das Bild zeigt dass kluster genau das getan hat ohne dass es clippt wie beim LUT?



Antwort von klusterdegenerierung:

Eine Lut ist eine Annäherung, keine Absolute, insofern passt so eine Lut vielleicht auf ein paar Prozent des gesamten Materials und da so eine Lut nicht dynamisch ist, ist klar das es schnell die Grenze erreicht.

So belichtet man in Log gerne über um Licht einzufangen und weniger Rauschen am ende der Bearbeitung zu bekommen, aber genau das verpacken die Luts garnicht.
Selbstverständlich kann man das Ausgangsmaterial auch mit Lut "neutralisieren" ist aber wesentlich anspruchsvoller, weil man nicht weiß was die Lut alles so macht.

Wer also keinen Anspruch auf nichtclipping hegt, der kann super so eine Lut benutzen, aber dann kann man auch gleich in Rec709 drehen, das clippt weniger als Log mit Lut. :-)



Antwort von dienstag_01:



Ich denke, es ist sicher, dass das Beispiel von klusterdegenerierung nicht (zurück-) korrigierbar ist (auf neutral), ohne dass es auch dann noch clippt. Damit verschenkt man sich also genau den Spielraum, der mit den Log-Kurven extra erst geschaffen wurde.

Was heißt denn jetzt neutral? Wieso ist dss Beispiel nicht korrigierbar auf neutral, ich dachte das Bild zeigt dass kluster genau das getan hat ohne dass es clippt wie beim LUT?

Ich hatte mich auf das Testszenario von Slashcam bezogen: Aufgenommen in Log, korrigiert mit Lut, dann zurück korrigiert nach neutral (*da ja alle Über- und Unterbelichtungen in unseren Blendenreihen auf Neutral zurückkorrigiert werden.*) . So wurde bei dem Test gearbeitet und damit bleibt das Clipping erhalten.



Antwort von rob:

Hi Kluster,

damit ich es nachvollziehen kann:

Verstehe ich dich richtig, dass du meinst, dass sich der Clipping-Punkt oder das Rauschen in der Unterbelichtung bei unserer Belichtungsreihe signifikant verändern, wenn die Korrektur auf die Neutralbelichtung nur manuell farbkorrigiert wird - also ohne 709 LUT erfolgt - im Vergleich zur Korrektur nach Neutral mit der 709 LUT?

Viele Grüße
Rob/
slashCAM



Antwort von pillepalle:

Ich bin hier sicher nicht der größte Spezialist im Forum, aber soweit ich weiß ist die LUT sowas wie die Umkehrung der LOG Kurve in ein genormtes REC709 (wohl so eine Art Broadcassting Standard mit relativ geringem Dynamikumfang und Farbraum). Bei mir, und ich gehe davon aus das es bei Kluster nicht anders ist, lässt sich auch das Clipping das ggf. durch die LUT entsteht wieder heraus korrigieren. Falls es also irgendwo unwiederbringbar clippt, dann tut es dies bereits im Log Material. Aber natürlich reduziert das Anwenden der LUT erstmal den verfügbaren Kontrastumfang der Kamera. Das ist ja genau ihre Aufgabe.

Wenn ich das gleiche Motiv unter den gleichen Bedingungen jetzt mit zwei verschiedenen Kameras fotografiere und die jeweilige LUT drauf lege, dann clippen sie auch womöglich unterschiedlich. Aber genau der Unterschied im Clipping spiegelt auch das jeweilige Log Profil wieder. Eine Kamera die früher Clippt hätte, um dem REC709 Standard zu entsprechen, anders ausgeleuchtet werden müssen (weicher), vorausgesetzt sie wurde richtig belichtet. Das bedeutet im Umkehrschluß aber auch das sie mit ihrem Log Profil einen geringeren Kontrast darstellen kann als eine andere Kamera. Ob das nun direkt Rückschlüsse auf die Dynamik des Sensors gibt, kann ich nicht sagen. Was man aber sagen kann ist, dass die jeweilige Log Kurve einen mehr oder weniger großen Kontrastumfang bewältigt. Und das ist doch das was mich in der Praxis interessiert, da es bei vielen Kameras die einzigen Daten sind, auf die man Zugriff hat.

Klar könnte man die Kameras auch ohne LUT vergleichgen, aber es liefe am Ende auf das gleiche hinaus. Die LUT ist so gesehen nur eine Abkürzung, oder Vereinfachung des Vorgangs mit der man sich an einer Norm orientiert.

VG



Antwort von klusterdegenerierung:


Hi Kluster,

damit ich es nachvollziehen kann:

Verstehe ich dich richtig, dass du meinst, dass sich der Clipping-Punkt oder das Rauschen in der Unterbelichtung bei unserer Belichtungsreihe signifikant verändern, wenn die Korrektur auf die Neutralbelichtung nur manuell farbkorrigiert wird - also ohne 709 LUT erfolgt - im Vergleich zur Korrektur nach Neutral mit der 709 LUT?

Viele Grüße
Rob/
slashCAM

Also fakt ist ja, das egal ob in einer Lut oder in einer Node, es zum ansteigen von Rauschen kommt wenn ich über einen gewissen punkt mit der Anhebung der Postbelichtung (gain) gehe, was sich ja immer ganz gut in Waveform oder Parade ablesen lässt.

Passt jetzt eine Lut in der Gestalt nicht zur eigenen Belichtung oder Belichtungsweise (ETTR) führt so eine Lut schnell zur klassischen Überbelichtung welche natürlich das Rauschen und das clippen prvoziert und anhebt.

Lass ich das jetzt so und korrigiere dies nicht in der corrector Node und rendere es so raus, ist das Material final natürlich unterdem was die Cam kann und sogesehen ruiniert.
Klar kann man das beheben, aber ich sprach ja einzig davon, warum man in so einem Test diesen Weg geht, da ihr ja die standart luts nicht korrigiert oder auf fehlbelichtung sichtet.

Da dies aber nunmal sehr schnell zur destruktion des Ausgangsmaterials führen kann, stell ich mir die Frage ob man es dann nicht besser lässt, oder von Hand eine neutralisierung bzw Rückführung in den sicheren Bereich macht, was ja mit fasst genauso wenig Aufwand geschehen kann wie das einsetzten einer Lut.








Antwort von dienstag_01:

Bei mir, und ich gehe davon aus das es bei Kluster nicht anders ist, lässt sich auch das Clipping das ggf. durch die LUT entsteht wieder heraus korrigieren.
Das ist der entscheidende Punkt, und ich behaupte, genau das geht nicht. Das wurde auch hier auf Slashcam schon mehrfach getestet (für Davinci Resolve).
Wenn es bei dir wider Erwarten funktioniert, solltest du das hier sofort mit Beispielbildern vergleichbar derer von klusterdegenerierung zeigen.



Antwort von klusterdegenerierung:


Ich bin hier sicher nicht der größte Spezialist im Forum, aber soweit ich weiß ist die LUT sowas wie die Umkehrung der LOG Kurve in ein genormtes REC709 (wohl so eine Art Broadcassting Standard mit relativ geringem Dynamikumfang und Farbraum). Bei mir, und ich gehe davon aus das es bei Kluster nicht anders ist, lässt sich auch das Clipping das ggf. durch die LUT entsteht wieder heraus korrigieren. Falls es also irgendwo unwiederbringbar clippt, dann tut es dies bereits im Log Material. Aber natürlich reduziert das Anwenden der LUT erstmal den verfügbaren Kontrastumfang der Kamera. Das ist ja genau ihre Aufgabe.

Wenn ich das gleiche Motiv unter den gleichen Bedingungen jetzt mit zwei verschiedenen Kameras fotografiere und die jeweilige LUT drauf lege, dann clippen sie auch womöglich unterschiedlich. Aber genau der Unterschied im Clipping spiegelt auch das jeweilige Log Profil wieder. Eine Kamera die früher Clippt hätte, um dem REC709 Standard zu entsprechen, anders ausgeleuchtet werden müssen (weicher), vorausgesetzt sie wurde richtig belichtet. Das bedeutet im Umkehrschluß aber auch das sie mit ihrem Log Profil einen geringeren Kontrast darstellen kann als eine andere Kamera. Ob das nun direkt Rückschlüsse auf die Dynamik des Sensors gibt, kann ich nicht sagen. Was man aber sagen kann ist, dass die jeweilige Log Kurve einen mehr oder weniger großen Kontrastumfang bewältigt. Und das ist doch das was mich in der Praxis interessiert, da es bei vielen Kameras die einzigen Daten sind, auf die man Zugriff hat.

Klar könnte man die Kameras auch ohne LUT vergleichgen, aber es liefe am Ende auf das gleiche hinaus. Die LUT ist so gesehen nur eine Abkürzung, oder Vereinfachung des Vorgangs mit der man sich an einer Norm orientiert.

VG

Sehe ich anders, da auch richtig belichtes Material zu clippen beginngt wenn man eine Lut einsetzt, siehe mein Beispielbild.
Das Problem bei Log und Lut ist ganz einfach jenes, das die Luts nicht auf überlelichtung ausgelegt sind und deswegen sehr schnell ausschlagen.

Blöd bei Log aber, weil jeder gute Log Filmer weiß das Log, wenn man es nicht 1,5 Blenden überbelichtet, zu unterbelichtung und Rauschen führt.
Du sprichst ja auch davon das man das clippen zweier Cams - Lut Aufnahmen auch gut vergleichen kann, ist aber auch falsch, weil die Lut von Pana ganz anders arbeitet als die Lut von Sony und damit ist ein gerechter und neutraler Vergleich auch dahin.



Antwort von rob:

Hi Kluster,

gerade sehr viel los hier - aber ich habe mir unsere Blendenreihe jetzt mal auch ohne LUT manuell auf neutral korrigiert angeschaut. Sowohl der Clippingpunkt als auch das Rauschen verändern sich NICHT signifikant.

Damit bin ich raus hier aus der Diskussion - muss jetzt mal wieder arbeiten ...

Ich werde speziell für dich :-) beim nächsten Dynamiktest für die kritischen Blendenwerte dann auch für jede Kamera nochmal Neutral-Korrekturen ohne LUTs ausspielen.

Viele Grüße und bis dann!

Rob/
slashCAM



Antwort von pillepalle:


Bei mir, und ich gehe davon aus das es bei Kluster nicht anders ist, lässt sich auch das Clipping das ggf. durch die LUT entsteht wieder heraus korrigieren.
Das ist der entscheidende Punkt, und ich behaupte, genau das geht nicht. Das wurde auch hier auf Slashcam schon mehrfach getestet (für Davinci Resolve).
Wenn es bei dir wider Erwarten funktioniert, solltest du das hier sofort mit Beispielbildern vergleichbar derer von klusterdegenerierung zeigen.

Ich denke das wenn man die Inversion der LUT (des Log zu REC709 Profils) aufträgt man wieder zum gleichen Ergebnis kommen sollte. Dazu muss man das Log to REC709 Profil aber erstmal kennen und das ist nicht mit dem Drehen an zwei Reglern getan. Deshalb fällt es auch schwer das 'mal eben' zu Beweisen.

Aber unabhängig davon, ob es destruktiv ist, oder nicht, ändert das ja nichts am Prinzip der LUTs allgemein. Eine Kamera mit einer weicheren Log Kurve, hat eine härtere LUT (um nur mal beim Beispiel des Kontrastumfangs zu bleiben) um das REC709 zu erreichen und umgekehrt. Die LUT spiegelt also in umgekehrter Weise den Kontrastumfang des Log Profils wieder. Deshalb wird da auch kein Hersteller bevorzugt. Die sollten alle mit der LUT bei REC709 landen.

Das sind bei mir aber auch nur theoretische Überlegungen.

VG



Antwort von dienstag_01:



Das ist der entscheidende Punkt, und ich behaupte, genau das geht nicht. Das wurde auch hier auf Slashcam schon mehrfach getestet (für Davinci Resolve).
Wenn es bei dir wider Erwarten funktioniert, solltest du das hier sofort mit Beispielbildern vergleichbar derer von klusterdegenerierung zeigen.

Ich denke das wenn man die Inversion der LUT (des Log zu REC709 Profils) aufträgt man wieder zum gleichen Ergebnis kommen sollte. Dazu muss man das Log to REC709 Profil aber erstmal kennen und das ist nicht mit dem Drehen an zwei Reglern getan. Deshalb fällt es auch schwer das 'mal eben' zu Beweisen.

Aber unabhängig davon, ob es destruktiv ist, oder nicht, ändert das ja nichts am Prinzip der LUTs allgemein. Eine Kamera mit einer weicheren Log Kurve, hat eine härtere LUT (um nur mal beim Beispiel des Kontrastumfangs zu bleiben) um das REC709 zu erreichen und umgekehrt. Die LUT spiegelt also in umgekehrter Weise den Kontrastumfang des Log Profils wieder. Deshalb wird da auch kein Hersteller bevorzugt. Die sollten alle mit der LUT bei REC709 landen.

Das sind bei mir aber auch nur theoretische Überlegungen.

VG

Natürlich kommt man bei Anwendung der Log to 709 Lut auf das gleiche Ergebnis, als wenn man gleich 709 aufzeichnet.
Damit verschenkt man sich aber genau den Bereich, für den Log extra entwickelt wurde.
Das ist kein sinnvolles Verfahren, um die Dynamic Range mit Log Profilen zu testen.



Antwort von roki100:


Bedeutet auch, dass man durch den Einsatz eines Speedboosters (https://www.dpreview.com/news/784461936 ... ame-sensor) mit der BMCC6K bei Bedarf nahe an die A7iii bezüglich der Lowlight-Fähigkeit herankommt.

Nice :-)

https://forum.blackmagicdesign.com/view ... =2&t=98814

https://forum.blackmagicdesign.com/down ... p?id=25821



Antwort von pillepalle:

@ Kluster

Das jede Kamera etwas anders auf Über- und Unterbelichtung reagiert will ich ja gar nicht abstreiten. Deshalb ist so ein Test ja auch nicht besonders wissenschaftlich. Aber eine richtige Belichtung ist genau genommen nur ein Punkt. Und wie gutmütig sich ein Kamerabild verhält, wenn man es Über, oder Unterbelichtet, nur ein Anhaltspunkt über das Verhalten des Materials. Je gutmütiger desto flexibeler in der Anwendung.

@ dienstag

Dann verstehe ich aber nicht was es da zu testen geben soll? Was soll man da machen? Eine Belichtungsreihe mit Log Material bis es oben bzw. unten clippt? Und daraus den Kontrastumfang berechnen? Das kann doch jeder selber zuhause auprobieren.

VG



Antwort von dienstag_01:


@ Kluster

Das jede Kamera etwas anders auf Über- und Unterbelichtung reagiert will ich ja gar nicht abstreiten. Deshalb ist so ein Test ja auch nicht besonders wissenschaftlich. Aber eine richtige Belichtung ist genau genommen nur ein Punkt. Und wie gutmütig sich ein Kamerabild verhält, wenn man es Über, oder Unterbelichtet, nur ein Anhaltspunkt über das Verhalten des Materials. Je gutmütiger desto flexibeler in der Anwendung.

@ dienstag

Dann verstehe ich aber nicht was es da zu testen geben soll? Was soll man da machen? Eine Belichtungsreihe mit Log Material bis es oben bzw. unten clippt? Und daraus den Kontrastumfang berechnen? Das kann doch jeder selber zuhause auprobieren.

VG

Und deshalb macht man einen Test, bei dem die Dynamic Range von Rec709 getestet wird?! Das ist nicht dein Ernst. Da kann ich dir verraten, dass jede Kamera und jedes am Markt erhältlich Smartphone eine größere Dynamic Range als Rec709 mitbringen. DIESEN Test muss man nicht mal zuhause ausprobieren, das weiß man.



Antwort von pillepalle:

@ Dienstag

so wie ich das verstanden habe testet man dabei nicht den Dynamic Range von REC709 (das wäre in der Tat Quatsch), sondern den des Log Profils mit einer REC709 LUT. Wenn die LUT bei einem Hersteller unter gleichen Bedingungen weicher/besser wirkt, dann kann ich doch bei der Aufnahme mit höheren Kontrasten arbeiten als mit der anderen? Das war ja auch was ich an Klusters Beispiel komisch fand. Wenn der Kontrastumfang zu hoch für die LUT ist, könnte er es auch weicher beleuchten (aka ein Motiv mit geringerem Kontrast verwenden) um zu einem korrekten REC709 zu kommen. Eine andere Kamera verträgt mit der LUT einen höheren Kontrast bevor sie clippt. Natürlich ist die LUT da auch anders, aber vor allem auch das Log Profil. Der eine Hersteller 'presst' 12 Blenden Kontrastumfang in ein REC709, der andere 14 Blenden. Aber erstmal braucht es die 12 bzw. 14 Blenden bevor die Kamera im Log Material clippt und unwiederbringbar verloren ist. So verstehe ich das und darin liegen dann auch die Unterschiede. Aber so richtig sicher bin ich mir da auch nicht *green*

VG








Antwort von DeeZiD:



Natürlich kommt man bei Anwendung der Log to 709 Lut auf das gleiche Ergebnis, als wenn man gleich 709 aufzeichnet.
Damit verschenkt man sich aber genau den Bereich, für den Log extra entwickelt wurde.
Das ist kein sinnvolles Verfahren, um die Dynamic Range mit Log Profilen zu testen.

Wundert mich ernsthaft was ihr für Kameras oder luts verwendet.

Wenn ich mit einer RED in IPP2 arbeite und am Ende die offizielle Lut für rec709 verwende, erhalte ich den vollen Dynamikumfang, wenn auch stark komprimiert in den Höhen und Tiefen. Das selbe bei Panasonic, Arri, Blackmagic usw.

Glaube nicht, dass es bei Sony anders ist. Falls schon, sind deren Luts Schrott und man sollte stattdessen z.B. auf CST mit Luminance mapping umsteigen.

Nur muss gerade, wenn man Highlight und Shadow Range testen möchte, vor der lut die Belichtung anpassen. Ob dies nun per Offset oder Raw-Exposure geschieht, ist vollkommen egal und führt zu praktisch identischen Ergebnissen so lange der CodecCodec im Glossar erklärt es zulässt.



Antwort von klusterdegenerierung:


Ich werde speziell für dich :-) beim nächsten Dynamiktest für die kritischen Blendenwerte dann auch für jede Kamera nochmal Neutral-Korrekturen ohne LUTs ausspielen.

Danke und nett, brauchst Du aber für mich nicht machen, ich habe mich dem Thema lediglich zugewandt, angestoßen hat es jemand anderes.



Antwort von roki100:

Also ich verstehe momentan auch nur Bahnhof.... :)

So z.B. bei BMPCC4K, da gibt es 3 Profile:

Film: LOG
Video: Standard Rec.709
Extended Video: wie Standard Rec.709, jedoch mit mehr Dynamic Range.

Wahrscheinlich ist das bei den anderen Kameras, die hier verglichen wurden, ähnlich oder nicht anders?

Was wurde nun bei dem vergleich gewählt? Wenn nur Standard Rec.709 (was im DaVinci Resolve auch als LUT zu finden ist) zum vergleich gewählt wurde, doch bei den andere Kameras der Standard Rec.709 LUT bereits vollen DynamicRange enthält, dann ist der vergleich doch nicht korrekt?



Antwort von pillepalle:

@ roki

Ich würde das so verstehen, das mit verschiednen Profilen der Dynamic Range der Kamera unterschiedlich stark komprimiert wird. Bei extended Rec709, mit mehr Dynamic Range wird es weniger stark komprimiert als bei dem normalen REC709 Profil. Kenne die genauen Werte nicht, aber wenn bei dem normalen REC709 die 14 Blenden Dynamik z.B. auf 8 Blenden komprimiert werden, so werden sie bei extended vielleicht nur auf 10 Blenden Dynamik komprimiert. Das Bild wird weicher sein, aber eben auch nicht mehr der Norm entsprechen.

VG



Antwort von dienstag_01:



Natürlich kommt man bei Anwendung der Log to 709 Lut auf das gleiche Ergebnis, als wenn man gleich 709 aufzeichnet.
Damit verschenkt man sich aber genau den Bereich, für den Log extra entwickelt wurde.
Das ist kein sinnvolles Verfahren, um die Dynamic Range mit Log Profilen zu testen.

Wundert mich ernsthaft was ihr für Kameras oder luts verwendet.

Wenn ich mit einer RED in IPP2 arbeite und am Ende die offizielle Lut für rec709 verwende, erhalte ich den vollen Dynamikumfang, wenn auch stark komprimiert in den Höhen und Tiefen. Das selbe bei Panasonic, Arri, Blackmagic usw.

Glaube nicht, dass es bei Sony anders ist. Falls schon, sind deren Luts Schrott und man sollte stattdessen z.B. auf CST mit Luminance mapping umsteigen.

Nur muss gerade, wenn man Highlight und Shadow Range testen möchte, vor der lut die Belichtung anpassen. Ob dies nun per Offset oder Raw-Exposure geschieht, ist vollkommen egal und führt zu praktisch identischen Ergebnissen so lange der CodecCodec im Glossar erklärt es zulässt.

Das ist ja mein Reden von Beginn an, so wie es gemacht wurde, geht es nicht.



Antwort von roki100:


Das Bild wird weicher sein, aber eben auch nicht mehr der Norm entsprechen.

Eigentlich ist das nicht die Sache des Testers, die ja Internetweit die Kameras mit dem gewählte Rec.709 Norm des Herstellers testen.

Im Prinzip wird in dem Artikel eben unterschiedliche Rec.709 verglichen und davon der Dynamikumfang, jedoch repräsentiert das nicht den eigentlichen vollen Dynamikumfang. Wie Beispiel beim diesen Test: https://www.cinema5d.com/blackmagic-poc ... tter-more/



Antwort von dienstag_01:


@ Dienstag

so wie ich das verstanden habe testet man dabei nicht den Dynamic Range von REC709 (das wäre in der Tat Quatsch), sondern den des Log Profils mit einer REC709 LUT. Wenn die LUT bei einem Hersteller unter gleichen Bedingungen weicher/besser wirkt, dann kann ich doch bei der Aufnahme mit höheren Kontrasten arbeiten als mit der anderen? Das war ja auch was ich an Klusters Beispiel komisch fand. Wenn der Kontrastumfang zu hoch für die LUT ist, könnte er es auch weicher beleuchten (aka ein Motiv mit geringerem Kontrast verwenden) um zu einem korrekten REC709 zu kommen. Eine andere Kamera verträgt mit der LUT einen höheren Kontrast bevor sie clippt. Natürlich ist die LUT da auch anders, aber vor allem auch das Log Profil. Der eine Hersteller 'presst' 12 Blenden Kontrastumfang in ein REC709, der andere 14 Blenden. Aber erstmal braucht es die 12 bzw. 14 Blenden bevor die Kamera im Log Material clippt und unwiederbringbar verloren ist. So verstehe ich das und darin liegen dann auch die Unterschiede. Aber so richtig sicher bin ich mir da auch nicht *green*

VG

Man kann bei den Bildern von klusterdegenerierung sehr schön sehen, wie nicht clippendes Log in clippendes 709 gespreizt wird. Dank Lut. Das zeigt, dass die Dynamik der Kamera von diesem Workflow beschnitten wird.
(Und es sollte klar werden, dass in 709 keine 12 oder 14 Blenden standardmäßig abgebildet werden können, da würden die Bilder aussehen wie dieses Foto-Fake-HDR)



Antwort von roki100:

also ich denke, wer sich für irgendeine Kamera interessiert, der wird sich nicht nur bei SlashCAM informieren und internetweit nach andere Tests schauen. Es ist es aber so, dass einige Tests von hier verlinkt werden, als Bestätigung für die eigene Tests, oder für die eigene Überzeugung, "was besser sei". Ähnlicher Beispiel wäre BRAW vs CDNG. Bekannt ist mittlerweile, dass BRAW Kamerainterne Korrekturen enthält, Pre-Denoising usw. CDNG aber nicht. Und BRAW wurde als näher an FilmGrain bewertet, statt als Kamerainterne Denoising. Denn, ähnlichen Filmkorn hat man, wenn man auf CDNG Material nachträglich ein starkes NR anwendet. Daher ist beim Vergleich BRAW etwas unschärfer. Es hat also nichts mit näher an Filmkorn etc. zu tun, sondern mit NR(BRAW) und kein NR(CDNG).



Antwort von pillepalle:


Man kann bei den Bildern von klusterdegenerierung sehr schön sehen, wie nicht clippendes Log in clippendes 709 gespreizt wird. Dank Lut.

Ja klar, aber das ist doch auch der Sinn der LUT. Sonst bräuchte ich sie gar nicht verwenden. Nur gehe ich eben davon aus das die Informationen aus dem Log Bild auch in dem Bild mit der angewendeten LUT noch vorhanden sind. Man könnte z.B. die clippenden Lichter auch zurückholen. Eine LUT (in dem Fall ein Log zu REC709 Profil) ist doch nur eine mathematische Operation die ich nachträglich in der Software auf die Bilddatei anwende. Warum sollte diese Operation nicht Rückgängig gemacht werden können? Erst in dem Moment wenn ich die Datei exportiere und die Daten in das FormatFormat im Glossar erklärt einbacke ist das destruktiv...

VG








Antwort von klusterdegenerierung:


Nur gehe ich eben davon aus das die Informationen aus dem Log Bild auch in dem Bild mit der angewendeten LUT noch vorhanden sind. Man könnte z.B. die clippenden Lichter auch zurückholen.

Pille, das ist ja richtig, was Du aber in dem diskutierten Fall vergisst ist der ganz wesentlich und zugleich kritisierte Punkt, das hier A niemand was zurückgeholt hat und B hier nur Bilder eines Test gezeigt werden bei denen eine Lut verwendet wurde und es unterumständen clippt.

Wenn das ein interessent nicht weiß, weiß er doch garnicht dass das original footage nicht clippt, sondern nur die Lut vo der er nix weiß.
Wir reden also lediglich über kontraproduktivität in diesem Test in Bezug auf eine Beurteilung von Aussen.



Antwort von pillepalle:

@ klusterdegenerierung

Ich weiss schon was Du meinst. Aber das Slashcam Test-Motiv stellt doch bezüglich des Kontrasts für keine Kamera eine ernsthafte Herausforderung dar. Richtig belichtet kriegen das alle ganz gut hin. Erst wenn man den Cocec durch extreme Über- oder Unterbelichtung stresst, fällt das Bild auseinander. Und da fällt es eben bei verschiedenen Kameras unterschiedlich schnell auseinander. So verstehe ich zumindest diese Tests.

VG



Antwort von klusterdegenerierung:

Und das rechtfertigt jetzt eher die verwirrung durch eine Lut?



Antwort von rob:



Nur gehe ich eben davon aus das die Informationen aus dem Log Bild auch in dem Bild mit der angewendeten LUT noch vorhanden sind. Man könnte z.B. die clippenden Lichter auch zurückholen.

Pille, das ist ja richtig, was Du aber in dem diskutierten Fall vergisst ist der ganz wesentlich und zugleich kritisierte Punkt, das hier A niemand was zurückgeholt hat

Hi Kluster,

hmm,

irgendwie geht hier vieles durcheinander - natürlich wurde bei der Gammakorrektur auf Neutral bei uns nahezu alles, was durch die 709 LUT clippt zurückgeholt. Ansonsten könnte man ja nur die LUT draufklatschen und fertig (und sich wundern dass es clippt - wie in deinem Beispiel ...?

Ich bin ab Dienstag wieder in der Redaktion und hoffe, dass ich dann genug Zeit finde hier ein bisschen was zu erläutern ...

Viele Grüße und bis dann!

Rob/
slashCAMl



Antwort von dienstag_01:



Man kann bei den Bildern von klusterdegenerierung sehr schön sehen, wie nicht clippendes Log in clippendes 709 gespreizt wird. Dank Lut.

Ja klar, aber das ist doch auch der Sinn der LUT. Sonst bräuchte ich sie gar nicht verwenden. Nur gehe ich eben davon aus das die Informationen aus dem Log Bild auch in dem Bild mit der angewendeten LUT noch vorhanden sind. Man könnte z.B. die clippenden Lichter auch zurückholen. Eine LUT (in dem Fall ein Log zu REC709 Profil) ist doch nur eine mathematische Operation die ich nachträglich in der Software auf die Bilddatei anwende. Warum sollte diese Operation nicht Rückgängig gemacht werden können? Erst in dem Moment wenn ich die Datei exportiere und die Daten in das FormatFormat im Glossar erklärt einbacke ist das destruktiv...

VG

Sobald das Material clippt, ist es weg. Warum? Wahrscheinlich beschränkt sich der Wertebereich der Lut auf 256 Werte für 8 BitBit im Glossar erklärt (1023 für 10 bit). Deshalb wird ja hier von verschiedenen Usern (cantsin) der Weg über eine Color dingsbums Transformation propagiert, da gibt es keine fehlenden Werte. Und da ist dann auch nichts destruktiv.



Antwort von DeeZiD:



Ja klar, aber das ist doch auch der Sinn der LUT. Sonst bräuchte ich sie gar nicht verwenden. Nur gehe ich eben davon aus das die Informationen aus dem Log Bild auch in dem Bild mit der angewendeten LUT noch vorhanden sind. Man könnte z.B. die clippenden Lichter auch zurückholen. Eine LUT (in dem Fall ein Log zu REC709 Profil) ist doch nur eine mathematische Operation die ich nachträglich in der Software auf die Bilddatei anwende. Warum sollte diese Operation nicht Rückgängig gemacht werden können? Erst in dem Moment wenn ich die Datei exportiere und die Daten in das FormatFormat im Glossar erklärt einbacke ist das destruktiv...

VG

Sobald das Material clippt, ist es weg. Warum? Wahrscheinlich beschränkt sich der Wertebereich der Lut auf 256 Werte für 8 BitBit im Glossar erklärt (1023 für 10 bit). Deshalb wird ja hier von verschiedenen Usern (cantsin) der Weg über eine Color dingsbums Transformation propagiert, da gibt es keine fehlenden Werte. Und da ist dann auch nichts destruktiv.

Color Space Transform in Resolve + Luminance Mapping
Das sollte dann auch - falls die Sony-Lut wirklich so schlecht ist - bei eben solchen Kameras helfen.



Antwort von MarcusG:



Pille, das ist ja richtig, was Du aber in dem diskutierten Fall vergisst ist der ganz wesentlich und zugleich kritisierte Punkt, das hier A niemand was zurückgeholt hat

Hi Kluster,

hmm,

irgendwie geht hier vieles durcheinander - natürlich wurde bei der Gammakorrektur auf Neutral bei uns nahezu alles, was durch die 709 LUT clippt zurückgeholt. Ansonsten könnte man ja nur die LUT draufklatschen und fertig (und sich wundern dass es clippt - wie in deinem Beispiel ...?

Ich bin ab Dienstag wieder in der Redaktion und hoffe, dass ich dann genug Zeit finde hier ein bisschen was zu erläutern ...

Viele Grüße und bis dann!

Rob/
slashCAMl

Aha! Es wurde also doch etwas durch die LUT geclippt...ABER manuell wieder zurück geholt. Genau davon war ich eben nicht ausgegangen und daher hatte ich es moniert. Wurde das im Artikel erwähnt und ich hab es überlesen?



Antwort von dienstag_01:



Sobald das Material clippt, ist es weg. Warum? Wahrscheinlich beschränkt sich der Wertebereich der Lut auf 256 Werte für 8 BitBit im Glossar erklärt (1023 für 10 bit). Deshalb wird ja hier von verschiedenen Usern (cantsin) der Weg über eine Color dingsbums Transformation propagiert, da gibt es keine fehlenden Werte. Und da ist dann auch nichts destruktiv.

Color Space Transform in Resolve + Luminance Mapping
Das sollte dann auch - falls die Sony-Lut wirklich so schlecht ist - bei eben solchen Kameras helfen.

Ehrlich gesagt, so ganz verstehe ich deine Argumentation nicht. An einer Stelle sprichst du von einer *schlechten* Sony Lut, an anderer davon, dass eine Luma-Korrektur vor der Anwendung der Lut erfolgen muss, eine Anwendung nach der Lut wäre *recht sinnfrei*. Da dieser deinen Worten nach *sinnfreie* Weg von der Redaktion gewählt wurde, stellt sich die Frage, auf welcher Grundlage deine Einschätzung der Sony-Lut-Qualität getroffen wurde. Passt irgendwie nicht.



Antwort von DeeZiD:



Color Space Transform in Resolve + Luminance Mapping
Das sollte dann auch - falls die Sony-Lut wirklich so schlecht ist - bei eben solchen Kameras helfen.

Ehrlich gesagt, so ganz verstehe ich deine Argumentation nicht. An einer Stelle sprichst du von einer *schlechten* Sony Lut, an anderer davon, dass eine Luma-Korrektur vor der Anwendung der Lut erfolgen muss, eine Anwendung nach der Lut wäre *recht sinnfrei*. Da dieser deinen Worten nach *sinnfreie* Weg von der Redaktion gewählt wurde, stellt sich die Frage, auf welcher Grundlage deine Einschätzung der Sony-Lut-Qualität getroffen wurde. Passt irgendwie nicht.

Falls die Sony Lut schlecht sein sollte und Highlights clippt, sollte man stattdessen auf die Resolve-eigene Colorspace-Transform mit Luminance-Mapping umsteigen.

Wenn man testen moechte wie sehr sich Unter- und Ueberbelichtung auf die Kamera und nicht auf die verwendete LUT/Wandlung auswirkt, gehoert die Belichtungsanpassung natuerlich vor der LUT/Wandlung.



Antwort von klusterdegenerierung:


Falls die Sony Lut schlecht sein sollte und Highlights clippt, sollte man stattdessen auf die Resolve-eigene Colorspace-Transform mit Luminance-Mapping umsteigen.

Mann kann auch vorher noch mit dem Fahrrad in die Stadt fahren oder den Keller aussaugen wenn man noch mehr Zeit vergeuden will!



Antwort von DeeZiD:



Falls die Sony Lut schlecht sein sollte und Highlights clippt, sollte man stattdessen auf die Resolve-eigene Colorspace-Transform mit Luminance-Mapping umsteigen.

Mann kann auch vorher noch mit dem Fahrrad in die Stadt fahren oder den Keller aussaugen wenn man noch mehr Zeit vergeuden will!

Oder sich gar den Aufwand machen, nichts zum Thema beizutragen?



Antwort von klusterdegenerierung:

Du solltest den Thread einmal in Ruhe von Anfang an lesen, dann fällt Dir auf, das ich wohl am meißten dazu beigetragen habe und sogar einen Test mit screenshot gefahren haben.
Aber blöd palabern ist ja hier eh hipper als aufmerksame Teilhabe. :-)



Antwort von roki100:

aber DeeZiD bezieht sich eben genau darauf und gab den Tipp was man anwenden kann....? u.a. das mit ACES und ich frage mich wie das genau gemeint ist bzw. was man da machen muss... :)



Antwort von Fabia:



Falls die Sony Lut schlecht sein sollte und Highlights clippt, sollte man stattdessen auf die Resolve-eigene Colorspace-Transform mit Luminance-Mapping umsteigen.

Mann kann auch vorher noch mit dem Fahrrad in die Stadt fahren oder den Keller aussaugen wenn man noch mehr Zeit vergeuden will!

Das mit dem Keller aussaugen halte ich für eine gute Idee,vor allem wenn dort guter Wein gelagert ist:Im Wein liegt die Wahrheit,im Wasser die Klarheit,es liegt die Kraft im Gerstensaft!
Gar mancher hat dort unten nicht nur die Antwort auf die Frage nach dem Sinn des Lebens gefunden :-))



Antwort von Xergon:

Hallo rob,
noch mal eine Frage zum Thema Lowlight:

Testet ihr bei Sensoren mit Dual-ISO Fähigkeit im hohen oder niedrigen ISO Modus?
Oder kombiniert ihr diese für die unterschiedlichen Belichtungseinstellungen?

Wie führt ihr eigentlich die unterschiedlichen Belichtungen durch?
Ich vermute mal ihr nehmt jeweils mit der Base-ISO auf und passt dann nur die Belichtungszeit an?

Gruß,
Stefan



Antwort von Darth Schneider:

Was ist denn an Lowlight Tests und Vergleichen heute denn überhaupt noch spannend ? Gerade mit der Pocket kann man ja locker bis 6400 gehen, mit der Rauschunterdrückung in Resolve gehts noch höher.

Die Frage die dann jetzt höchstens noch bleibt, wie sinnvoll ist das überhaupt höher zu gehen als die beiden dualen Iso Werte ? Je höher der Isp Wert desto weniger DR.
Gruss Boris



Antwort von Mediamind:

Natürlich ist es interessant. ISO werte von 10.000 und mehr muss ich in ungünstigen Situation immer mal wieder verwenden. Von daher ist das Rauschverhalten und der Dynamikumfang schon interessant. Auch wenn ich dir recht gebe, die Entwicklung zu brauchbaren hohen ISO Werten ist schon grandios.



Antwort von roki100:

und wie ist das mit Kamerainterne Rauschunterdrückung? Die Kamera, welche mit höherem ISO Wert als schlechter bewertet wird, weil es mehr rauscht als Vergleichskamera, ist vll. besser mit externe nachträgliche Rauschunterdrückung (z.B. NeatVideo).



Antwort von Darth Schneider:

Das was möglichst direkt aus der Kamera herauskommt zählt, bei solchen Tests, nicht die nachträglichen Bildbearbeitungs Möglichkeiten.
Gruss Boris



Antwort von roki100:


Das was möglichst direkt aus der Kamera herauskommt zählt, bei solchen Tests, nicht die nachträglichen Bildbearbeitungs Möglichkeiten.
Gruss Boris

was LowLight betrifft ist somit P30 (Pro) Smartphone die beste LowLight Kamera.

Eine Kamera also, die einen sehr guten und besseren Sensor hat als der von der Vergleichskamera, KANN Aufgrund des interne schlechtere Bearbeitungsprozesse, als schlechter bewertet werden. Beispiel wäre nicht nur von Hersteller eigene justiertes Rec.709, sondern auch sowas wie Rauschunterdrückung usw. ?



Antwort von pillepalle:

Appropos... hatte mir gestern mal die Demo-Version von NeatVideo herunter geladen. Bin echt baff wie clean das Bild dadurch wird. Scheint allerdings recht rechenintensiv zu sein. Mein Laptop kam da schon ganz schön ans rechnen. Überlege jetzt ob es sinnvoller ist jetzt erstmal die Studio Version von Resolve zu holen und den Denoiser von Resolve zu nutzen, oder erstmal mit der kostenlosen Resolve Version weiter zu arbeiten und NeatVideo für's Denoising zu nehmen. Hab' eigentlich nur ein paar Szenen die mehr rauschen und bin mir nicht sicher in wie weit ich die zusätzlichen Effekte der Studio Version überhaupt brauche. Taugt der Denoiser in Resolve Studio?

VG



Antwort von klusterdegenerierung:


Was ist denn an Lowlight Tests und Vergleichen heute denn überhaupt noch spannend ? Gerade mit der Pocket kann man ja locker bis 6400 gehen, mit der Rauschunterdrückung in Resolve gehts noch höher.

Die Frage die dann jetzt höchstens noch bleibt, wie sinnvoll ist das überhaupt höher zu gehen als die beiden dualen Iso Werte ? Je höher der Isp Wert desto weniger DR.
Gruss Boris

Sehr spannend, interessant und kreativ ist die Variante bei normalem Wetter, bzw Licht, den Sensor auf max Iso zufahren und mit ND Filtern auf normale Belichtung zu bringen, das bockt! :-)



Antwort von roki100:

@pillepalle
also NeatVideo ist viel besser als die andere (Resolve&Co.) Denoiser bzw. es handelt sich definitiv um eine andere/bessere NR Technologie.



Antwort von klusterdegenerierung:


Appropos... hatte mir gestern mal die Demo-Version von NeatVideo herunter geladen. Bin echt baff wie clean das Bild dadurch wird. Scheint allerdings recht rechenintensiv zu sein. Mein Laptop kam da schon ganz schön ans rechnen. Überlege jetzt ob es sinnvoller ist jetzt erstmal die Studio Version von Resolve zu holen und den Denoiser von Resolve zu nutzen, oder erstmal mit der kostenlosen Resolve Version weiter zu arbeiten und NeatVideo für's Denoising zu nehmen. Hab' eigentlich nur ein paar Szenen die mehr rauschen und bin mir nicht sicher in wie weit ich die zusätzlichen Effekte der Studio Version überhaupt brauche. Taugt der Denoiser in Resolve Studio?

VG

Ich weiß nicht was Neat so kostet, aber der Denoiser in Resolve lässt keine Wünsche übrig!
So kann man ihn sehr detailiert auf bestimmte Szenarios anpassen und dabei macht er den Job echt gut.

Was ich jetzt in dem Zusammenhang sehr spannend fand, das ich vorkurzem Mavic Air Material stückweise befiltert habe und dies recht Leistungsintensiv war, aber als ich jetzt mal bei einem 2min Clip einen adjustment layer komplett drüber gelegt und ihn mit Denoiser befüllt habe, lief der Clip genauso wie ohne, obwohl er wirklich gedenoised wurde!

Sehr spannend und die Ergebnisse können sich echt sehen lassen.
Ich denke da ist ne Resolve Lizenz besser angelegt. :-)



Antwort von pillepalle:

@ klusterdegenerierung

Neat kostet ca. 170,-€ in der Pro Version für Resolve,,, aber Danke für die Info zum Denoiser von Resolve. Musste diesen Monat recht viel ans Finanzamt abdrücken und daher zum Ende des Projekts hin etwas mehr sparen als ursprünglich geplant :/ Daher hatte ich überlegt erstmal mit der Lite Version weiter zu arbeiten.

VG



Antwort von roki100:

also der unterschied zu NeatVideo ist, dass mit DR Denoiser eine Art Banding und Blockartige ArtefakteArtefakte im Glossar erklärt entstehen und desto höher Luma Werte gewählt wird, kommt das mehr zum Vorschein. Bei NeatVideo sieht das völlig anders aus und dazu auch nicht so plastisch bzw. es bleibt auch scharf. Mit NeatVideo kann ich sogar BMPCC 1600+1 exposure (=ISO3200) nutzen. Dazu noch eine F1.7 linse und die BMPCC ist somit keine schlechte LowLight Kamera mehr. ;)



Antwort von pillepalle:

Was mir an NeatVideo gefallen hat ist, dass es ziemlich Idiotensicher ist. Hab' mit den Standarteinstellungen schon ein super Ergebnis gehabt. Bei Resolve muss man sich vermutlich etwas mehr mit den Parametern beschäftigen.

VG



Antwort von Xergon:

nein, bei Resolve gibt es die Parameterfülle einfach nicht.

Meistens erzeig der Resolve-Denoiser recht gute Ergebnisse, manchmal liegt aber die Bewegungserkennung vom Temporal Denoiser so dermaßen daneben, dass das Bild anfängt zu wabern und wobbeln. Das hab ich so bei NeatVideo noch nie gesehen.

Meistens probier ich folglich erst mit Resolve zu denoisen, und wenn das Ergebnis unschön ist wird nochmal NeatVideo ausgepackt.



Antwort von pillepalle:

@ Xergon

Achso... also kann es einem bei Resolve auch mal passieren das es nicht zufriedenstellend funktioniert. Aber mal ganz blöd gefragt, warum nimmst Du dann nicht gleich immer das NeatVideo-Plugin? Wo ist der Vorteil standardmäßig erstmal den Denoiser von Resolve zu verwenden? Rechnet der weniger, oder ist der schneller?

VG



Antwort von klusterdegenerierung:


also der unterschied zu NeatVideo ist, dass mit DR Denoiser eine Art Banding und Blockartige ArtefakteArtefakte im Glossar erklärt entstehen und desto höher Luma Werte gewählt wird, kommt das mehr zum Vorschein. Bei NeatVideo sieht das völlig anders aus und dazu auch nicht so plastisch bzw. es bleibt auch scharf. Mit NeatVideo kann ich sogar BMPCC 1600+1 exposure (=ISO3200) nutzen. Dazu noch eine F1.7 linse und die BMPCC ist somit keine schlechte LowLight Kamera mehr. ;)

Das passiert aber überall wenn man die Werte nicht gezielt auf sein Material anpasst.
Vor allem wenn es dann unterschiedliches Material gibt, da muß man dann wirklich neu ansetzten, und es gilt dort eh die Devise, weniger ist mehr.

Aber Luma versaut eh schneller als Chroma, da man damit immer gleich so einen Wachseffekt bekommt.
Gute Erfahrung habe ich mit Schärfe nachdem Denoisen, weil man dann wieder eine Art natürliches Korn über die Schärfung bekommt was das waxing wieder etwas neutralisiert.



Antwort von roki100:

Temporal NR auf 2 oder 3
Temporal Threshold: 10 bis 15 (Luma und Chroma)
Und manchmal Spatial Threshold Luma auf 1.8 oder 2

Dennoch ist NeatVideo wirklich was anderes. Wenn Du irgendwann komische ArtefakteArtefakte im Glossar erklärt hast und Du unzufrieden bist, dann teste auf das selbe material mal NeatVideo und überzeuge dich selbst.

Es ist zwar langsam, aber dann warte ich halt ne stunde +/- länger bis alles fertig gerendertgerendert im Glossar erklärt ist.



Antwort von DeeZiD:

Temporal NR in Resolve funktioniert hervorragend so lange nicht allzu viel Bewegung im Bilde ist. Fuer Szenen mit viel Bewegung ist Neat Video das deutlich bessere Tool und liefert konsistentere Resultate.



Antwort von Rick SSon:

seltsamer vergleich mit 709 luts. Fand bisher alle offiziellen Luts die ich so ausprobiert habe unbrauchbar :-D

Bin mit p4k echt happy beim DR. BRAW bringt gute farbinfos mit, halbe blende holt man nochmal mit highlightrecovery.



Antwort von DeeZiD:


seltsamer vergleich mit 709 luts. Fand bisher alle offiziellen Luts die ich so ausprobiert habe unbrauchbar :-D

Bin mit p4k echt happy beim DR. BRAW bringt gute farbinfos mit, halbe blende holt man nochmal mit highlightrecovery.

Die Blackmagic Extended Lut ist auch alles andere als brauchbar. :D
Alles braun, rot und blau clippen, tungsten Roll-Off ist furchtbar, alles sehr hart usw...

Aber die offiziellen RED (IPP2), Panasonic (V-Gamut) und ARRI (Log C) Luts sind fantastisch.



Antwort von DeeZiD:

Wo wir schon dabei sind, vielleicht ist ja jemand interessiert.

http://55media.net/55m-p4k-color/

Die Lut löst alle oben genannten Probleme. S1h-Variante ist auch bereits fertig, wobei diese vergleichsweise einfach zu bauen war, da die Kamera bereits mit einer schlichten Rec2020 zu Rec709 Gamut-Konvertierung und simpler S-Kurve großartig aussieht.



Antwort von Rick SSon:


Wo wir schon dabei sind, vielleicht ist ja jemand interessiert.

http://55media.net/55m-p4k-color/

Die Lut löst alle oben genannten Probleme. S1h-Variante ist auch bereits fertig, wobei diese vergleichsweise einfach zu bauen war, da die Kamera bereits mit einer schlichten Rec2020 zu Rec709 Gamut-Konvertierung und simpler S-Kurve großartig aussieht.

Oh bitte, das behauptet JEDER, der Luts verkauft.



Antwort von DeeZiD:



Wo wir schon dabei sind, vielleicht ist ja jemand interessiert.

http://55media.net/55m-p4k-color/

Die Lut löst alle oben genannten Probleme. S1h-Variante ist auch bereits fertig, wobei diese vergleichsweise einfach zu bauen war, da die Kamera bereits mit einer schlichten Rec2020 zu Rec709 Gamut-Konvertierung und simpler S-Kurve großartig aussieht.

Oh bitte, das behauptet JEDER, der Luts verkauft.

Aber keine andere Lut kann es ;)



Antwort von roki100:


Oh bitte, das behauptet JEDER, der Luts verkauft.

Du meinst wie das von dem BMD Mitarbeiter Namens Captain Hook ? ;)

Also wenn ich mir die Filme von DeeZiD anschaue, dann denke ich schon das seine LUTs was tolles ist.



Antwort von Kamerafreund:

Warum spart ihr euch nicht einfach dieses ganze LUT-gedöns und denoisen des Slog Materials und nehmt gleich fertig in HLG3 auf?
https://www.youtube.com/watch?v=D2iqEDUe1qg



Antwort von klusterdegenerierung:

Weil da ausser in Youtubetest in der Praxis nix brauchbares bei rauskommt.



Antwort von DeeZiD:


Warum spart ihr euch nicht einfach dieses ganze LUT-gedöns und denoisen des Slog Materials und nehmt gleich fertig in HLG3 auf?

Du weißt schon, dass HLG eine Wandlung braucht, um auf sRGB-Monitoren dargestellt werden zu können?



Antwort von klusterdegenerierung:

Das ist ja das unpraktische, biege das mal einem mittelständischen Metaler mit. ;-)



Antwort von Gedo:

It would be great to have Panasonic S1H compared to Nikon Z6 in 10bit output DR.



Antwort von pillepalle:


It would be great to have Panasonic S1H compared to Nikon Z6 in 10bit output DR.

At least from the spec sheets the DR of the S1H should be higher. The S1H is overall the better Videocamera having higher resolution, framerates and some nice internal recording options. But it's also a comparison between a 4.000,-€ camera and (actually) a 1500,-€ camera :)

Greetings



Antwort von Kamerafreund:

Glaube eher dass log Material niemandem was bringt außer LUT Verkäufern. ;) allein schon wegen einer base ISO von 800. Tests gibt's genug aber bestimmt haben alle in der Praxis ganz andere Erfahrungen gemacht.. https://www.4kshooters.net/2018/09/10/h ... le-to-use/



Antwort von DeeZiD:


Glaube eher dass log Material niemandem was bringt außer LUT Verkäufern. ;) allein schon wegen einer base ISO von 800. Tests gibt's genug aber bestimmt haben alle in der Praxis ganz andere Erfahrungen gemacht.. https://www.4kshooters.net/2018/09/10/h ... le-to-use/

Und wie stellst du HLG-Material auf deinem sRGB-Bildschirm dar?

Per Konvertierung, da ansonsten alles überstrahlt und Menschen so aussehen, als ob diese kurz vorm Leberversagen (Rec2020 primaries) stünden...

Ob diese nun mathematisch korrekt oder Lut gemacht wird, ist vollkommen irrelevant, da jeder Hersteller so oder so sein eigenes Süppchen auch im Rec2020-"Standard" kocht und vieles auch persönliche Präferenz ist.



Antwort von Gedo:



It would be great to have Panasonic S1H compared to Nikon Z6 in 10bit output DR.

At least from the spec sheets the DR of the S1H should be higher. The S1H is overall the better Videocamera having higher resolution, framerates and some nice internal recording options. But it's also a comparison between a 4.000,-€ camera and (actually) a 1500,-€ camera :)

Greetings

Well, that's exactly why it would be interesting. I've got Z6, and with Ninja V I get around 12 stops of range in 10bits. But never did this kind of latitude test. And as the sensors in those two cameras are the same (just like in Sony A7III), it would be an interesting comparison. Yes, Panasonic can output 6K, variable framerates, and nice internal. Other than that I find Z6 very nice, and definitely better (imo) than Sony with its 8bit. And I did compare Z6 to Sony.

Greetings



Antwort von pillepalle:

@ Gedo

I also use the Z6 with a Ninja and I'm quite happy with it. Honestly I'n not really tempted by the Panasonic cameras because of the mount.

Even if the sensor would be the same (I don't believe that) , the processing is different. Maybe things change with the Raw update on both cameras. But I also wouldn't mind if not. I like the images of the camera and it works nicely. So no need for me to think about something else.

Greetings



Antwort von Gedo:


@ Gedo

I also use the Z6 with a Ninja and I'm quite happy with it. Honestly I'n not really tempted by the Panasonic cameras because of the mount.

Even if the sensor would be the same (I don't believe that) , the processing is different. Maybe things change with the Raw update on both cameras. But I also wouldn't mind if not. I like the images of the camera and it works nicely. So no need for me to think about something else.

Greetings

Yes, I'm happy with the combo as well. HDMIHDMI im Glossar erklärt delay is annoying though. My hope would be that their hardware upgrade needed for proresRAW would include a fix for delay as well. We'll see when we send the cameras. Also with cfexpress they could enable internal raw. Even if for limited recording time (due to probable heat problems).



Antwort von pillepalle:

Yes, the delay is annoying, but my guess is that's due to the HDMIHDMI im Glossar erklärt out. So probably it wouldn't change significantly with a Raw output. And I also don't think the camera will be capable to internal Raw. Maybe future models. The downside of internal Raw is the more than 5 times higher storage costs and the need of a decent monitor anyways. Working with the screen on the back of the camera is no fun.

Greetings



Antwort von Gedo:


Yes, the delay is annoying, but my guess is that's due to the HDMIHDMI im Glossar erklärt out. So probably it wouldn't change significantly with a Raw output. And I also don't think the camera will be capable to internal Raw. Maybe future models. The downside of internal Raw is the more than 5 times higher storage costs and the need of a decent monitor anyways. Working with the screen on the back of the camera is no fun.

Greetings

It's due to Nikon's way of HDMIHDMI im Glossar erklärt implementation. For instance Nikon D850 has same delay. I've compared to other brands, and none have such a huge delay. They definitely need to change something. I've contacted their support some time ago, they said they were looking into it. As to internal RAW, there's a place for it - when you have the smallest possible camera setup. No external monitor, nothing. It's not very convenient, but sometimes it's exactly what's needed. I'd be happy with, say. 10 minute recording time to internal raw :). But yes, maybe in future models.



Antwort von pillepalle:

@ Gedo

Interesting. I thought all cameras that give their signal over HDMIHDMI im Glossar erklärt out has a lag? Which
cameras you've tested and what was their delay? On the Nikon it's about 200ms what I've experienced.

Greetings



Antwort von Gedo:


@ Gedo

Interesting. I thought all cameras that give their signal over HDMIHDMI im Glossar erklärt out has a lag? Which
cameras you've tested and what was their delay? On the Nikon it's about 200ms what I've experienced.

Greetings

They all do. However, around 3 frames on Sony A7III or Fuji X-T3 compared to 8 frames on Nikon was is a big difference. These were my findings.



Antwort von pillepalle:

Ah, ok. Good to know. But the number of frames depend on the framerates. So 8 frames on. 30p?
I've mesured the delay of the audio signal going directly into the Ninja and the one coming from the HDMIHDMI im Glossar erklärt input. So if there is more delay it has to come from the Ninja itself.

Greetings



Antwort von Gedo:


Ah, ok. Good to know. But the number of frames depend on the framerates. So 8 frames on. 30p?
I've mesured the delay of the audio signal going directly into the Ninja and the one coming from the HDMIHDMI im Glossar erklärt input. So if there is more delay it has to come from the Ninja itself.

Greetings

I measured on 25p.



Antwort von rob:


It would be great to have Panasonic S1H compared to Nikon Z6 in 10bit output DR.

Hi Gedo,

a very warm welcome to the Forum from the slashCAM team - so nice that we have English speakers here as well :-)

And yes: we will be testing the Nikon Z6 here soon as well. At the moment we are waiting for the ProResProRes im Glossar erklärt Raw update so we can test that in one go ...

Cheers

Rob/
slashCAM



Antwort von Gedo:



It would be great to have Panasonic S1H compared to Nikon Z6 in 10bit output DR.

Hi Gedo,

a very warm welcome to the Forum from the slashCAM team - so nice that we have English speakers here as well :-)

And yes: we will be testing the Nikon Z6 here soon as well. At the moment we are waiting for the ProResProRes im Glossar erklärt Raw update so we can test that in one go ...

Cheers

Rob/
slashCAM

Hi Rob,

Thanks for reply! Great to know you'll be testing Z6. I find your tests the most no-nonsense and professional. You provide an excellent knowledge base. Highly appreciated work, guys! Hopefully that prores RAW will be worth waiting for.

Cheers



Antwort von Kamerafreund:

Danke für den Hinweis.
BT2020 macht wahrscheinlich keinen Sinn, stattdessen aber HLG3 mit BT709 Farbraum.
Das braucht keine große Konvertierung.
Mir ist lieber das die Highlights stark komprimiert werden und dafür die Mitten normal sind anstatt dass wie bei Log alles eingedampft wird, und nachher die Hauttöne zerfallen.
Ausserdem will ich in LOG nicht mit dem 800 mindest ISO kämpfen müssen, das zusätzliche bildrauschen zerfrisst mir die ganze Dynamik.


Glaube eher dass log Material niemandem was bringt außer LUT Verkäufern. ;) allein schon wegen einer base ISO von 800. Tests gibt's genug aber bestimmt haben alle in der Praxis ganz andere Erfahrungen gemacht.. https://www.4kshooters.net/2018/09/10/h ... le-to-use/

Und wie stellst du HLG-Material auf deinem sRGB-Bildschirm dar?

Per Konvertierung, da ansonsten alles überstrahlt und Menschen so aussehen, als ob diese kurz vorm Leberversagen (Rec2020 primaries) stünden...

Ob diese nun mathematisch korrekt oder Lut gemacht wird, ist vollkommen irrelevant, da jeder Hersteller so oder so sein eigenes Süppchen auch im Rec2020-"Standard" kocht und vieles auch persönliche Präferenz ist.




Antwort von Mediamind:

Ich habe heute einmal selber getestet. zwar mit der S1 und nicht der S1h und der Z6. Dazu habe ich dem Colorchecker bemüht und ein Aputure Amaran Tri-8 als konstante Lichtquelle. Mich hatten die rötlichen Ergebnisse, die ich mit der S1 am der See erzielte nicht in Ruhe gelassen. In den Clips hatte ich eindeutig zu viel Rot. De Sache wollte ich auf den Grund gehen.
Hierbei habe ich die ND-FilterND-Filter im Glossar erklärt in 8, 64 und 1000 mit der Aufnahme ohne Filter verglichen. Ich hatte die ND Filter in Verdacht. Dies hat sich nicht bestätigt. Der Rotvektor ist tatsächlich länger und der Weißpunkt ist ebenfalls nach MG und R verschoben.
Das sieht dann so aus:

Bildschirmfoto 2019-10-27 um 17.03.19.png

Bei meinen HDR Versuchen wurde die Abweichung dann noch deutlicher.
Diese Abweichung war übrigens auch bis hoch zum 1000er Filter konstant, was dafür spricht, dass dies nicht sonderliche ISO abhängig ist. Man kann das mit einem Adjustmentlayer in der Post korrigieren, glücklich ist das aber nicht.



Antwort von DeeZiD:


Ich habe heute einmal selber getestet. zwar mit der S1 und nicht der S1h und der Z6. Dazu habe ich dem Colorchecker bemüht und ein Aputure Amaran Tri-8 als konstante Lichtquelle. Mich hatten die rötlichen Ergebnisse, die ich mit der S1 am der See erzielte nicht in Ruhe gelassen. In den Clips hatte ich eindeutig zu viel Rot. De Sache wollte ich auf den Grund gehen.
Hierbei habe ich die ND-FilterND-Filter im Glossar erklärt in 8, 64 und 1000 mit der Aufnahme ohne Filter verglichen. Ich hatte die ND Filter in Verdacht. Dies hat sich nicht bestätigt. Der Rotvektor ist tatsächlich länger und der Weißpunkt ist ebenfalls nach MG und R verschoben.
Das sieht dann so aus:

Bildschirmfoto 2019-10-27 um 17.03.19.png

Bei meinen HDR Versuchen wurde die Abweichung dann noch deutlicher.
Diese Abweichung war übrigens auch bis hoch zum 1000er Filter konstant, was dafür spricht, dass dies nicht sonderliche ISO abhängig ist. Man kann das mit einem Adjustmentlayer in der Post korrigieren, glücklich ist das aber nicht.

Ist bei der S1H aehnlich.
Schiebe den Tint staendig Richtung gruen.



Antwort von klusterdegenerierung:

Ich habe ähnliches bei den Sonys, aber dann nur auf dem Display, das kann man nicht zufällig auch einstellen?



Antwort von Mediamind:

Man kann bei der S1 und der S1h Farbton und Farbabstimmung in den Profilen ändern. Hat hiermit schon jemand gearbeitet? Ich will vermeiden, dass ich über jeden S1 clip einen Adjustmentlayer klatschen darf.



Antwort von funkytown:

Schneidet die S1 genausogut, besser oder schlechter ab im Vergleich zur Sony?




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Dynamikumfang: Panasonic S1H vs Sony A7 III: V-Log vs S-Log Vollformat Vergleich
Dynamikumfang: Blackmagic Ursa Mini Pro G2 vs Panasonic S1 - 4K RAW S35 vs 10 Bit V-Log Vollformat
Dynamikumfang: Internes 10 Bit V-Log mit der Panasonic S1 - neue Referenz beim Dynamikumfang?
Nikon Z7 in der Praxis: Vollformat Cinema Überflieger DSLR? 10 Bit N-LOG, Hauttöne, Sony A7III Vergleich, uvm.
Dynamikumfang: RAW vs LOG: Blackmagic Pocket Cinema Camera 4K vs Panasonic GH5S
Vergleich Videostabilisierung: Fujifilm X-T4, Panasonic S1H, Nikon Z6, Canon EOS-1D X Mark III vs GH5
Canon EOS-1D X Mark III in der Praxis: Vollformat Flaggschiff mit interner 5.5K RAW LOG Aufnahme
Nikon Z6 - die beste 4K Vollformat 10 Bit Spiegellose für Video? Hauttöne, LOG vs LUT, AF, inkl. Canon EOS R Vergleich
Panasonic Firmware Update für S1 und S1H Kameras für verbesserte V-Log Aufnahme
Der Dynamikumfang von Canon EOS R5 / R6, Panasonic S5 und Sony A7SIII im Vergleich
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Canon LOG für die 5D MK IV im Anflug - 10 Blenden Dynamikumfang?
Der Dynamikumfang der Sony A7SIII im Vergleich mit Canon R5, R6 und Panasonic S5
Sony FX6: Vollformat Nachfolger der FS5 MKII mit 10.2 MP Sensor, 2xXLR , S-Log 3, 120 fps, externem RAW uvm.
Mit Nikons N-LOG filmen, Panasonics V-Log Lut verwenden?
Log und RAW - Codec-Qualität von Blackmagic, Panasonic und Sony
Panasonic kündigt S1H an - weltweit erste spiegellose 6K Cine Vollformat Systemkamera
Canon EOS R im 4K Video Test: 10 Bit LOG, Dual Pixel AF, Hauttöne. Bedienung, inkl. Nikon Z6 Vergleich
Panasonic S1, V-Log und Farbtreue
Panasonic V-Log ein Betrug?
ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
Nikon 10 Bit N-Log LUT ausprobiert: Wie gut ist die offizielle N-Log LUT für Nikon Z6 und Z7?
Panasonic S1: Kein All-Intra mit V-Log Upgrade??
Panasonic V-Log L für GH5 jetzt schon kaufen
Sony Alpha 6400 S-Log 3

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom