Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Infoseite // Jetzt weiß ich warum man RED nimmt!



Frage von klusterdegenerierung:


Oder hätte ich schreiben sollen, sieht so grusselig die FS5 aus?

Aber mal im Ernst, selbst wenn man mit ProRes Raw prima highlights recovern kann,
was ist dann aber mit den Hautönen los und warum sehen die im Gegensatz dazu bei der RED soo fantastisch aus?

Wenn ich jetzt mal davon ausgehe das er einen Auto WB gemacht hat, dann haut mich die RED echt von den Socken,
denn er wird ja wohl bei der RED auch viel Sonne abbekommen haben, oder habe ich da was Missverstanden,
oder hat er vergessen von Rec709 auf SLog zu stellen?

Den RED Hautton fand ich mega cool als er von 3200Iso auf 320 zurück gestellt hat! Seht ihr doch auch so, oder?

https://youtu.be/0uKV0BcFgoc?t=223

Space


Antwort von j.t.jefferson:

Musst mal die Monstro ausprobieren...dann schmeisste alles andere weg.
Man müsste mal n Vergleichvideo zwischen Epic-X, Rave, Helium und Monstro machen.

Space


Antwort von cantsin:

Vor allem zeigt das Video, dass (a) der Macher nicht weiß, wie er seine Kameras richtig belichten muss und (b) die Farbräder von FCPX & Co. ungenügende Werkzeuge sind, um die Farbkorrektur von Raw-Video zu erledigen.

Space


Antwort von Frank Glencairn:

Da ISO bei raw nur Metadaten sind, hat er die Red beim ersten Beispiel nicht wirklich überbelichtet, und wenn er auch nur die geringste Ahnung hätte, was er da tut, hätte er beim zweiten Beispiel mit den Red raw settings noch einiges rausholen können. Aber auch bei raw gilt, was ausgebrannt ist, ist ausgebrannt.

Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.

Space


Antwort von nic:

Wow, der Typ hat nicht die geringste Ahnung davon was er tut... unglaublich...

Space


Antwort von ZacFilm:

Er ist tatsächlich etwas... unterbelichtet, was Grundlagenwissen angeht...

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Da ISO bei raw nur Metadaten sind...
Das hängt aber schon auch mit von der Kamera ab, wobei das bei der RED so wie Du schreibst zutrifft.

Space


Antwort von klusterdegenerierung:

Ja ja ja, mir auch klar, aber können wir mal wieder zurück zu "meinem" Thema kommen? :-)

Was ist mit den Skintones? Sehen die FS5 entsprechend wirklich so schei... aus?
Selbst wenn er jezt Ahnung vom Belichten gehabt hätte,
warum diese ekeligen Farben und warum sieht das bei der RED so aus als hätte man Stundenlang an der Hautfarbe gedreht?

Wie gesagt, lag es bei der Sony am Rec709 wo eigentlich Slog als import hätte hingehört, denn so übel sah ja nicht mal meine a6000,
geschweige meine A7III aus!

Also, klar der Typ hats nicht drauf und ProRes Raw ist kacke wenn man keine Ahnung vom richtigen Workflow hat,
aber sieht die RED ootb immer so mega aus?

Space


Antwort von Roland Schulz:

...also so mega finde ich das gar nicht - da kommt aus unserer a7III „bessere“ Farbe raus - korrekte Belichtung und Profil da aber zwingend vorrausgesetzt.
Zumindest in Video ist da nix mit Überbelichten, max. über IRE100 bis <109 ;-).

Space



Space


Antwort von klusterdegenerierung:

Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.

Space


Antwort von freezer:

"Frank Glencairn" hat geschrieben:
Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.
In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.

Space


Antwort von WoWu:

So ein Hirnriss.

Space


Antwort von ZacFilm:

RED haut in der Regel tatsächlich sehr schöne Hauttöne raus. Allerdings sien die Sonys nie SO schlecht

Space


Antwort von WoWu:

Ich verstehe überhaupt nicht, dass jemand auch nur einen Deut auf solche „Tests“ gibt.

Space


Antwort von Frank Glencairn:

freezer hat geschrieben:

In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
Naja....

Space


Antwort von Roland Schulz:

klusterdegenerierung hat geschrieben:
Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
Vielleicht einfach doch mal S-LOG/S-GAMUT "abdenken" - ich hab" immer gesagt dass x-LOG die Tonwertstufen bzgl. der verfügbaren Dynamik im mittleren Bereich der Tonwerte sichtbar einschränkt. Probier" mal Cine1 und ITU Farben (bei der a6500 "gefiel" mir ITU nicht, das war noch ne andere Color Engine), dann biste wahrscheinlich nen entscheidenden Schritt näher dran. Meine Hautfarben sind super und ich kann in dem "missglückten" RED Video jetzt nichts "Besonderes" erkennen.
Aus nem 8bit S-LOG "Graustufenvideo" noch ne lückenlose 8bit REC.709 Graduation zu zaubern wird zudem kaum gelingen, war immer meine Rede.

Ob 8-bit oder mehr wirste in nem Youtube Video auch nicht erkennen wenn"s OOC bereits (nahezu) fertig ist und die Kamera intern mit höherer Quantisierung gearbeitet hat.
Aber ich sehe auch hier holt uns einiges ein wo gestern noch 8bit S-LOG alles heilen konnte ;-) - das meine ich nicht als Provokation sondern als Chance.


...Colorchecker daneben halten?! Ich hab mir den Quatsch von dem "Erfahrungsuchenden" jetzt nicht komplett angesehen, aber wo taucht da im Video nen Colorchecker auf mit welchem ich was vergleichen soll?? Hautfarbe kann ich noch ganz gut mit meinen Augen beurteilen.
Der Typ muss allerdings irgendwas komisches gelutscht haben bei der Farbe der Lippen...

Space


Antwort von Jott:

Lustig, mit und ohne Sonnenbrand! Aber zum Glück geht's ja gar nicht um die Hauttöne der Kameras.

Space


Antwort von nic:

Er stellt die Red auf 3200 ISO und denkt sie sei überbelichtet? Absoluter Schwachsinn. Die Red ist ISO-invariant und war niemals überbelichtet. Er hat sozusagen nur die ‚Helligkeit‘ der Anzeige erhöht, bzw. die Rawdaten in ein überbelichtetes Bild einordnen lassen.
Beim FS5-Raw weiß ich nicht, ob es ISO-variant ist oder nicht. Aufgrund der Beschaffenheit von PRR spricht einiges dafür, dass es so ist, damit hat er durch das „überbelichten“ mit seiner ISO-Anhebung eventuell tatsächlich ein paar Pixel in manchen Kanälen clippen lassen und Werte abgeschnitten, obwohl die entsprechenden Sensel wahrscheinlich gar nicht full-well waren.
Und dass er ein (etwas) unterbelichtes Bild nicht wieder zurechtgebogen bekommt, spricht auch nicht für diesen Blogger. Hinbekommen kann man das, nur eben mit etwas mehr rauschen.
Das heißt alles nicht, dass PRR kein echtes raw ist. Es heißt nur, dass dadurch, dass es ein sehr simples raw-Format ist, ohne einen spezifischen, nutzermodifizierbaren demosaicing-Prozess des Kameraherstellers, nur die Farbkorrektur des NLEs oder der Gradingsuite zur Verfügung steht, um ISO-Anpassungen durchzuführen. Das ist ja auch das was BMD kritisiert hat: Komprimierte Rohdaten und ein LUT.
Es wird also immer einen sichtbaren Unterschied geben zwischen einer Aufzeichnung auf 400 ISO und einer mit 1600 ISO, die ich in der Post dann wieder um 2 Blenden absenke. Denn einmal werden die Werte durch Herstelleralgorithmen gemappt, beim zweiten Beispiel durch die Farbkorrekturalgorithmen von FCPX. Oder später dann auch Resolve oder wasweißich.

Space



Space


Antwort von Roland Schulz:

...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.

Space


Antwort von klusterdegenerierung:

Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.

Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.

Space


Antwort von nic:

klusterdegenerierung hat geschrieben:
Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten,
um damit die Invariants zu umgehen, denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Entweder ein Sensel geht full-well, dann ist das Bild überbelichtet, oder eben nicht, dann ist das Bild nicht überbelichtet. Wenn nicht alle drei Kanäle in der Gegend überbelichtet sind, kann das IPP2-processing die fehlenden Werte noch recht gut schätzen und du bekommst wahrscheinlich mit etwas Glück noch ein sinnvolles Bild zurückgeholt, diese zusätzliche (errechnete) Dynamik ist aber nur wirklich für den Rolloff in den Lichtern zu gebrauchen. In Gesichtern ist es recht einfach: Clipping heißt überbelichtet. Kein clipping heißt nicht überbelichtet. Die evozierte Raw-Magie ist einfach nur Unsinn. Die Faktoren auf die man beim Dreh achten muss sind einfach andere als bei 8bit Rec709.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.
Irgendwas "neues" muss denen aber eingefallen sein denn, ich glaube da waren wir schon, wäre die Performance schwer zu erklären. Alles gut, wir stochern etwas im Nebel.
7nic hat geschrieben:
Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Denke wir haben da dann eine "halbwegs" verlässliche Quelle ;-)! Nein, es wird so sein. Es gab genug statische DR Prüfungen zu den Cams und die haben alle sehr gute bis hervorragende Ergebnisse geliefert. Das geht "eins zu eins" durch...

Space


Antwort von iasi:

Das entwickelt sich hier wieder, wie die Spiele der deutschen Nationalmannschaft ... laaaangweilig.

Gibt"s hier eigentlich wieder nur diejenigen, die den Ball hin und her schieben, immer denkend, wie man denn ein Tor schießen könnte - theoretisch.

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Wenn er darüber dann berichten würde, das wäre spannend.

Space


Antwort von Frank Glencairn:

klusterdegenerierung hat geschrieben:
..und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.

Space



Space


Antwort von Roland Schulz:

Guido, für die Hautton-Nummer versuche doch einfach mal die Kamera so einzustellen dass das Ergebnis für die Bedingungen der Szene schon sehr gut passt, bedeutet im Post nicht mehr viel gemacht werden muss. Das sollte bei ner 8bit Kamera das Ziel sein.
Möglichst flach alles gleichmäßig aufzuzeichnen (LOG) kann bei einer 8bit Kamera gefährlich werden. Für Dich war das ja nie ein Problem, ich war dagegen immer dafür ein Bild aufzuzeichnen welches in der Aufzeichung schon möglichst nah am Endergebnis ist.

Also ich beschwere mich wirklich nicht über Hautfarben der a7III, in meinen Augen wirklich gut und auch noch mal besser als die der a6500.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.
Es gibt die Möglichkeit in FCPX das Bild in ProRes 4444 log auszugeben und dann in Resolve zu graden. Und das funktioniert recht gut, ist eben nur unsinnig umständlich. Nur geht die "Raw-Magie" dann flöten, weil man im log-Bild sieht welche Werte aufgezeichnet wurden und diese nicht beim 'Mapping' für die Ausgabe verloren gingen.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
"Frank Glencairn" hat geschrieben:
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.

Space


Antwort von cantsin:

Was RAW-Anfänger - und auch dieser YouTuber - nicht zu verstehen scheinen, ist der Unterschied einer

(a) optisch-perzeptiven Überbelichtung bei Rec709- oder sRGB-Aufnahme, wo Bildbereiche wegen der steilen Farbprofil-Kurve bzw. geringen Dynamik des Farbprofils optisch clippen, der Sensor aber noch nicht überbelichtet ist/nicht clippt. Wird nur Rec709 aufgezeichnet, ist die optisch nicht mehr sichtbare Bildinformation zwar hardwaretechnisch noch vorhanden, geht aber durch die Softwareprozessierung verloren.

(b) signaltechnischen Überbelichtung des Sensors, bei der der Sensor physisch clipt und Information hardwaretechnisch verlorengeht.

Die vermeintliche "Raw-Magie", dass man überbelichtete Bildteile "zurückholen" kann, bezieht sich auf Szenario (a). In Wirklichkeit wird nichts "zurückgeholt", sondern nur die Dynamik-Begrenzung der Rec709-Vorschau durch Rückgriff auf vollständiger aufgezeichnete (Raw-)Sensordaten aufgehoben. Das wollte der YouTube-Blogger wohl erreichen, hat es aber mit dem ProRes-Raw von der Sony nicht hinbekommen, weil er den Sensor physisch-hardwaretechnisch überlichtet hat.

Im diesem Fall (b) können Raw-Konverter bzw. kann Software wie Resolve die physisch geclippte Bildinformation rekonstruieren, wenn ein Farbkanal geclippt ist, aber die Nachbarkanäle nicht. Genau das scheint bei der Sony-ProRes RAW-Aufnahme passiert zu sein, wo die Rotkanäle durch physische Überbelichtung geclippt sind und dann von FCPX aus dem Blau- und Grünkanal rekonstruiert. Deswegen hat er seltsame Hauttöne und wächsenere Texturen im Gesicht.

Kurzum, man sollte dieses Video möglichst ignorieren. Ein Paradebeispiel dafür, wie in Blogs und sozialen Medien durch Unkenntnis Mythen in die Welt gesetzt werden.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.
Es geht darum, dass Wolken, Vorhänge oder sonstige Bildinhalte, die meist in den Highlights zu finden sind mehr Spielraum für die farbliche Ungenauigkeit der Methode zulassen. Wie genau die Wolke aussah, ist für den Zuschauer irrelevant, so lange sie im finalen Bild nach Wolke mit etwas Zeichnung aussieht. Wenn in Hauttönen Nuancen fehlen oder die Verläufe auch nur minimal irgendwie unecht wirken, fällt das sofort auf. Selbst wenn nur ein einziger Kanal clippt, ist das meistens der Fall. Bei Red-Sensoren verlierst du am Himmel (auch in den Wolken) verlierst meist den Grünkanal eine halbe bis ganze Blende vor rot, kurz danach erst blau. Und diesen Spielraum von bis zu einer Blende kannst du durchaus nutzen.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
.... Bei Red-Sensoren verlierst du am Himmel (auch in den Wolken) verlierst meist den Grünkanal eine halbe bis ganze Blende vor rot, kurz danach erst blau. Und diesen Spielraum von bis zu einer Blende kannst du durchaus nutzen.
...abhängig von den CFAs (hersteller-/typabhängig) bzw. der Eigenschaft/Empfindlichkeit auf bestimmte Wellenlängen von Silizium selbst.

Im Fotobereich stelle ich das wie folgt fest: weiße Wolken am Himmel oder von mir aus auch weiße Vorhänge lassen sich einfacher retten, da man hier irgendwo nen Übergang zu grau hinbiegen kann der ja sehr nahe an "dunkelem" Weiß liegt ;-).
Ziehe ich aber farbig geclippte Bereiche runter verlieren die entweder erstmal nur an Zeichnung oder werden später auch irgendwann grau - kommt im "gesunden Gesicht" meist nicht so gut.

Mag sein dass sich das bei ner RED mit entsprechendem RAW Converter/SDK in der Praxis etwas anders verhält. Hab nur mal nen paar Stunden u.A. mit ner 6K Weapon "rumgespielt", da würde ich jetzt nicht behaupten die Kamera mit ihren Eigenschaften zu kennen.

Space



Space


Antwort von rudi:

Nur kurz angemerkt, falls es jemanden interessiert: Ich hatte mal versucht die RAW Highlight Recovery einigermaßen verständlich in einem slashCAM-Artikel zu erklären:
https://www.slashcam.de/artikel/Grundla ... raxis.html

Space


Antwort von Roland Schulz:

rudi hat geschrieben:
Nur kurz angemerkt, falls es jemanden interessiert: Ich hatte mal versucht die RAW Highlight Recovery einigermaßen verständlich in einem slashCAM-Artikel zu erklären:
https://www.slashcam.de/artikel/Grundla ... raxis.html
Bekannt - graue Schmetterlinge ;-)!

Space


Antwort von cantsin:

rudi hat geschrieben:
Nur kurz angemerkt, falls es jemanden interessiert: Ich hatte mal versucht die RAW Highlight Recovery einigermaßen verständlich in einem slashCAM-Artikel zu erklären:
https://www.slashcam.de/artikel/Grundla ... raxis.html
Danke! - Das Problem aber bleibt, dass Leute wie der YouTube Blogger Highlight-Recovery und ETTR verwechseln.

Space


Antwort von nic:

cantsin hat geschrieben:
rudi hat geschrieben:
Nur kurz angemerkt, falls es jemanden interessiert: Ich hatte mal versucht die RAW Highlight Recovery einigermaßen verständlich in einem slashCAM-Artikel zu erklären:
https://www.slashcam.de/artikel/Grundla ... raxis.html
Danke! - Das Problem aber bleibt, dass Leute wie der YouTube Blogger Highlight-Recovery und ETTR verwechseln.
Er verwechselt gar nichts. Er weiß einfach überhaupt nicht was er tut. Er dreht an einem Regler und da kommt wie durch Magie ein Bild aus dem Nichts!

Space


Antwort von klusterdegenerierung:

iasi hat geschrieben:
Das entwickelt sich hier wieder, wie die Spiele der deutschen Nationalmannschaft ... laaaangweilig.

Gibt"s hier eigentlich wieder nur diejenigen, die den Ball hin und her schieben, immer denkend, wie man denn ein Tor schießen könnte - theoretisch.

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Wenn er darüber dann berichten würde, das wäre spannend.
Das ist die einen Sache, die gibt es auch schon öfter im Netz, aber als threadstarter gehe ich hier schon arg leer aus,
denn für meine eigentliche Frage, interessiert sich keiner mehr,
stattdessen geht man wieder zum bashen über und macht youtuber fertig, theoretisch.

Das ProRes Raw was kann ist unbestritten, aber wie kam es zu der hautfarbe und sieht die FS5 wirklich aus wie ein Camcorder von 2005?

Space


Antwort von klusterdegenerierung:

7nic hat geschrieben:
cantsin hat geschrieben:

Danke! - Das Problem aber bleibt, dass Leute wie der YouTube Blogger Highlight-Recovery und ETTR verwechseln.
Er verwechselt gar nichts. Er weiß einfach überhaupt nicht was er tut. Er dreht an einem Regler und da kommt wie durch Magie ein Bild aus dem Nichts!
Ist doch albern!
Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.
Das er das mit dem Gain Regel macht, weil es noch keine Raweigenen settings gibt, ist normal und verständlich.

Verständlich ist mir aber nicht, warum es in diesem Forum vorrangig darum geht, andere als Idioten darzustellen.
Der ist bestimmt kein blutiger laie,
aber einige Besserwisser wissen noch nicht wie es um ProRes Raw gestellt ist und das es nunmal genauso aus dem Recorder kommt.

https://youtu.be/Pc6Nt2UlTQw?t=136

Space


Antwort von nic:

klusterdegenerierung hat geschrieben:
7nic hat geschrieben:


Er verwechselt gar nichts. Er weiß einfach überhaupt nicht was er tut. Er dreht an einem Regler und da kommt wie durch Magie ein Bild aus dem Nichts!
Ist doch albern!
Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.
Das er das mit dem Gain Regel macht, weil es noch keine Raweigenen settings gibt, ist normal und verständlich.

Verständlich ist mir aber nicht, warum es in diesem Forum vorrangig darum geht, andere als Idioten darzustellen.
Der ist bestimmt kein blutiger laie,
aber einiger Besserwisser wissen noch nicht wie es um ProRes Raw gestellt ist und das es nunmal genauso aus der Cam kommt.
Da kommt nichts 'so aus der cam'. Informationen wurden entweder aufgezeichnet oder eben nicht. Darüber gibt's auch nichts zu diskutieren. Das ist als würde ich mich wundern, dass Wasser aus einem Glas läuft, wenn ich es umdrehe, obwohl ich die Augen zu hatte, während ich etwas eingeschenkt habe.

Space


Antwort von Roland Schulz:

...einige haben einfach ihre Technik nicht im Griff bzw. verstanden.

Verstehe das auch mit den Hautfarben an der a7III nicht. Du weist dass ich auch das eigene Zeug in Frage stelle wenn das nicht taugt, an den Hautfarben der a7III gibt‘s aber nichts auszusetzen. Ich kann dagegen an dem RED Raven Clip auch nichts besonders tolles erkennen.
Geh‘ einfach mal hin und teste „für Dich“ mit Cine1 und ITU709 bei gemessenem WB, glaube Basis war PP5.

Space


Antwort von Jott:

klusterdegenerierung hat geschrieben:
aber wie kam es zu der hautfarbe und sieht die FS5 wirklich aus wie ein Camcorder von 2005?
Hat er doch geschrieben: hat sich mit der Sony als menschlicher Hummer mit üblem Sonnenbrand gefilmt. Und nein, die FS5 sieht nicht so aus, würde ja sonst keiner kaufen. Dass der Typ offensichtlich keinen Plan hat, wurde ja schon angemerkt.

Space



Space


Antwort von MrMeeseeks:

Kommt davon wenn inzwischen jede Dummgurke die teuren Kameras in die Hand bekommt. Die leiht man sich für paar Euro aus und macht dann darüber einen Test und lädt das Video hoch.

Ähnliches lese ich auch hier oft. Da macht man auch großen "Filmemacher" und scheitert dann an den grundlegendsten Dingen.

Space


Antwort von WoWu:

„Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.“

Eben nicht, das Material hat nur noch nicht die reverse Gammakurve gesehen.
Das, was da „ausgebrannt“ ist, ist erst im NLE „ausgebrannt“.

Aber interessant, dass es auch ein Video ist, was da rauskommt, also nix mit RAW.

Space


Antwort von klusterdegenerierung:

7nic hat geschrieben:
klusterdegenerierung hat geschrieben:


Ist doch albern!
Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.
Das er das mit dem Gain Regel macht, weil es noch keine Raweigenen settings gibt, ist normal und verständlich.

Verständlich ist mir aber nicht, warum es in diesem Forum vorrangig darum geht, andere als Idioten darzustellen.
Der ist bestimmt kein blutiger laie,
aber einiger Besserwisser wissen noch nicht wie es um ProRes Raw gestellt ist und das es nunmal genauso aus der Cam kommt.
Da kommt nichts 'so aus der cam'. Informationen wurden entweder aufgezeichnet oder eben nicht. Darüber gibt's auch nichts zu diskutieren. Das ist als würde ich mich wundern, dass Wasser aus einem Glas läuft, wenn ich es umdrehe, obwohl ich die Augen zu hatte, während ich etwas eingeschenkt habe.
Ich glaube Du weißt nicht worum es bei dem ProRes Raw geht, oder?
Das ist HDR, das zeichnet der Atomos so auf, oder wovon redest Du?

Space


Antwort von klusterdegenerierung:

WoWu hat geschrieben:
„Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.“

Eben nicht, das Material hat nur noch nicht die reverse Gammakurve gesehen.
Das, was da „ausgebrannt“ ist, ist erst im NLE „ausgebrannt“.

Aber interessant, dass es auch ein Video ist, was da rauskommt, also nix mit RAW.
Doch, das ist ProRes Raw HDR, so kommt es aus dem Recorder, schau Dir doch das letzte Video an!
Oder meinst Du das sind jetzt allesamt hobbyüberbelichter um alberene Gainakkrobatik zu betreiben?

Space


Antwort von dienstag_01:

klusterdegenerierung hat geschrieben:
7nic hat geschrieben:


Da kommt nichts 'so aus der cam'. Informationen wurden entweder aufgezeichnet oder eben nicht. Darüber gibt's auch nichts zu diskutieren. Das ist als würde ich mich wundern, dass Wasser aus einem Glas läuft, wenn ich es umdrehe, obwohl ich die Augen zu hatte, während ich etwas eingeschenkt habe.
Ich glaube Du weißt nicht worum es bei dem ProRes Raw geht, oder?
Das ist HDR, das zeichnet der Atomos so auf, oder wovon redest Du?
Das ist doch ziemlich eindeutig, dass im Gegensatz zum zweiten Clip der erste wirklich clipped. Damit erübrigt sich doch wirklich jede ernsthafte Diskussion der Hautfarbe.

Space


Antwort von nic:

klusterdegenerierung hat geschrieben:
WoWu hat geschrieben:
„Das ProRes Raw sieht so aus und er holt die Überbelichtung zurück.“

Eben nicht, das Material hat nur noch nicht die reverse Gammakurve gesehen.
Das, was da „ausgebrannt“ ist, ist erst im NLE „ausgebrannt“.

Aber interessant, dass es auch ein Video ist, was da rauskommt, also nix mit RAW.
Doch, das ist ProRes Raw HDR, so kommt es aus dem Recorder, schau Dir doch das letzte Video an!
Oder meinst Du das sind jetzt allesamt hobbyüberbelichter um alberene Gainakkrobatik zu betreiben?
Das sind Leute, die nicht wissen wie sie ihre Camcorder richtig belichten, weil sie keine Ahnung haben wie sie funktionieren. Da steckt keinerlei Überraschung in bewusst aufgezeichnetem Material. Absolut keine. Es lohnt sich nichtmal darüber zu reden...

Space


Antwort von WoWu:

@kluster

Das, was Du da siehst ist das, was das NLE Dir zur Sichtung anbietet. Das bedeutet noch nicht unbedingt, dass es so aufgezeichnet wurde denn wenn das Kameramaterial im NLE z.b. auf eine zweiter Logarithmierung trifft, dann werden die Werte nochmals gestaucht.
Das sieht dann etwa so aus.
Nimmt man im NLE diesen Fehler raus, dann entsteht wieder das Bild, das tatsächlich aufgezeichnet ist.
Wenn so ein Signal, wie gezeigt, im Sensor entstehen würde, hätten alle Werte am oberen Bereich nur einen einzigen WERT und wären total geklippt.
Da hilft dann auch kein RAW mehr,auch nicht mit irgendwelchen Verrenkungen, die sowieso nur auf sehr begrenzte Werte wirken.
Das, was Du da in dem Video siehst ist die Kaskade von (vermutlich) zwei LOG Funktionen, also im günstigsten Fall ein Bedienfahler beim Import.

Und was RAW betrifft ....wenn da ein darstellbares Signal aus der Kamera kommt, egal wie zerknirscht das aussieht, dann ist es ein Video und kein unmosaictes RAW Signal.
Egal, ob APPLE das so nennt, oder nicht.
Aber das ist hier nun auch schon 1000 Mal diskutiert.

Space


Antwort von nic:

WoWu hat geschrieben:
@kluster

Das, was Du da siehst ist das, was das NLE Dir zur Sichtung anbietet. Das bedeutet noch nicht unbedingt, dass es so aufgezeichnet wurde denn wenn das Kameramaterial im NLE z.b. auf eine zweiter Logarithmierung trifft, dann werden die Werte nochmals gestaucht.
Das sieht dann etwa so aus.
Nimmt man im NLE diesen Fehler raus, dann entsteht wieder das Bild, das tatsächlich aufgezeichnet ist.
Wenn so ein Signal, wie gezeigt, im Sensor entstehen würde, hätten alle Werte am oberen Bereich nur einen einzigen WERT und wären total geklippt.
Da hilft dann auch kein RAW mehr,auch nicht mit irgendwelchen Verrenkungen, die sowieso nur auf sehr begrenzte Werte wirken.
Das, was Du da in dem Video siehst ist die Kaskade von (vermutlich) zwei LOG Funktionen, also im günstigsten Fall ein Bedienfahler beim Import.

Und was RAW betrifft ....wenn da ein darstellbares Signal aus der Kamera kommt, egal wie zerknirscht das aussieht, dann ist es ein Video und kein unmosaictes RAW Signal.
Egal, ob APPLE das so nennt, oder nicht.
Aber das ist hier nun auch schon 1000 Mal diskutiert.
Da kommt ein darstellbares Bild raus, weil FCPX PRR implementiert hat. Es gibt kein anderes Programm, das damit umgehen kann.

Space


Antwort von klusterdegenerierung:



Space



Space


Antwort von WoWu:

Das mag ja sein, dann liegt eben da der Fehler, mal ganz davon abgesehen, wie das importierte Signal überhaupt aussieht, denn RAW schaut man sich ja auch nicht an, wenn es aus der Kamera kommt, sondern erst nach der Entwicklung.

Jedenfalls zeigt das WF an, dass ein Großteil der Werte den oberen Wertebereich eingenommen haben.
Wenn das schon so vom Sensor kommen sollte, ist da auch nichts mehr zu holen.
Das Signal ist zweimal logarithmierung worden.
(vermutlich beim Ändern der Library setups).

Das kann jeder selbst ausprobieren, indem er 2Logs kaskadiert.
Das sieht genauso aus ... und oh Wunder, ... linearisiert man das ganze, kommen auch alle Details zurück.

Space


Antwort von nic:

Ich hab mir die Stelle mal angeschaut jetzt.

Was er tut: Er deaktiviert die Ausgabe-LUT und danach die linear to log-Konversion des debayerten Ausgangsmaterials. Und lineare Werteverteilung sieht nunmal so aus, vor allem bei ettr...

Hätte er von Anfang an mit dem log-Signal gearbeitet, hätte man sofort gesehen, dass alle Informationen jederzeit da sind. Wenn du das Bild an der Stelle anhältst, kannst du das auch kurz erkennen.

Was er tut ist Effekthascherei und von Grund auf unsinnig.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Antworten zu ähnlichen Fragen //


Guten Abend, ich wollte fragen ob jemand weiß ob die DJI Osmo Action 3 oder 4 mit dem Feiyu Tech WG2X gimbal kompatibel
Marina Amaral: Künstlerin koloriert weltbekannte Schwarz-Weiß-Fotos
Adapterkabel S-Video auf Cinch Video - Schwarz-Weiß-Bild
Neue Nikon Z7 II nimmt mit Atomos Ninja 4Kp30 ProRes RAW auf - gegen Aufpreis
Nimmt "Canon HV20" 12bit Video auf?
TikTok nimmt YouTube ins Visier - verspricht mehr Views für horizontale Videos
Warum man Camcorder/Kameras nicht einfach als Webcams nutzen kann
Ich werd reich, ich hab einen neuen Job
Red Komodo - nun also kann man sie bestellen
160 Mio.$ für "Red Notice", 200 Mio.$ für "The Gray Man" - dennoch schafft es Netflix nicht
RED günstiger als gedacht? Nikon übernimmt RED für knapp 85 Millionen Dollar
Sony FX6 vs. Arri Alexa 35 vs. Red Komodo X vs. Z Cam F6 Pro vs. Red V-Raptor-X 8K
Warum Untertitel nicht oben?
Warum wird bei eingestellten H.264 eine AVC Coding Datei exportiert
Warum laggt Adobe Premiere Pro trotz TR3970x und RTX 3090?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash