klusterdegenerierung
Beiträge: 27267

Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung »

Oder hätte ich schreiben sollen, sieht so grusselig die FS5 aus?

Aber mal im Ernst, selbst wenn man mit ProRes Raw prima highlights recovern kann,
was ist dann aber mit den Hautönen los und warum sehen die im Gegensatz dazu bei der RED soo fantastisch aus?

Wenn ich jetzt mal davon ausgehe das er einen Auto WB gemacht hat, dann haut mich die RED echt von den Socken,
denn er wird ja wohl bei der RED auch viel Sonne abbekommen haben, oder habe ich da was Missverstanden,
oder hat er vergessen von Rec709 auf SLog zu stellen?

Den RED Hautton fand ich mega cool als er von 3200Iso auf 320 zurück gestellt hat! Seht ihr doch auch so, oder?

"Was von Natur aus flach ist, bläht sich auf!"



j.t.jefferson
Beiträge: 989

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von j.t.jefferson »

Musst mal die Monstro ausprobieren...dann schmeisste alles andere weg.
Man müsste mal n Vergleichvideo zwischen Epic-X, Rave, Helium und Monstro machen.



cantsin
Beiträge: 14103

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin »

Vor allem zeigt das Video, dass (a) der Macher nicht weiß, wie er seine Kameras richtig belichten muss und (b) die Farbräder von FCPX & Co. ungenügende Werkzeuge sind, um die Farbkorrektur von Raw-Video zu erledigen.



Frank Glencairn
Beiträge: 22541

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn »

Da ISO bei raw nur Metadaten sind, hat er die Red beim ersten Beispiel nicht wirklich überbelichtet, und wenn er auch nur die geringste Ahnung hätte, was er da tut, hätte er beim zweiten Beispiel mit den Red raw settings noch einiges rausholen können. Aber auch bei raw gilt, was ausgebrannt ist, ist ausgebrannt.

Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.
Sapere aude - de omnibus dubitandum



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Wow, der Typ hat nicht die geringste Ahnung davon was er tut... unglaublich...



ZacFilm
Beiträge: 211

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm »

Er ist tatsächlich etwas... unterbelichtet, was Grundlagenwissen angeht...



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

Frank Glencairn hat geschrieben: Mi 27 Jun, 2018 22:11 Da ISO bei raw nur Metadaten sind...
Das hängt aber schon auch mit von der Kamera ab, wobei das bei der RED so wie Du schreibst zutrifft.



klusterdegenerierung
Beiträge: 27267

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung »

Ja ja ja, mir auch klar, aber können wir mal wieder zurück zu "meinem" Thema kommen? :-)

Was ist mit den Skintones? Sehen die FS5 entsprechend wirklich so schei... aus?
Selbst wenn er jezt Ahnung vom Belichten gehabt hätte,
warum diese ekeligen Farben und warum sieht das bei der RED so aus als hätte man Stundenlang an der Hautfarbe gedreht?

Wie gesagt, lag es bei der Sony am Rec709 wo eigentlich Slog als import hätte hingehört, denn so übel sah ja nicht mal meine a6000,
geschweige meine A7III aus!

Also, klar der Typ hats nicht drauf und ProRes Raw ist kacke wenn man keine Ahnung vom richtigen Workflow hat,
aber sieht die RED ootb immer so mega aus?
"Was von Natur aus flach ist, bläht sich auf!"



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

...also so mega finde ich das gar nicht - da kommt aus unserer a7III „bessere“ Farbe raus - korrekte Belichtung und Profil da aber zwingend vorrausgesetzt.
Zumindest in Video ist da nix mit Überbelichten, max. über IRE100 bis <109 ;-).



klusterdegenerierung
Beiträge: 27267

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung »

Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
"Was von Natur aus flach ist, bläht sich auf!"



freezer
Beiträge: 3240

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von freezer »

Frank Glencairn hat geschrieben: Mi 27 Jun, 2018 22:11 Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.
In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com



WoWu
Beiträge: 14819

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu »

So ein Hirnriss.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



ZacFilm
Beiträge: 211

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm »

RED haut in der Regel tatsächlich sehr schöne Hauttöne raus. Allerdings sien die Sonys nie SO schlecht



WoWu
Beiträge: 14819

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu »

Ich verstehe überhaupt nicht, dass jemand auch nur einen Deut auf solche „Tests“ gibt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Frank Glencairn
Beiträge: 22541

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn »

freezer hat geschrieben: Mi 27 Jun, 2018 23:13
In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
Naja....
Sapere aude - de omnibus dubitandum



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

klusterdegenerierung hat geschrieben: Mi 27 Jun, 2018 23:13 Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
Vielleicht einfach doch mal S-LOG/S-GAMUT „abdenken“ - ich hab´ immer gesagt dass x-LOG die Tonwertstufen bzgl. der verfügbaren Dynamik im mittleren Bereich der Tonwerte sichtbar einschränkt. Probier´ mal Cine1 und ITU Farben (bei der a6500 "gefiel" mir ITU nicht, das war noch ne andere Color Engine), dann biste wahrscheinlich nen entscheidenden Schritt näher dran. Meine Hautfarben sind super und ich kann in dem "missglückten" RED Video jetzt nichts "Besonderes" erkennen.
Aus nem 8bit S-LOG "Graustufenvideo" noch ne lückenlose 8bit REC.709 Graduation zu zaubern wird zudem kaum gelingen, war immer meine Rede.

Ob 8-bit oder mehr wirste in nem Youtube Video auch nicht erkennen wenn´s OOC bereits (nahezu) fertig ist und die Kamera intern mit höherer Quantisierung gearbeitet hat.
Aber ich sehe auch hier holt uns einiges ein wo gestern noch 8bit S-LOG alles heilen konnte ;-) - das meine ich nicht als Provokation sondern als Chance.


...Colorchecker daneben halten?! Ich hab mir den Quatsch von dem "Erfahrungsuchenden" jetzt nicht komplett angesehen, aber wo taucht da im Video nen Colorchecker auf mit welchem ich was vergleichen soll?? Hautfarbe kann ich noch ganz gut mit meinen Augen beurteilen.
Der Typ muss allerdings irgendwas komisches gelutscht haben bei der Farbe der Lippen...



Jott
Beiträge: 21802

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Jott »

Lustig, mit und ohne Sonnenbrand! Aber zum Glück geht's ja gar nicht um die Hauttöne der Kameras.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Er stellt die Red auf 3200 ISO und denkt sie sei überbelichtet? Absoluter Schwachsinn. Die Red ist ISO-invariant und war niemals überbelichtet. Er hat sozusagen nur die ‚Helligkeit‘ der Anzeige erhöht, bzw. die Rawdaten in ein überbelichtetes Bild einordnen lassen.
Beim FS5-Raw weiß ich nicht, ob es ISO-variant ist oder nicht. Aufgrund der Beschaffenheit von PRR spricht einiges dafür, dass es so ist, damit hat er durch das „überbelichten“ mit seiner ISO-Anhebung eventuell tatsächlich ein paar Pixel in manchen Kanälen clippen lassen und Werte abgeschnitten, obwohl die entsprechenden Sensel wahrscheinlich gar nicht full-well waren.
Und dass er ein (etwas) unterbelichtes Bild nicht wieder zurechtgebogen bekommt, spricht auch nicht für diesen Blogger. Hinbekommen kann man das, nur eben mit etwas mehr rauschen.
Das heißt alles nicht, dass PRR kein echtes raw ist. Es heißt nur, dass dadurch, dass es ein sehr simples raw-Format ist, ohne einen spezifischen, nutzermodifizierbaren demosaicing-Prozess des Kameraherstellers, nur die Farbkorrektur des NLEs oder der Gradingsuite zur Verfügung steht, um ISO-Anpassungen durchzuführen. Das ist ja auch das was BMD kritisiert hat: Komprimierte Rohdaten und ein LUT.
Es wird also immer einen sichtbaren Unterschied geben zwischen einer Aufzeichnung auf 400 ISO und einer mit 1600 ISO, die ich in der Post dann wieder um 2 Blenden absenke. Denn einmal werden die Werte durch Herstelleralgorithmen gemappt, beim zweiten Beispiel durch die Farbkorrekturalgorithmen von FCPX. Oder später dann auch Resolve oder wasweißich.



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Roland Schulz hat geschrieben: Do 28 Jun, 2018 08:44 ...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

7nic hat geschrieben: Do 28 Jun, 2018 09:01 Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.



klusterdegenerierung
Beiträge: 27267

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung »

Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
"Was von Natur aus flach ist, bläht sich auf!"
Zuletzt geändert von klusterdegenerierung am Do 28 Jun, 2018 10:07, insgesamt 1-mal geändert.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Roland Schulz hat geschrieben: Do 28 Jun, 2018 09:52
7nic hat geschrieben: Do 28 Jun, 2018 09:01 Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.

Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

klusterdegenerierung hat geschrieben: Do 28 Jun, 2018 10:05 Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten,
um damit die Invariants zu umgehen, denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Entweder ein Sensel geht full-well, dann ist das Bild überbelichtet, oder eben nicht, dann ist das Bild nicht überbelichtet. Wenn nicht alle drei Kanäle in der Gegend überbelichtet sind, kann das IPP2-processing die fehlenden Werte noch recht gut schätzen und du bekommst wahrscheinlich mit etwas Glück noch ein sinnvolles Bild zurückgeholt, diese zusätzliche (errechnete) Dynamik ist aber nur wirklich für den Rolloff in den Lichtern zu gebrauchen. In Gesichtern ist es recht einfach: Clipping heißt überbelichtet. Kein clipping heißt nicht überbelichtet. Die evozierte Raw-Magie ist einfach nur Unsinn. Die Faktoren auf die man beim Dreh achten muss sind einfach andere als bei 8bit Rec709.



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

7nic hat geschrieben: Do 28 Jun, 2018 10:07 Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.
Irgendwas "neues" muss denen aber eingefallen sein denn, ich glaube da waren wir schon, wäre die Performance schwer zu erklären. Alles gut, wir stochern etwas im Nebel.
7nic hat geschrieben: Do 28 Jun, 2018 10:07 Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Denke wir haben da dann eine "halbwegs" verlässliche Quelle ;-)! Nein, es wird so sein. Es gab genug statische DR Prüfungen zu den Cams und die haben alle sehr gute bis hervorragende Ergebnisse geliefert. Das geht "eins zu eins" durch...



iasi
Beiträge: 24097

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von iasi »

Das entwickelt sich hier wieder, wie die Spiele der deutschen Nationalmannschaft ... laaaangweilig.

Gibt´s hier eigentlich wieder nur diejenigen, die den Ball hin und her schieben, immer denkend, wie man denn ein Tor schießen könnte - theoretisch.

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Wenn er darüber dann berichten würde, das wäre spannend.



Frank Glencairn
Beiträge: 22541

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn »

klusterdegenerierung hat geschrieben: Do 28 Jun, 2018 10:05 ..und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
Sapere aude - de omnibus dubitandum



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

Guido, für die Hautton-Nummer versuche doch einfach mal die Kamera so einzustellen dass das Ergebnis für die Bedingungen der Szene schon sehr gut passt, bedeutet im Post nicht mehr viel gemacht werden muss. Das sollte bei ner 8bit Kamera das Ziel sein.
Möglichst flach alles gleichmäßig aufzuzeichnen (LOG) kann bei einer 8bit Kamera gefährlich werden. Für Dich war das ja nie ein Problem, ich war dagegen immer dafür ein Bild aufzuzeichnen welches in der Aufzeichung schon möglichst nah am Endergebnis ist.

Also ich beschwere mich wirklich nicht über Hautfarben der a7III, in meinen Augen wirklich gut und auch noch mal besser als die der a6500.



Frank Glencairn
Beiträge: 22541

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn »

iasi hat geschrieben: Do 28 Jun, 2018 10:28

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.
Sapere aude - de omnibus dubitandum



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

Frank Glencairn hat geschrieben: Do 28 Jun, 2018 10:29 Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Frank Glencairn hat geschrieben: Do 28 Jun, 2018 10:30
iasi hat geschrieben: Do 28 Jun, 2018 10:28

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.
Es gibt die Möglichkeit in FCPX das Bild in ProRes 4444 log auszugeben und dann in Resolve zu graden. Und das funktioniert recht gut, ist eben nur unsinnig umständlich. Nur geht die "Raw-Magie" dann flöten, weil man im log-Bild sieht welche Werte aufgezeichnet wurden und diese nicht beim 'Mapping' für die Ausgabe verloren gingen.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Roland Schulz hat geschrieben: Do 28 Jun, 2018 10:35
Frank Glencairn hat geschrieben: Do 28 Jun, 2018 10:29 Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.



Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz »

7nic hat geschrieben: Do 28 Jun, 2018 10:46 Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.



cantsin
Beiträge: 14103

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin »

Was RAW-Anfänger - und auch dieser YouTuber - nicht zu verstehen scheinen, ist der Unterschied einer

(a) optisch-perzeptiven Überbelichtung bei Rec709- oder sRGB-Aufnahme, wo Bildbereiche wegen der steilen Farbprofil-Kurve bzw. geringen Dynamik des Farbprofils optisch clippen, der Sensor aber noch nicht überbelichtet ist/nicht clippt. Wird nur Rec709 aufgezeichnet, ist die optisch nicht mehr sichtbare Bildinformation zwar hardwaretechnisch noch vorhanden, geht aber durch die Softwareprozessierung verloren.

(b) signaltechnischen Überbelichtung des Sensors, bei der der Sensor physisch clipt und Information hardwaretechnisch verlorengeht.

Die vermeintliche "Raw-Magie", dass man überbelichtete Bildteile "zurückholen" kann, bezieht sich auf Szenario (a). In Wirklichkeit wird nichts "zurückgeholt", sondern nur die Dynamik-Begrenzung der Rec709-Vorschau durch Rückgriff auf vollständiger aufgezeichnete (Raw-)Sensordaten aufgehoben. Das wollte der YouTube-Blogger wohl erreichen, hat es aber mit dem ProRes-Raw von der Sony nicht hinbekommen, weil er den Sensor physisch-hardwaretechnisch überlichtet hat.

Im diesem Fall (b) können Raw-Konverter bzw. kann Software wie Resolve die physisch geclippte Bildinformation rekonstruieren, wenn ein Farbkanal geclippt ist, aber die Nachbarkanäle nicht. Genau das scheint bei der Sony-ProRes RAW-Aufnahme passiert zu sein, wo die Rotkanäle durch physische Überbelichtung geclippt sind und dann von FCPX aus dem Blau- und Grünkanal rekonstruiert. Deswegen hat er seltsame Hauttöne und wächsenere Texturen im Gesicht.

Kurzum, man sollte dieses Video möglichst ignorieren. Ein Paradebeispiel dafür, wie in Blogs und sozialen Medien durch Unkenntnis Mythen in die Welt gesetzt werden.
Zuletzt geändert von cantsin am Do 28 Jun, 2018 11:37, insgesamt 1-mal geändert.



nic
Beiträge: 2028

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von nic »

Roland Schulz hat geschrieben: Do 28 Jun, 2018 10:59
7nic hat geschrieben: Do 28 Jun, 2018 10:46 Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.
Es geht darum, dass Wolken, Vorhänge oder sonstige Bildinhalte, die meist in den Highlights zu finden sind mehr Spielraum für die farbliche Ungenauigkeit der Methode zulassen. Wie genau die Wolke aussah, ist für den Zuschauer irrelevant, so lange sie im finalen Bild nach Wolke mit etwas Zeichnung aussieht. Wenn in Hauttönen Nuancen fehlen oder die Verläufe auch nur minimal irgendwie unecht wirken, fällt das sofort auf. Selbst wenn nur ein einziger Kanal clippt, ist das meistens der Fall. Bei Red-Sensoren verlierst du am Himmel (auch in den Wolken) verlierst meist den Grünkanal eine halbe bis ganze Blende vor rot, kurz danach erst blau. Und diesen Spielraum von bis zu einer Blende kannst du durchaus nutzen.



 Aktuelle Beiträge [alle Foren]
 
» Neues von Sigma am 26.03. - 50mm F1.2 Art für Sony E- und L-Mount?
von slashCAM - Di 12:18
» Dji Osmo Action 4 Native Iso
von -paleface- - Di 11:35
» Was schaust Du gerade?
von Frank Glencairn - Di 11:29
» Warnung vor LED-Leuchten mit internem Akku
von MK - Di 10:09
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von markusG - Di 9:23
» After Effects CS6 Green Screen Frage
von -paleface- - Di 8:32
» IDEENFINDUNG: Wie man spannende Filme entwickelt! mit Vi-Dan Tran (Actiondesigner DUNE)
von 7River - Di 7:44
» ZRAW - Allgemeines und Umwandlung
von roki100 - Mo 22:49
» Apple setzt auf lokale KIs in iPhone, iPad und Mac
von Jost - Mo 20:48
» Sony Alpha 9 III Sensor Test: Shutter, Debayering und Dynamik
von iasi - Mo 20:35
» Panasonic AG AC 90 Zubehörschuh
von martin2 - Mo 16:53
» Zu verkaufen Viltrox 56mm 1.4 Viltrox 85mm 1.8 MKII Fuji X mount
von Jörg - Mo 14:27
» Musk macht GROK zu Open Scource
von SamSuffy - Mo 13:09
» The Next Big Thing? LED-Riesenkugel Sphere will Massen-Immersion neu definieren
von Alex - Mo 13:08
» Mocha Pro 2024 integriert 3D-Tracking von SynthEyes
von slashCAM - Mo 13:00
» Was hast Du zuletzt gekauft?
von Funless - Mo 12:54
» Software Tools für Productivity
von Frank Glencairn - Mo 12:51
» welches mikro für live-konzerte?
von Skeptiker - Mo 11:11
» Mikrohalterung Sony FS5 und Z150
von nicecam - Mo 11:05
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Frank Glencairn - Mo 9:18
» Drohne bauen, die nicht zu orten ist …?
von Jalue - So 22:02
» Werbung - es geht auch gut ;) Sammelthread
von 7River - So 17:07
» Monitor-Leuchte als Alternative zur Tischlampe ? - Quntis ScreenLinear Pro
von Jack43 - So 16:14
» Oppenheimer - inhaltlich und spirituell
von Frank Glencairn - So 15:43
» - Erfahrungsbericht - DJI Pocket 3
von klusterdegenerierung - So 13:20
» LG investiert 1 Milliarde Dollar in OLED-Produktion
von slashCAM - So 11:36
» 30-300mm T4 Cinezoom von Viltrox
von rush - So 8:03
» Revolutionäre Video-KI Sora soll noch dieses Jahr kommen
von Alex - So 7:49
» Wenn nennt man die Musik?
von Alex - So 7:29
» 7Artisans Sprite 24-96mm T2.9 - 4x Cinezoom für S35
von roki100 - Sa 22:57
» Was hörst Du gerade?
von klusterdegenerierung - Sa 20:42
» Biete: Manfrotto MH057M0-Q5 Kugelkopf
von beiti - Sa 18:17
» Suche LUT names Acuity
von jojo1243 - Sa 17:40
» Plant Nikon eine REDCODE RAW-Offensive zur NAB 2024?
von iasi - Sa 14:57
» The Crow — Rupert Sanders
von Gol - Sa 12:09