klusterdegenerierung
Beiträge: 11259

Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 21:32

Oder hätte ich schreiben sollen, sieht so grusselig die FS5 aus?

Aber mal im Ernst, selbst wenn man mit ProRes Raw prima highlights recovern kann,
was ist dann aber mit den Hautönen los und warum sehen die im Gegensatz dazu bei der RED soo fantastisch aus?

Wenn ich jetzt mal davon ausgehe das er einen Auto WB gemacht hat, dann haut mich die RED echt von den Socken,
denn er wird ja wohl bei der RED auch viel Sonne abbekommen haben, oder habe ich da was Missverstanden,
oder hat er vergessen von Rec709 auf SLog zu stellen?

Den RED Hautton fand ich mega cool als er von 3200Iso auf 320 zurück gestellt hat! Seht ihr doch auch so, oder?

"disliken und nicht abonnieren vergessen"




j.t.jefferson
Beiträge: 729

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von j.t.jefferson » Mi 27 Jun, 2018 21:51

Musst mal die Monstro ausprobieren...dann schmeisste alles andere weg.
Man müsste mal n Vergleichvideo zwischen Epic-X, Rave, Helium und Monstro machen.




cantsin
Beiträge: 4916

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin » Mi 27 Jun, 2018 21:59

Vor allem zeigt das Video, dass (a) der Macher nicht weiß, wie er seine Kameras richtig belichten muss und (b) die Farbräder von FCPX & Co. ungenügende Werkzeuge sind, um die Farbkorrektur von Raw-Video zu erledigen.




Frank Glencairn
Beiträge: 7970

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Mi 27 Jun, 2018 22:11

Da ISO bei raw nur Metadaten sind, hat er die Red beim ersten Beispiel nicht wirklich überbelichtet, und wenn er auch nur die geringste Ahnung hätte, was er da tut, hätte er beim zweiten Beispiel mit den Red raw settings noch einiges rausholen können. Aber auch bei raw gilt, was ausgebrannt ist, ist ausgebrannt.

Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Mi 27 Jun, 2018 22:37

Wow, der Typ hat nicht die geringste Ahnung davon was er tut... unglaublich...
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




ZacFilm
Beiträge: 187

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm » Mi 27 Jun, 2018 22:41

Er ist tatsächlich etwas... unterbelichtet, was Grundlagenwissen angeht...




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Mi 27 Jun, 2018 22:43

Frank Glencairn hat geschrieben:
Mi 27 Jun, 2018 22:11
Da ISO bei raw nur Metadaten sind...
Das hängt aber schon auch mit von der Kamera ab, wobei das bei der RED so wie Du schreibst zutrifft.




klusterdegenerierung
Beiträge: 11259

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 22:54

Ja ja ja, mir auch klar, aber können wir mal wieder zurück zu "meinem" Thema kommen? :-)

Was ist mit den Skintones? Sehen die FS5 entsprechend wirklich so schei... aus?
Selbst wenn er jezt Ahnung vom Belichten gehabt hätte,
warum diese ekeligen Farben und warum sieht das bei der RED so aus als hätte man Stundenlang an der Hautfarbe gedreht?

Wie gesagt, lag es bei der Sony am Rec709 wo eigentlich Slog als import hätte hingehört, denn so übel sah ja nicht mal meine a6000,
geschweige meine A7III aus!

Also, klar der Typ hats nicht drauf und ProRes Raw ist kacke wenn man keine Ahnung vom richtigen Workflow hat,
aber sieht die RED ootb immer so mega aus?
"disliken und nicht abonnieren vergessen"




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Mi 27 Jun, 2018 23:04

...also so mega finde ich das gar nicht - da kommt aus unserer a7III „bessere“ Farbe raus - korrekte Belichtung und Profil da aber zwingend vorrausgesetzt.
Zumindest in Video ist da nix mit Überbelichten, max. über IRE100 bis <109 ;-).




klusterdegenerierung
Beiträge: 11259

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 23:13

Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
"disliken und nicht abonnieren vergessen"




freezer
Beiträge: 1292

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von freezer » Mi 27 Jun, 2018 23:13

Frank Glencairn hat geschrieben:
Mi 27 Jun, 2018 22:11
Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.
In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com




WoWu
Beiträge: 14786

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu » Mi 27 Jun, 2018 23:29

So ein Hirnriss.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de




ZacFilm
Beiträge: 187

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm » Mi 27 Jun, 2018 23:37

RED haut in der Regel tatsächlich sehr schöne Hauttöne raus. Allerdings sien die Sonys nie SO schlecht




WoWu
Beiträge: 14786

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu » Do 28 Jun, 2018 00:06

Ich verstehe überhaupt nicht, dass jemand auch nur einen Deut auf solche „Tests“ gibt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de




Frank Glencairn
Beiträge: 7970

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 00:08

freezer hat geschrieben:
Mi 27 Jun, 2018 23:13

In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
Naja....




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 05:00

klusterdegenerierung hat geschrieben:
Mi 27 Jun, 2018 23:13
Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
Vielleicht einfach doch mal S-LOG/S-GAMUT „abdenken“ - ich hab´ immer gesagt dass x-LOG die Tonwertstufen bzgl. der verfügbaren Dynamik im mittleren Bereich der Tonwerte sichtbar einschränkt. Probier´ mal Cine1 und ITU Farben (bei der a6500 "gefiel" mir ITU nicht, das war noch ne andere Color Engine), dann biste wahrscheinlich nen entscheidenden Schritt näher dran. Meine Hautfarben sind super und ich kann in dem "missglückten" RED Video jetzt nichts "Besonderes" erkennen.
Aus nem 8bit S-LOG "Graustufenvideo" noch ne lückenlose 8bit REC.709 Graduation zu zaubern wird zudem kaum gelingen, war immer meine Rede.

Ob 8-bit oder mehr wirste in nem Youtube Video auch nicht erkennen wenn´s OOC bereits (nahezu) fertig ist und die Kamera intern mit höherer Quantisierung gearbeitet hat.
Aber ich sehe auch hier holt uns einiges ein wo gestern noch 8bit S-LOG alles heilen konnte ;-) - das meine ich nicht als Provokation sondern als Chance.


...Colorchecker daneben halten?! Ich hab mir den Quatsch von dem "Erfahrungsuchenden" jetzt nicht komplett angesehen, aber wo taucht da im Video nen Colorchecker auf mit welchem ich was vergleichen soll?? Hautfarbe kann ich noch ganz gut mit meinen Augen beurteilen.
Der Typ muss allerdings irgendwas komisches gelutscht haben bei der Farbe der Lippen...




Jott
Beiträge: 14703

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Jott » Do 28 Jun, 2018 08:27

Lustig, mit und ohne Sonnenbrand! Aber zum Glück geht's ja gar nicht um die Hauttöne der Kameras.




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 08:27

Er stellt die Red auf 3200 ISO und denkt sie sei überbelichtet? Absoluter Schwachsinn. Die Red ist ISO-invariant und war niemals überbelichtet. Er hat sozusagen nur die ‚Helligkeit‘ der Anzeige erhöht, bzw. die Rawdaten in ein überbelichtetes Bild einordnen lassen.
Beim FS5-Raw weiß ich nicht, ob es ISO-variant ist oder nicht. Aufgrund der Beschaffenheit von PRR spricht einiges dafür, dass es so ist, damit hat er durch das „überbelichten“ mit seiner ISO-Anhebung eventuell tatsächlich ein paar Pixel in manchen Kanälen clippen lassen und Werte abgeschnitten, obwohl die entsprechenden Sensel wahrscheinlich gar nicht full-well waren.
Und dass er ein (etwas) unterbelichtes Bild nicht wieder zurechtgebogen bekommt, spricht auch nicht für diesen Blogger. Hinbekommen kann man das, nur eben mit etwas mehr rauschen.
Das heißt alles nicht, dass PRR kein echtes raw ist. Es heißt nur, dass dadurch, dass es ein sehr simples raw-Format ist, ohne einen spezifischen, nutzermodifizierbaren demosaicing-Prozess des Kameraherstellers, nur die Farbkorrektur des NLEs oder der Gradingsuite zur Verfügung steht, um ISO-Anpassungen durchzuführen. Das ist ja auch das was BMD kritisiert hat: Komprimierte Rohdaten und ein LUT.
Es wird also immer einen sichtbaren Unterschied geben zwischen einer Aufzeichnung auf 400 ISO und einer mit 1600 ISO, die ich in der Post dann wieder um 2 Blenden absenke. Denn einmal werden die Werte durch Herstelleralgorithmen gemappt, beim zweiten Beispiel durch die Farbkorrekturalgorithmen von FCPX. Oder später dann auch Resolve oder wasweißich.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 08:44

...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 09:01

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 08:44
...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 09:52

7nic hat geschrieben:
Do 28 Jun, 2018 09:01
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.




klusterdegenerierung
Beiträge: 11259

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Do 28 Jun, 2018 10:05

Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
"disliken und nicht abonnieren vergessen"

Zuletzt geändert von klusterdegenerierung am Do 28 Jun, 2018 10:07, insgesamt 1-mal geändert.




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:07

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 09:52
7nic hat geschrieben:
Do 28 Jun, 2018 09:01
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.

Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:13

klusterdegenerierung hat geschrieben:
Do 28 Jun, 2018 10:05
Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten,
um damit die Invariants zu umgehen, denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Entweder ein Sensel geht full-well, dann ist das Bild überbelichtet, oder eben nicht, dann ist das Bild nicht überbelichtet. Wenn nicht alle drei Kanäle in der Gegend überbelichtet sind, kann das IPP2-processing die fehlenden Werte noch recht gut schätzen und du bekommst wahrscheinlich mit etwas Glück noch ein sinnvolles Bild zurückgeholt, diese zusätzliche (errechnete) Dynamik ist aber nur wirklich für den Rolloff in den Lichtern zu gebrauchen. In Gesichtern ist es recht einfach: Clipping heißt überbelichtet. Kein clipping heißt nicht überbelichtet. Die evozierte Raw-Magie ist einfach nur Unsinn. Die Faktoren auf die man beim Dreh achten muss sind einfach andere als bei 8bit Rec709.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:19

7nic hat geschrieben:
Do 28 Jun, 2018 10:07
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.
Irgendwas "neues" muss denen aber eingefallen sein denn, ich glaube da waren wir schon, wäre die Performance schwer zu erklären. Alles gut, wir stochern etwas im Nebel.
7nic hat geschrieben:
Do 28 Jun, 2018 10:07
Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Denke wir haben da dann eine "halbwegs" verlässliche Quelle ;-)! Nein, es wird so sein. Es gab genug statische DR Prüfungen zu den Cams und die haben alle sehr gute bis hervorragende Ergebnisse geliefert. Das geht "eins zu eins" durch...




iasi
Beiträge: 11659

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von iasi » Do 28 Jun, 2018 10:28

Das entwickelt sich hier wieder, wie die Spiele der deutschen Nationalmannschaft ... laaaangweilig.

Gibt´s hier eigentlich wieder nur diejenigen, die den Ball hin und her schieben, immer denkend, wie man denn ein Tor schießen könnte - theoretisch.

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Wenn er darüber dann berichten würde, das wäre spannend.




Frank Glencairn
Beiträge: 7970

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 10:29

klusterdegenerierung hat geschrieben:
Do 28 Jun, 2018 10:05
..und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:29

Guido, für die Hautton-Nummer versuche doch einfach mal die Kamera so einzustellen dass das Ergebnis für die Bedingungen der Szene schon sehr gut passt, bedeutet im Post nicht mehr viel gemacht werden muss. Das sollte bei ner 8bit Kamera das Ziel sein.
Möglichst flach alles gleichmäßig aufzuzeichnen (LOG) kann bei einer 8bit Kamera gefährlich werden. Für Dich war das ja nie ein Problem, ich war dagegen immer dafür ein Bild aufzuzeichnen welches in der Aufzeichung schon möglichst nah am Endergebnis ist.

Also ich beschwere mich wirklich nicht über Hautfarben der a7III, in meinen Augen wirklich gut und auch noch mal besser als die der a6500.




Frank Glencairn
Beiträge: 7970

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 10:30

iasi hat geschrieben:
Do 28 Jun, 2018 10:28


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:35

Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:29
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:40

Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:30
iasi hat geschrieben:
Do 28 Jun, 2018 10:28


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.
Es gibt die Möglichkeit in FCPX das Bild in ProRes 4444 log auszugeben und dann in Resolve zu graden. Und das funktioniert recht gut, ist eben nur unsinnig umständlich. Nur geht die "Raw-Magie" dann flöten, weil man im log-Bild sieht welche Werte aufgezeichnet wurden und diese nicht beim 'Mapping' für die Ausgabe verloren gingen.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:46

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 10:35
Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:29
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 3565

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:59

7nic hat geschrieben:
Do 28 Jun, 2018 10:46
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.




cantsin
Beiträge: 4916

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin » Do 28 Jun, 2018 11:12

Was RAW-Anfänger - und auch dieser YouTuber - nicht zu verstehen scheinen, ist der Unterschied einer

(a) optisch-perzeptiven Überbelichtung bei Rec709- oder sRGB-Aufnahme, wo Bildbereiche wegen der steilen Farbprofil-Kurve bzw. geringen Dynamik des Farbprofils optisch clippen, der Sensor aber noch nicht überbelichtet ist/nicht clippt. Wird nur Rec709 aufgezeichnet, ist die optisch nicht mehr sichtbare Bildinformation zwar hardwaretechnisch noch vorhanden, geht aber durch die Softwareprozessierung verloren.

(b) signaltechnischen Überbelichtung des Sensors, bei der der Sensor physisch clipt und Information hardwaretechnisch verlorengeht.

Die vermeintliche "Raw-Magie", dass man überbelichtete Bildteile "zurückholen" kann, bezieht sich auf Szenario (a). In Wirklichkeit wird nichts "zurückgeholt", sondern nur die Dynamik-Begrenzung der Rec709-Vorschau durch Rückgriff auf vollständiger aufgezeichnete (Raw-)Sensordaten aufgehoben. Das wollte der YouTube-Blogger wohl erreichen, hat es aber mit dem ProRes-Raw von der Sony nicht hinbekommen, weil er den Sensor physisch-hardwaretechnisch überlichtet hat.

Im diesem Fall (b) können Raw-Konverter bzw. kann Software wie Resolve die physisch geclippte Bildinformation rekonstruieren, wenn ein Farbkanal geclippt ist, aber die Nachbarkanäle nicht. Genau das scheint bei der Sony-ProRes RAW-Aufnahme passiert zu sein, wo die Rotkanäle durch physische Überbelichtung geclippt sind und dann von FCPX aus dem Blau- und Grünkanal rekonstruiert. Deswegen hat er seltsame Hauttöne und wächsenere Texturen im Gesicht.

Kurzum, man sollte dieses Video möglichst ignorieren. Ein Paradebeispiel dafür, wie in Blogs und sozialen Medien durch Unkenntnis Mythen in die Welt gesetzt werden.
Zuletzt geändert von cantsin am Do 28 Jun, 2018 11:37, insgesamt 1-mal geändert.




7nic
Beiträge: 1554

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 11:15

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 10:59
7nic hat geschrieben:
Do 28 Jun, 2018 10:46
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.
Es geht darum, dass Wolken, Vorhänge oder sonstige Bildinhalte, die meist in den Highlights zu finden sind mehr Spielraum für die farbliche Ungenauigkeit der Methode zulassen. Wie genau die Wolke aussah, ist für den Zuschauer irrelevant, so lange sie im finalen Bild nach Wolke mit etwas Zeichnung aussieht. Wenn in Hauttönen Nuancen fehlen oder die Verläufe auch nur minimal irgendwie unecht wirken, fällt das sofort auf. Selbst wenn nur ein einziger Kanal clippt, ist das meistens der Fall. Bei Red-Sensoren verlierst du am Himmel (auch in den Wolken) verlierst meist den Grünkanal eine halbe bis ganze Blende vor rot, kurz danach erst blau. Und diesen Spielraum von bis zu einer Blende kannst du durchaus nutzen.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» Neues S35 RED DRAGON-X Brain, Camera Kit und Production Module
von Rick SSon - Di 19:04
» Monster-Flunder - MSI P65 Creator 8RF-451 Notebook im 4K-Schnitt-Performance Test
von Rick SSon - Di 19:03
» Darstellung von Warnkleidung durch A7iii und GH5s
von Jott - Di 18:18
» Adobe Pro Video Apps exportieren Apple ProRes 4444 und 422 jetzt auch unter Windows
von pH0u57 - Di 18:02
» Gimbal Kaufberatung Ronin s oder Crane oder was?
von rush - Di 17:46
» Blackmagic Pocket Cinema Camera 4K in der Praxis: Hauttöne, Focal Reducer, Vergleich zur GH5S uvm.
von pH0u57 - Di 17:44
» Godzilla: King of the Monsters - offizieller Trailer
von carstenkurz - Di 17:39
» Flaschenhals bei Premiere Pro ????
von klusterdegenerierung - Di 17:22
» Sony produziert Kinofilm mit Sony A7SII und Vantage Hawk 65 Anamorphoten
von klusterdegenerierung - Di 17:20
» Kichikus Welt 2.0
von klusterdegenerierung - Di 17:11
» Nikon Z6 - die beste 4K Vollformat 10 Bit Spiegellose für Video? Hauttöne, LOG vs LUT, AF, inkl. Canon EOS R Vergleich
von pillepalle - Di 16:53
» Kommentierte Gerüchte zu Panasonics S1(R) und weiterer L-Mount Kamera
von -paleface- - Di 16:29
» Gehalt für fest angestellte Mediengestalter?
von Gore - Di 15:31
» Kamera für Kinderbeobachtung mit relativ gutem Ton
von Frank Glencairn - Di 15:22
» Bald ist wieder deutschlandweiter Kurzfilmtag -- über 250 Events geplant
von slashCAM - Di 14:57
» Polaroid mal anders.....
von ruessel - Di 12:35
» Neuer Patch für VDL. Akt. Version 18.0.2.225
von fubal147 - Di 12:04
» Erste Aufnahmen von der Blackmagic Pocket Cinema Camera 4K
von Sammy D - Di 11:25
» Fuji X-T3 RAW Bearbeitung Odyssee
von Jörg - Di 10:25
» Grafikkarte Premiere Pro CC Version 13
von Jason_muc - Di 10:07
» Erster 8K-Sender NHK BS8K startet mit Austrahlung des 70mm Klassikers 2001
von Darth Schneider - Di 8:39
» korrupte MXF Datei wiederherstellen.
von FNAG - Di 0:50
» Arbeitsbereiche in Premiere Pro CC 2018 exportieren
von oidvoda - Mo 21:24
» Zeitschrift VIDEO 2/1999 mit Test der DV-Recorder gesucht
von xandix - Mo 21:01
» [BIETE] Feelworld F6 Andycine A6 4k Fieldmonitor HDMI wie smallHD Focus
von rush - Mo 20:56
» Künstliche Intelligenz hilft beim Rotoskopieren - Kognat Rotobot
von Axel - Mo 20:39
» Kamera oder Camcorder zum Filmen auf Reise
von ThoBech - Mo 20:28
» iMovie mp4 Full HD Video asynchron in Windows
von R S K - Mo 20:12
» Viltrox EF-M2 - Würdige Speedbooster-Alternative zum Sparpreis
von Skeptiker - Mo 19:07
» Atomos Ninja V, Seriendefekt am 3,5 mm Input?
von Mediamind - Mo 18:31
» Person des öffentlichen Lebens
von Tee - Mo 18:20
» YouTube Rewind 2018: Was waren die Top-10 Trending YouTube-Videos in 2018?
von slashCAM - Mo 15:45
» Stativ für O-Töne von großen Menschen
von soundofciao - Mo 15:34
» Neues Spitzenmodell Nvidia Titan RTX: 24 GB für 2.700 Euro und 8K Editing in Echtzeit
von RUKfilms - Mo 15:29
» Blackmagic warnt vor gefälschten DaVinci Resolve Studio Dongles
von slashCAM - Mo 13:30
 
neuester Artikel
 
Kommentierte Gerüchte zu Panasonics S1(R) und weiterer L-Mount Kamera

Es gibt schon eine Menge Gerüchte zu Panasonics S1R und einer weiteren L-Mount Cinekamera. Diese wollen wir einmal kurz kommentieren... weiterlesen>>

Monster-Flunder - MSI P65 Creator 8RF-451 Notebook im 4K-Schnitt-Performance Test

Wir konnten uns ein besonders potentes Windows Notebook in der Redaktion näher ansehen, das sich zur 4K-Videobearbeitung eignet und trotz seiner Leistungsdaten ziemlich flach und leicht bleibt: Das MSI P65 Creator 8RF-451. weiterlesen>>

neuestes Video
 

Aktuelles Video:
Flasher - Material (Official Video)

Fängt ein bißchen lahm an das Musikvideo, aber schaltet nach einigen Sekunden in eine Art Turbomodus, bevor es völlig durchdreht und sich auf der YouTube-Metaebene austobt.