klusterdegenerierung
Beiträge: 10755

Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 21:32

Oder hätte ich schreiben sollen, sieht so grusselig die FS5 aus?

Aber mal im Ernst, selbst wenn man mit ProRes Raw prima highlights recovern kann,
was ist dann aber mit den Hautönen los und warum sehen die im Gegensatz dazu bei der RED soo fantastisch aus?

Wenn ich jetzt mal davon ausgehe das er einen Auto WB gemacht hat, dann haut mich die RED echt von den Socken,
denn er wird ja wohl bei der RED auch viel Sonne abbekommen haben, oder habe ich da was Missverstanden,
oder hat er vergessen von Rec709 auf SLog zu stellen?

Den RED Hautton fand ich mega cool als er von 3200Iso auf 320 zurück gestellt hat! Seht ihr doch auch so, oder?

"disliken und nicht abonnieren vergessen"




j.t.jefferson
Beiträge: 713

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von j.t.jefferson » Mi 27 Jun, 2018 21:51

Musst mal die Monstro ausprobieren...dann schmeisste alles andere weg.
Man müsste mal n Vergleichvideo zwischen Epic-X, Rave, Helium und Monstro machen.




cantsin
Beiträge: 4329

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin » Mi 27 Jun, 2018 21:59

Vor allem zeigt das Video, dass (a) der Macher nicht weiß, wie er seine Kameras richtig belichten muss und (b) die Farbräder von FCPX & Co. ungenügende Werkzeuge sind, um die Farbkorrektur von Raw-Video zu erledigen.




Frank Glencairn
Beiträge: 7518

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Mi 27 Jun, 2018 22:11

Da ISO bei raw nur Metadaten sind, hat er die Red beim ersten Beispiel nicht wirklich überbelichtet, und wenn er auch nur die geringste Ahnung hätte, was er da tut, hätte er beim zweiten Beispiel mit den Red raw settings noch einiges rausholen können. Aber auch bei raw gilt, was ausgebrannt ist, ist ausgebrannt.

Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Mi 27 Jun, 2018 22:37

Wow, der Typ hat nicht die geringste Ahnung davon was er tut... unglaublich...
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




ZacFilm
Beiträge: 177

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm » Mi 27 Jun, 2018 22:41

Er ist tatsächlich etwas... unterbelichtet, was Grundlagenwissen angeht...




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Mi 27 Jun, 2018 22:43

Frank Glencairn hat geschrieben:
Mi 27 Jun, 2018 22:11
Da ISO bei raw nur Metadaten sind...
Das hängt aber schon auch mit von der Kamera ab, wobei das bei der RED so wie Du schreibst zutrifft.




klusterdegenerierung
Beiträge: 10755

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 22:54

Ja ja ja, mir auch klar, aber können wir mal wieder zurück zu "meinem" Thema kommen? :-)

Was ist mit den Skintones? Sehen die FS5 entsprechend wirklich so schei... aus?
Selbst wenn er jezt Ahnung vom Belichten gehabt hätte,
warum diese ekeligen Farben und warum sieht das bei der RED so aus als hätte man Stundenlang an der Hautfarbe gedreht?

Wie gesagt, lag es bei der Sony am Rec709 wo eigentlich Slog als import hätte hingehört, denn so übel sah ja nicht mal meine a6000,
geschweige meine A7III aus!

Also, klar der Typ hats nicht drauf und ProRes Raw ist kacke wenn man keine Ahnung vom richtigen Workflow hat,
aber sieht die RED ootb immer so mega aus?
"disliken und nicht abonnieren vergessen"




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Mi 27 Jun, 2018 23:04

...also so mega finde ich das gar nicht - da kommt aus unserer a7III „bessere“ Farbe raus - korrekte Belichtung und Profil da aber zwingend vorrausgesetzt.
Zumindest in Video ist da nix mit Überbelichten, max. über IRE100 bis <109 ;-).




klusterdegenerierung
Beiträge: 10755

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Mi 27 Jun, 2018 23:13

Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
"disliken und nicht abonnieren vergessen"




freezer
Beiträge: 1220

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von freezer » Mi 27 Jun, 2018 23:13

Frank Glencairn hat geschrieben:
Mi 27 Jun, 2018 22:11
Was das Beispiel aber deutlich zeigt, ist - wie ich in dem anderen Tread schon vermutet hatte - Prores raw ist kein wirkliches raw, und entsprechend scheiße und unbrauchbar sah das Ergebnis, vor allem in den Hauttönen aus.

Und von wegen, "I was in the sun" - bei dem Red Material ist nix davon zu sehen.
In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com




WoWu
Beiträge: 14638

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu » Mi 27 Jun, 2018 23:29

So ein Hirnriss.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de




ZacFilm
Beiträge: 177

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von ZacFilm » Mi 27 Jun, 2018 23:37

RED haut in der Regel tatsächlich sehr schöne Hauttöne raus. Allerdings sien die Sonys nie SO schlecht




WoWu
Beiträge: 14638

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von WoWu » Do 28 Jun, 2018 00:06

Ich verstehe überhaupt nicht, dass jemand auch nur einen Deut auf solche „Tests“ gibt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de




Frank Glencairn
Beiträge: 7518

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 00:08

freezer hat geschrieben:
Mi 27 Jun, 2018 23:13

In einer seiner Antworten auf einen Kommentar hat er geschrieben, dass die Aufnahme mit der RED eine Woche früher gemacht wurde und die mit der Sony nachdem er sich einen Sonnenbrand zugezogen hatte.
Naja....




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 05:00

klusterdegenerierung hat geschrieben:
Mi 27 Jun, 2018 23:13
Na ja! So lieb ich die A7III habe, aber so eine schöne Farbe haut die nicht raus!
Zudem, hast Du mal gesehen wie homogen die Hautoberfläche ist, das sieht nicht nach 10Bit, sondern nach mehr aus,
da können wir nur von träumen!

Ich denke mit Colorchecker daneben wäre Dir aufgefallen, das die Farben sitzen.
Vielleicht einfach doch mal S-LOG/S-GAMUT „abdenken“ - ich hab´ immer gesagt dass x-LOG die Tonwertstufen bzgl. der verfügbaren Dynamik im mittleren Bereich der Tonwerte sichtbar einschränkt. Probier´ mal Cine1 und ITU Farben (bei der a6500 "gefiel" mir ITU nicht, das war noch ne andere Color Engine), dann biste wahrscheinlich nen entscheidenden Schritt näher dran. Meine Hautfarben sind super und ich kann in dem "missglückten" RED Video jetzt nichts "Besonderes" erkennen.
Aus nem 8bit S-LOG "Graustufenvideo" noch ne lückenlose 8bit REC.709 Graduation zu zaubern wird zudem kaum gelingen, war immer meine Rede.

Ob 8-bit oder mehr wirste in nem Youtube Video auch nicht erkennen wenn´s OOC bereits (nahezu) fertig ist und die Kamera intern mit höherer Quantisierung gearbeitet hat.
Aber ich sehe auch hier holt uns einiges ein wo gestern noch 8bit S-LOG alles heilen konnte ;-) - das meine ich nicht als Provokation sondern als Chance.


...Colorchecker daneben halten?! Ich hab mir den Quatsch von dem "Erfahrungsuchenden" jetzt nicht komplett angesehen, aber wo taucht da im Video nen Colorchecker auf mit welchem ich was vergleichen soll?? Hautfarbe kann ich noch ganz gut mit meinen Augen beurteilen.
Der Typ muss allerdings irgendwas komisches gelutscht haben bei der Farbe der Lippen...




Jott
Beiträge: 14153

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Jott » Do 28 Jun, 2018 08:27

Lustig, mit und ohne Sonnenbrand! Aber zum Glück geht's ja gar nicht um die Hauttöne der Kameras.




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 08:27

Er stellt die Red auf 3200 ISO und denkt sie sei überbelichtet? Absoluter Schwachsinn. Die Red ist ISO-invariant und war niemals überbelichtet. Er hat sozusagen nur die ‚Helligkeit‘ der Anzeige erhöht, bzw. die Rawdaten in ein überbelichtetes Bild einordnen lassen.
Beim FS5-Raw weiß ich nicht, ob es ISO-variant ist oder nicht. Aufgrund der Beschaffenheit von PRR spricht einiges dafür, dass es so ist, damit hat er durch das „überbelichten“ mit seiner ISO-Anhebung eventuell tatsächlich ein paar Pixel in manchen Kanälen clippen lassen und Werte abgeschnitten, obwohl die entsprechenden Sensel wahrscheinlich gar nicht full-well waren.
Und dass er ein (etwas) unterbelichtes Bild nicht wieder zurechtgebogen bekommt, spricht auch nicht für diesen Blogger. Hinbekommen kann man das, nur eben mit etwas mehr rauschen.
Das heißt alles nicht, dass PRR kein echtes raw ist. Es heißt nur, dass dadurch, dass es ein sehr simples raw-Format ist, ohne einen spezifischen, nutzermodifizierbaren demosaicing-Prozess des Kameraherstellers, nur die Farbkorrektur des NLEs oder der Gradingsuite zur Verfügung steht, um ISO-Anpassungen durchzuführen. Das ist ja auch das was BMD kritisiert hat: Komprimierte Rohdaten und ein LUT.
Es wird also immer einen sichtbaren Unterschied geben zwischen einer Aufzeichnung auf 400 ISO und einer mit 1600 ISO, die ich in der Post dann wieder um 2 Blenden absenke. Denn einmal werden die Werte durch Herstelleralgorithmen gemappt, beim zweiten Beispiel durch die Farbkorrekturalgorithmen von FCPX. Oder später dann auch Resolve oder wasweißich.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 08:44

...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 09:01

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 08:44
...so richtig Licht haben wir in PRR anscheinend tatsächlich noch nicht. Eine Idee dazu von mir wäre noch dass PRR aufgrund der höheren Performance vielleicht bereits ein debayertes und "komprimiertes" Bild enthält. Damit wäre trotzdem noch ein großer Spielraum im Post vorhanden wenn wir, oder sagen wir einige davon ausgehen dass auch in den meisten anderen RAW Prozessen das Debayering ohnehin an erster Stelle steht.

Müssen wir nicht weiter verfolgen oder beleuchten, ich weiß dass es da verschiedene Ansichten gibt und bis auf ein paar Hinweise aus Manuals (u.A. Resolve) und verschiedenen gefundenen Blockschaltbildern ist mir kein grundsätzlicher Nachweis bekannt dass grundsätzlich immer so verfahren wird.


Ich denke den Vergleich so wie er geführt wurde kann man ziemlich vergessen!

Da Sony RAW bei den kleineren Cams (u.A. FS5, FS7) nur mit 12bit quantisiert wird ist stärkstens davon auszugehen dass der (ISO) Gain bereits vor der Speicherung erfolgt, also ISO variant. Redcode RAW quantisiert mit 16bit dagegen "höchstwahrscheinlich" die komplette ISO invariante Dynamik des Sensors.
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 09:52

7nic hat geschrieben:
Do 28 Jun, 2018 09:01
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.




klusterdegenerierung
Beiträge: 10755

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von klusterdegenerierung » Do 28 Jun, 2018 10:05

Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
"disliken und nicht abonnieren vergessen"

Zuletzt geändert von klusterdegenerierung am Do 28 Jun, 2018 10:07, insgesamt 1-mal geändert.




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:07

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 09:52
7nic hat geschrieben:
Do 28 Jun, 2018 09:01
Nein, PRR ist einfach nur ein Monochrom-ProRes mit ein paar Metadaten. Und im Zusammenspiel mit der EVA1 wird ein ISO-variantes System daraus. Selbst der Weißabgleich ist in den Sensordaten eingebacken. Meine Theorie ist, dass Panasonic das so handhabt, da sie ansonsten keinerlei Einfluss auf den Gain- und WB-Algorithmus haben. Meine andere Theorie besagt, dass dadurch nach der 10 bit log EVA1 raw-Ausgabe im 12 bit lin in PRR mehr relevante Werte für den definierten ISO- und WB-Bereich gespeichert werden können. Und meine dritte ist, dass Panasonic einfach prinzipiell mit analogem Gain (auch für Kanalspezifischen gain für WB) arbeiten will. Habe aber von Panasonic noch keine sinnvolle Antwort dazu bekommen.

Redraw speichert nicht nur höchstwahrscheinlich, sondern definitiv einfach nur die komplette Dynamik des Sensors. Aber Red kontrolliert das Raw-processing durch sein SDK und stellt so in jeder r3d-fähigen Anwendungen identisches Ausgangsmaterial zur Verfügung.

Und ja, das demosaicing steht sehr weit vorne im Prozess. Nicht gleich an erster Stelle, aber vor jeglicher (digitalen) Farbanpassung.
Na ja, Teil 1 kennen wir nicht zu 100% was nun wirklich die "Monochrom-ProRes Daten" sind. Denke Du meinst noch reine Pixeldaten hinter dem CFA, also undebayerte Daten? Mag sein, vielleicht aber auch ein komprimiertes, debayertes Bild. Beides hebt Deine weiteren Theorien die ich sinnvoll sehe nicht aus, wobei normalerweise der WB nicht in den Sensordaten eingebacken wäre, das hier Aufgrund der kleineren Quantisierung aber durchaus Sinn machen würde (pre gain per channel) und sein kann. So hätte man aber nicht den vollen RAW Vorteil mehr sondern würde wie seinerzeit bei der Nikon D2x bereits ein "vorbewertetes" RAW Bild (WB ist grob vorgegeben) speichern.
Der pre Gain muss aber nicht zwingend analog sein. Immerhin werden teilweise auch Gammakurven bereits mit eingebacken. Das kann analog erfolgen, es kann aber auch im DSP erfolgen. Unsere Baumarktcams kommen auch mit mindestens 10bit vom Sensor und schreiben nach WB, Gamma etc. 8bit Daten.


Ich gehe auch "höchstwahrscheinlich" davon aus dass REDRaw auch nach Kompression/Wavelet die komplette Sensordynamik speichert.
Da wir aber weder "in" die Kamera noch ins SDK gucken können bleibt da "definitiv" die Gefahr einer Grauzone ;-)!


Gut, glaube wir kommen etwas vom Kurs ab. Sony wird höchstwahrscheinlich mit pre gain und 12bit RAW ISO variant sein, RED ist mit 16bit ISO invariant.
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.

Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:13

klusterdegenerierung hat geschrieben:
Do 28 Jun, 2018 10:05
Ja Jungs, dann mach ich einfach noch einen extra Hautton Thread auf und ihr könnt auch hier weiter über einen Anfänger aufregen.
Das schöne daran ist ja, das Profis nie Anfänger waren, Profis kommen schon als solche zur Welt!!

@7nic
Natürlich hast Du mit der Iso Invariant Nummer Recht, trotzdem liegt Du falsch, denn er hat ja beides gemacht,
auf der einen Seite den Iso Wert hochgedreht um dann die Invariants über den Iso Slider auf 320 zu zeigen und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten,
um damit die Invariants zu umgehen, denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Entweder ein Sensel geht full-well, dann ist das Bild überbelichtet, oder eben nicht, dann ist das Bild nicht überbelichtet. Wenn nicht alle drei Kanäle in der Gegend überbelichtet sind, kann das IPP2-processing die fehlenden Werte noch recht gut schätzen und du bekommst wahrscheinlich mit etwas Glück noch ein sinnvolles Bild zurückgeholt, diese zusätzliche (errechnete) Dynamik ist aber nur wirklich für den Rolloff in den Lichtern zu gebrauchen. In Gesichtern ist es recht einfach: Clipping heißt überbelichtet. Kein clipping heißt nicht überbelichtet. Die evozierte Raw-Magie ist einfach nur Unsinn. Die Faktoren auf die man beim Dreh achten muss sind einfach andere als bei 8bit Rec709.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:19

7nic hat geschrieben:
Do 28 Jun, 2018 10:07
Ich meine: Es wird ein Lumawert pro Sensel/Pixel gespeichert. Alles andere wäre schwachsinnig, da, wenn einfach drei Werte gespeichert würden wir wieder bei ProRes wären. Das ist, als würde man behaupten DNGs seien JPEGs, nur weil man auch JPEGs in den Container speichern kann. Es gibt nicht viele wirklich feste Definitionen von raw, nur die, dass eben kein drei Werte (echtes RGB, oder eben durch chroma-subsampling datenreduziert), sondern nur ein Wert pro Pixel übertragen wird. Die Datenraten von PRR würden in RGB eine so hohe Kompression bedeuten, dass es völlig unsinnig wäre.
Irgendwas "neues" muss denen aber eingefallen sein denn, ich glaube da waren wir schon, wäre die Performance schwer zu erklären. Alles gut, wir stochern etwas im Nebel.
7nic hat geschrieben:
Do 28 Jun, 2018 10:07
Bzgl. r3d-SDK, ich habe mich mit der Person, die das bei Red zu verantworten hat schon öfter (darüber) unterhalten. Und ich denke man kann ihm glauben.
Denke wir haben da dann eine "halbwegs" verlässliche Quelle ;-)! Nein, es wird so sein. Es gab genug statische DR Prüfungen zu den Cams und die haben alle sehr gute bis hervorragende Ergebnisse geliefert. Das geht "eins zu eins" durch...




iasi
Beiträge: 11168

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von iasi » Do 28 Jun, 2018 10:28

Das entwickelt sich hier wieder, wie die Spiele der deutschen Nationalmannschaft ... laaaangweilig.

Gibt´s hier eigentlich wieder nur diejenigen, die den Ball hin und her schieben, immer denkend, wie man denn ein Tor schießen könnte - theoretisch.

Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Wenn er darüber dann berichten würde, das wäre spannend.




Frank Glencairn
Beiträge: 7518

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 10:29

klusterdegenerierung hat geschrieben:
Do 28 Jun, 2018 10:05
..und zusätzlich einmal den Isowert hochgedreht und dann eine Lampe voll drauf gehalten, um damit die Invariants zu umgehen,
denn an der Stelle hatte er dann 3200 plus überbelichtung durch externe Quelle.
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:29

Guido, für die Hautton-Nummer versuche doch einfach mal die Kamera so einzustellen dass das Ergebnis für die Bedingungen der Szene schon sehr gut passt, bedeutet im Post nicht mehr viel gemacht werden muss. Das sollte bei ner 8bit Kamera das Ziel sein.
Möglichst flach alles gleichmäßig aufzuzeichnen (LOG) kann bei einer 8bit Kamera gefährlich werden. Für Dich war das ja nie ein Problem, ich war dagegen immer dafür ein Bild aufzuzeichnen welches in der Aufzeichung schon möglichst nah am Endergebnis ist.

Also ich beschwere mich wirklich nicht über Hautfarben der a7III, in meinen Augen wirklich gut und auch noch mal besser als die der a6500.




Frank Glencairn
Beiträge: 7518

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Frank Glencairn » Do 28 Jun, 2018 10:30

iasi hat geschrieben:
Do 28 Jun, 2018 10:28


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:35

Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:29
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:40

Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:30
iasi hat geschrieben:
Do 28 Jun, 2018 10:28


Ich hoffe doch, es nimmt sich mal jemand ProRes-Raw-Material her und versucht mal ganz praktisch z.B. in Resolve, was man rausholen kann.
Das würde mich wirklich beeindrucken, da Resolve das Material gar nicht lesen kann.
Es gibt die Möglichkeit in FCPX das Bild in ProRes 4444 log auszugeben und dann in Resolve zu graden. Und das funktioniert recht gut, ist eben nur unsinnig umständlich. Nur geht die "Raw-Magie" dann flöten, weil man im log-Bild sieht welche Werte aufgezeichnet wurden und diese nicht beim 'Mapping' für die Ausgabe verloren gingen.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 10:46

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 10:35
Frank Glencairn hat geschrieben:
Do 28 Jun, 2018 10:29
Die Prämisse, man könne mit raw ausgebrannte Bereich irgendwie "zurückholen" ist schon falsch, und natürlich alles was aus der falschen Prämisse dann folgt.

Klar kann man einen einzelnen geclippten Kanal mit diversen Tricks halbwegs "reparieren", aber das ist ein Notnagel, und kein Workflow.
100%!!! Auch die "Reparatur" ist schwierig und begrenzt, aber ich denke das wolltest Du ausdrücken.
Man hat nur eine Chance wenn sich die auf die RAW Daten gelegte Gammakurve / das Processing noch "innerhalb" der RAW Daten Dynamik bewegt und noch "Luft" ist, also Wertebereiche an den "Enden" noch ungenutzt sind. Die kann man dann durch Korrektur im Post noch ansteuern und nutzen.
Geclippte RAW Daten sind geclippte Bilddaten, da ist keine Information mehr reproduzierbar!
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




Roland Schulz
Beiträge: 2990

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von Roland Schulz » Do 28 Jun, 2018 10:59

7nic hat geschrieben:
Do 28 Jun, 2018 10:46
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.




cantsin
Beiträge: 4329

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von cantsin » Do 28 Jun, 2018 11:12

Was RAW-Anfänger - und auch dieser YouTuber - nicht zu verstehen scheinen, ist der Unterschied einer

(a) optisch-perzeptiven Überbelichtung bei Rec709- oder sRGB-Aufnahme, wo Bildbereiche wegen der steilen Farbprofil-Kurve bzw. geringen Dynamik des Farbprofils optisch clippen, der Sensor aber noch nicht überbelichtet ist/nicht clippt. Wird nur Rec709 aufgezeichnet, ist die optisch nicht mehr sichtbare Bildinformation zwar hardwaretechnisch noch vorhanden, geht aber durch die Softwareprozessierung verloren.

(b) signaltechnischen Überbelichtung des Sensors, bei der der Sensor physisch clipt und Information hardwaretechnisch verlorengeht.

Die vermeintliche "Raw-Magie", dass man überbelichtete Bildteile "zurückholen" kann, bezieht sich auf Szenario (a). In Wirklichkeit wird nichts "zurückgeholt", sondern nur die Dynamik-Begrenzung der Rec709-Vorschau durch Rückgriff auf vollständiger aufgezeichnete (Raw-)Sensordaten aufgehoben. Das wollte der YouTube-Blogger wohl erreichen, hat es aber mit dem ProRes-Raw von der Sony nicht hinbekommen, weil er den Sensor physisch-hardwaretechnisch überlichtet hat.

Im diesem Fall (b) können Raw-Konverter bzw. kann Software wie Resolve die physisch geclippte Bildinformation rekonstruieren, wenn ein Farbkanal geclippt ist, aber die Nachbarkanäle nicht. Genau das scheint bei der Sony-ProRes RAW-Aufnahme passiert zu sein, wo die Rotkanäle durch physische Überbelichtung geclippt sind und dann von FCPX aus dem Blau- und Grünkanal rekonstruiert. Deswegen hat er seltsame Hauttöne und wächsenere Texturen im Gesicht.

Kurzum, man sollte dieses Video möglichst ignorieren. Ein Paradebeispiel dafür, wie in Blogs und sozialen Medien durch Unkenntnis Mythen in die Welt gesetzt werden.
Zuletzt geändert von cantsin am Do 28 Jun, 2018 11:37, insgesamt 1-mal geändert.




7nic
Beiträge: 1497

Re: Jetzt weiß ich warum man RED nimmt!

Beitrag von 7nic » Do 28 Jun, 2018 11:15

Roland Schulz hat geschrieben:
Do 28 Jun, 2018 10:59
7nic hat geschrieben:
Do 28 Jun, 2018 10:46
Jein. Wie ich oben schon geschrieben habe, geht es zum Teil schon geclippte Rohdaten wiederherzustellen, bzw. von einem Algorithmus schätzen zu lassen, wenn zumindest ein Kanal der umliegenden Sensel nicht überbelichtet ist. Das funktioniert zum Beispiel in überbelichteten Vorhängen, in Wolken usw. recht gut. Haut z.B. bekommst du aber fast gar nicht wieder hin.
...ebenfalls Jein ;-). Denke pauschal kann man das kaum beantworten. Gerade in Wolken (weiß) wären je nach CFA ja alle Kanäle tendenziell geclippt, bei Hautfarbe eher rot.
Sagen wir so, es fällt in Wolken durch die überwiegende Gleichmäßigkeit weniger auf wenn man Überbelichtetes/Geclipptes nach Grau verschiebt als in der Haut, die meist von Rot dominiert wird.
Bei der Haut oder generell farbigen Elementen besteht aber eine größere Wahrscheinlichkeit dass benachbarte Kanäle nicht geclippt sind, von daher gehe ich die Annahme nicht unbedingt mit.
Es geht darum, dass Wolken, Vorhänge oder sonstige Bildinhalte, die meist in den Highlights zu finden sind mehr Spielraum für die farbliche Ungenauigkeit der Methode zulassen. Wie genau die Wolke aussah, ist für den Zuschauer irrelevant, so lange sie im finalen Bild nach Wolke mit etwas Zeichnung aussieht. Wenn in Hauttönen Nuancen fehlen oder die Verläufe auch nur minimal irgendwie unecht wirken, fällt das sofort auf. Selbst wenn nur ein einziger Kanal clippt, ist das meistens der Fall. Bei Red-Sensoren verlierst du am Himmel (auch in den Wolken) verlierst meist den Grünkanal eine halbe bis ganze Blende vor rot, kurz danach erst blau. Und diesen Spielraum von bis zu einer Blende kannst du durchaus nutzen.
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

neuzeit.tv ll nicolas-geissler.de




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» TV ist quasi tot
von Pianist - Mo 18:42
» Premium-Mikro für Tierfilm
von TonBild - Mo 18:42
» Gegenlichtblende für GoPro Hero 5/6
von blueplanet - Mo 18:11
» 30p zu 60p in Premiere
von posedown - Mo 16:55
» CEntrance Mixerface R4: Mobiles Recordinginterface
von cantsin - Mo 16:31
» Drahtloses Rode TX-M2 Kondensator Mikrofon jetzt auch solo erhältlich
von rush - Mo 16:07
» BIETE GoPro Hero5 Black inkl. umfangreichem Zubehör
von wkonrad - Mo 16:03
» Kaufberatung - Hochzeit / Imagefilm
von BK11 - Mo 15:39
» Nach Keying Maske?
von rayxin - Mo 15:29
» Filmen und fotografieren mit minimaler Ausrüstung in guter Qualität?
von Donuss - Mo 15:11
» Smartphone für Filmer - worauf beim Kauf achten?
von slashCAM - Mo 14:40
» Tonproblem Premiere
von Cutter_ - Mo 14:13
» Kotor in 4K
von fisheyeadventures - Mo 13:17
» Gesichts-Motioncapturing mit dem iPhone X
von Jott - Mo 13:01
» Nivellierkopf Manfrotto 438 plus Manfrotto 701HDV
von herzomax - Mo 11:38
» Rode Stereo-VideoMic incl. Windschutz
von herzomax - Mo 11:32
» Mit dem Smartphone filmen -- ernsthaft! Teil 2: die Vorteile
von Darth Schneider - Mo 6:55
» Sony RX100 VI - Die ultimative 4K Mini-Knipse mit 8,3fach-Superzoom?
von wus - So 22:53
» 1/2" (B4?) ENG-0bjektiv an MFT adaptieren?
von cantsin - So 22:24
» Sind blaue LEDs Augenkiller? Mythos, Wahrheit und Tipps zum Umgang mit blauen Spektralanteilen
von Frank B. - So 19:19
» Dokfilm: Henkelmann, Hybrid oder doch DSLR?
von pixelschubser2006 - So 16:37
» Grafikkarte defekt Beitrag vomJuni 2018
von Bischofsheimer - So 12:49
» Ein Drehbuch ist kein Roman -- schreiben mit Bild und Ton
von iasi - So 12:02
» NVIDIA präsentiert Quadro RTX als Raytracing-Grafikprozessor
von Frank Glencairn - So 11:44
» Spannender als ein Krimi!
von klusterdegenerierung - So 11:01
» Schnäppchen Sony NEX-EA50
von fotofritz - So 10:50
» Ton beim Film "Public Enemies"
von Frank Glencairn - So 2:53
» Wafer werden deutlich teurer - RAM, CPUs und Sensoren auch?
von WoWu - So 0:57
» Musikvideo-Umwandlung: Probleme beim Kopieren von Digitaldateien auf VHS
von lutzherbach - So 0:49
» Kameras in Kleinanzeigen gebraucht teurer als im neu Handel?
von Donuss - Sa 23:38
» Kaufberatung Funkstrecke + Ton
von Blackbox - Sa 21:40
» Tasche für DJI Ronin-S
von sanftmut - Sa 19:22
» Seoul zwischen K-Pop und Konkurrenzdruck -- gelungenes Stadtportrait mit Regie-Kommentar
von Axel - Sa 16:21
» Blackmagic Pocket Cinema Camera 4K: Die neuen Features, und welches Zubehör für welchen Dreh?
von Frank Glencairn - Fr 22:49
» Joey Dosik - Don't Want It To Be Over (Dir. Cut)
von Cinemator - Fr 21:14
 
neuester Artikel
 
Smartphone für Filmer - worauf beim Kauf achten?

Das Filmen mit dem Smartphone unterscheidet sich wesentlich vom Filmen mit anderen Bewegtbildlösungen. Tatsächlich ergeben sich bei mobilen Android / iOS Geräten teils völlig andere Prioritäten bei den zentralen (Video)funktionen. Hier unser Ratgeber worauf bei der Wahl eines Handys fürs Filmen zu achten wäre ... weiterlesen>>

Sind blaue LEDs Augenkiller? Mythos, Wahrheit und Tipps zum Umgang mit blauen Spektralanteilen

Man stolpert bei Monitorherstellern immer häufiger über Kleingedrucktes und seltsame Filtermethoden für einen reduzierten Blauanteil. Ein Grund hierfür könnte tatsächlich in der Sorge zu finden sein, ansonsten für Augenschäden der Benutzer haftbar gemacht zu werden. Richtig gehört und weitergelesen... weiterlesen>>

neuestes Video
 

Aktuelles Video:
Joey Dosik - Don't Want It To Be Over (Dir. Cut)

Getanztes Musikvideo, das sich selbst nicht zu ernst nimmt und den ein oder anderen Slapstick-Effekt einbaut; auch der Anfang ist speziell.