Logo Logo
/// 

RAW Format Vergleich - Ein tabellarischer Funktions-Überblick



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://www.slashcam.de/images/texte/1895-FRONTPAGE-raww.jpg
Wenn man sich fragt, was RAW eigentlich von anderen Formaten abgrenzt, sollte man vielleicht auf die gebotenen Funktionen in der "Entwicklungsabteilung" blicken. Was wir hier einmal tabellarisch versuchen...

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Ratgeber: RAW FormatFormat im Glossar erklärt Vergleich - Ein tabellarischer Funktions-Überblick




Antwort von cantsin:

Ein ziemlicher Hammer, dass sich bei ProResProRes im Glossar erklärt Raw praktisch keine Parameter einstellen lassen. Das kann doch nur an einem lückenhaften Apple-SDK liegen, nicht am FormatFormat im Glossar erklärt selbst? Denn der Whitepaper-Spezifikation zufolge müsste es sich eigentlich nicht anders verhalten als komprimiertes CinemaDNG-RAW?!?

EDIT: Bei so wenigen Eingriffsmöglichkeiten ist die Unterstützung (bzw. Nicht-Unterstützung) des Formats in Resolve nicht wirklich ein Problem...



Antwort von pillepalle:

Wir lassen iasi als Beta-Tester erstmal die Komodo kaufen *g*

VG





Antwort von roki100:

Also bei ProResProRes im Glossar erklärt RAW fehlt Highlight Recovery unter RAW Einstellung, dafür ist es aber unter normale Belichtung Regler quasi per default mit dabei.

https://www.youtube.com/watch?v=jQYhebj5oNU

Woher sollen wir also wissen, ob sich die restliche RAW Parameter doch nicht unter normale Regler verbergen?



Antwort von cantsin:


Also bei ProResProRes im Glossar erklärt RAW fehlt Highlight Recovery unter RAW Einstellung, dafür ist es aber unter normale Belichtung Regler quasi per default mit dabei.\

Das ist keine Highlight-Recovery wie bei RAW, sondern nur das Zurückdrehen der Spitzlichter, wenn das Material in Rec709 interpretiert wird.

(Kann es sein, dass Du da etwas grundsätzliches noch nicht begriffen hast, weil Du in Deinen Postings immer wieder Highlight-Recovery erwähnst?)



Antwort von roki100:



Also bei ProResProRes im Glossar erklärt RAW fehlt Highlight Recovery unter RAW Einstellung, dafür ist es aber unter normale Belichtung Regler quasi per default mit dabei.\

Das ist keine Highlight-Recovery wie bei RAW, sondern nur das Zurückdrehen der Spitzlichter, wenn das Material in Rec709 interpretiert wird.

es funktioniert aber komischerweise nur mit ProResProRes im Glossar erklärt RAW, also so wie Highlight Recovery wie z.B. bei CDNG.
Wenn man in Affiniy Photo CDNG File öffnet, dann gibt es auch kein Highlight Recovery Option, sondern nur durch zurückdrehen der Belichtung führt das zu gleiche Ergebnisse wie in Resolve: Highlight Recovery auf ON und Highlights zurückdrehen.

Ich denke, bei ProResProRes im Glossar erklärt RAW existieren die RAW Parameter schon. So ist z.B. Highlight Recovery Standard aktiviert.



Antwort von pillepalle:

Hab nur wenig herumprobiert (mangels Software) konnte aber auch keinen großen Unterschied in der Dynamik feststellen. Vielleicht hat man etwas mehr in RAW, aber das ist vermutlich weniger als 1 BlendeBlende im Glossar erklärt Unterschied zu den 10bit log Aufnahmen. Wie gesagt, solange ich alles problemlos in ProResProRes im Glossar erklärt hin bekomme weine ich der RAW Option keine Träne nach. Kann mich immer schnell genug auf alles einstellen und auch das log Material läßt sich gut in der Post verbiegen.

VG



Antwort von srone:

@roki 100

dass das hinterher funktioniert ist klar, genug dr vorausgesetzt, da kann ich dann auch pro res pur nehmen.
der punkt von raw ist doch, alle clips in einen einheitlichen stil zu "entwickeln", sozusagen die technische farbkorrektur in den raw tab zu verlegen, um sie während des dabayerns auszuführen, hinterher hast du ein signal, wie es jeder andere video-codec auch vermag.

lg

srone



Antwort von roki100:


Hab nur wenig herumprobiert (mangels Software) konnte aber auch keinen großen Unterschied in der Dynamik feststellen.

Da Highlight Recovery standardmäßig aktiviert ist, siehe: https://www.slashcam.de/artikel/Grundla ... tzeln.html



Antwort von pillepalle:

@ roki

Ok, verstanden :) Nur habe ich eure Probleme nicht. Mir reicht die Dynamik auch ohne RAW, ich lasse meine Highlights nicht clippen und ich filme nicht versehentlich eine Kusntlichtszene mit 5500°K um sie nacher in der Post in 3200°K haben zu wollen. Dann wäre RAW tatsächlich hilfreich. Aber wenn man das nicht vor hat, komplizierte VFX/SFX oder wirklich große Produktionen macht, braucht es das auch nicht zwingend.

VG



Antwort von srone:


Nur habe ich eure Probleme nicht. Mir reicht die Dynamik auch ohne RAW, ich lasse meine Highlights nicht clippen und ich filme nicht versehentlich eine Kusntlichtszene mit 5500°K um sie nacher in der Post in 3200°K haben zu wollen. Dann wäre RAW tatsächlich hilfreich. Aber wenn man das nicht vor hat, komplizierte VFX/SFX oder wirklich große Produktionen macht, braucht es das auch nicht zwingend.

VG

mir im regelfall auch, das ist aber nicht der punkt, wenn raw zum schlagwort verkommt, sollte man sich schon zu diversen derivaten äussern können.

lg

srone



Antwort von pillepalle:

@ srone

Was macht es für einen Sinn sich die Köpfe darüber heiss zu reden? Um RAW Dateien zu verarbeiten braucht es doch kein Spezialwissen? Einen Highlight Recovery-Regler kann so ziemlich jeder bedienen, genauso wie den für White-Balance, oder die Belichtung. Und wenn die bei einigen Formaten fehlen (wie z.B. bisher bei ProResProRes im Glossar erklärt RAW) dann spricht das nicht gerade für die jeweiligen Formate.

VG



Antwort von cantsin:


es funktioniert aber komischerweise nur mit ProResProRes im Glossar erklärt RAW, also so wie Highlight Recovery wie z.B. bei CDNG.

Wo denn genau? Im von Dir verlinkten Video verhalten sich Log und Raw qua in Rec709 rückholbarer Bildinformation in den Spitzlichtern praktisch identisch, nur dass es dem Videomacher nicht gelingt, in den Spitzlichtern des Log-Materials mehr Kontrast reinzudrehen.



Antwort von srone:


@ srone

Was macht es für einen Sinn sich die Köpfe darüber heiss zu reden? Um RAW Dateien zu verarbeiten braucht es doch kein Spezialwissen? Einen Highlight Recovery-Regler kann so ziemlich jeder bedienen, genauso wie den für White-Balance, oder die Belichtung.

VG

das habe ich auch nicht behauptet, wenn es diese regler denn im raw tab gibt.
man kann sich natürlich auch hinstellen und sagen, ich akzeptiere jegliche sosse die mir die hersteller als raw verkaufen wollen, da bin ich jedoch, in meinem puristischen bildverständnis, weit davon entfernt, weil final landen wir dann bei einer smartphone ästhetik, die uns kino vorgaukelt, in 16k, ist das dann wirklich ein bildreproduzierendes verfahren oder nur noch ein abbild davon?
mir ist klar, pragmatisch ist das eine, aber sollten wir in einem kameraforum nicht genausolche vereinfachenden verfahren in frage stellen?

lg

srone



Antwort von roki100:

@cantsin, kann sein das Du recht hast.
Nachdem ich DAS gelesen habe, bin ich mir nun auch nicht mehr sicher.



Antwort von pillepalle:

@ srone

Klar muss man die in Frage stellen. Ich bin z.B. slashcam für den ProResProRes im Glossar erklärt RAW Test mit der Nikon sehr dankbar, weil ich selber vermutlich deutlich länger gebraucht hätte um festzustellen das es eigentlich nichts bringt (vermutlich in dem Fall, weil das Debayering auf ein skaliertes Bild angewendet wird). Am Ende zählt nur das Ergebnis/Bild. Da ist es mir relativ egal wie der Hersteller das nennt. Ich filme in RAW wenn es mir auch Vorteile bringt, sonst kann ich mir das auch sparen. Es gibt ja auch Leute die Blackmagic Raw nicht als 'echtes' RAW ansehen. In der Praxis hat es aber offensichtlich viele Vorteile und verhält sich quasi wie RAW, selbst wenn es kein 'echtes' RAW, sondern nur ein Marketing-RAW wäre. Aber ich weiss schon was Du meinst. Man sollte den Sachen auf den Grund gehen und sie verstehen. Da bin ich bei Dir.

VG



Antwort von rudi:


@cantsin, kann sein das Du recht hast.
Nachdem ich DAS gelesen habe, bin ich mir nun auch nicht mehr sicher.

Das eine ist einfach nur ein "runterholen" vorhandener Lichter (was wohl auch so in FCP X und EDIUS passiert). Das kann man auch mit jedem Log-Material machen.
Die "echte" Highlight Recovery ist eine Rekonstruktion des Grün-Kanals (und evtl auch des Rot-Kanals), die wirklich auf Sensorebene überbelichtet sind.
Man kann versuchen herauszufinden, ob ProRES RAW dies aktiviert hat, indem man eine bunte Fläche aus einer Überlichtung herunter zieht. Wenn da wieder die richtigen Farben zum Vorschein kommen, ist KEINE Highlicht Recovery implementiert.



Antwort von rudi:

So, habe es jetzt mal schnell ausprobiert. Hier mal ein HistogrammHistogramm im Glossar erklärt aus Scratch mit einer ETTR-0 Belichtung von ProRES RAW:

Man sieht klar, dass ProRES RAW in Scratch den Grünkanal nicht rekonstruiert, wenn er clippt. Bemerkenswert ist jedoch, dass der Rote Kanal über das Clipping gehen kann, wenn der grüne Kanal und der Blaue Kanal in diesen Bereichen nicht clippt. Ist wenn ich länger drüber nachdenke, auch eine Form der Highlight Recovery, bzw. eine mildere Abwandlung davon.
Das müsste man mit Testbildern noch genauer untersuchen.



Antwort von roki100:

Danke!
Wäre interessant zu wissen wie es mit der selben File in FCPX aussieht?



Antwort von cantsin:


So, habe es jetzt mal schnell ausprobiert. Hier mal ein HistogrammHistogramm im Glossar erklärt aus Scratch mit einer ETTR-0 Man sieht klar, dass ProRES RAW in Scratch den Grünkanal nicht rekonstruiert, wenn er clippt. Bemerkenswert ist jedoch, dass der Rote Kanal über das Clipping gehen kann, wenn der grüne Kanal und der Blaue Kanal in diesen Bereichen nicht clippt. Ist wenn ich länger drüber nachdenke, auch eine Form der Highlight Recovery, bzw. eine mildere Abwandlung davon.

Aber, auf Deutsch gesagt, eine ziemlich besch*ssene, weil man dadurch rosa Highlights erhält - wie zu Camcorder-Zeiten in den 90ern...

Bisher ist ProResProRes im Glossar erklärt Raw eine Technologie, die auf dem Papier gut aussieht und in der Praxis völlig vergeigt wurde.

Es ist ja beinahe so grotesk, dass man ein Slapstickvideo darüber drehen könnte:
von jemandem, der sich eine Nikon Z6 kauft;
dann feststellt, dass er seine Kamera für 200 Euro einschicken muss;
dann feststellt, dass er das Atomos-Recorder-Geraffel dranschrauben muss, obwohl das interne Speicherkarteninterface der Kamera eigentlich schnell genug ist für ProResProRes im Glossar erklärt RAW;
dann feststellt, dass er seine RAW-Daten über ein HDMI-Sollbruchstellen-Kabel aufzeichnen muss;
dann feststellt, dass er seine Dateien nur in einer begrenzten Anzahl NLEs öffnen kann;
dann feststellt, dass er keinen Zugriff auf die bei RAW üblichen Bildparameter hat;
dann feststellt, dass sein Material durch das skalierte Bayer-Pattern unscharf ist und Moiré-Artefakte hat;
und dann zum krönenden Abschluss noch mit rosa Spitzlichtern belohnt wird...



Antwort von roki100:

falls ProResProRes im Glossar erklärt RAW tatsächlich RAW Parameter hat (welche aber verborgen sind und nur Apple bekannt) dann kann es sein, dass Apple mit FCPX beim nächsten großen Update extra Regler nur für ProResProRes im Glossar erklärt RAW zur Verfügung stellt, und somit die ProResProRes im Glossar erklärt RAW Nutzer quasi hin zu FCPX zwingt?
Ich meine, Apple ist ja nicht dumm und das die tolle Sachen Entwicklen ist doch auch bekannt.

Wenn man das hier liest...
ProRes RAW ist ein neues FormatFormat im Glossar erklärt von Apple, das die Qualitäts- und Workflow-Vorteile von RAW mit der beeindruckenden Leistung von ProResProRes im Glossar erklärt kombiniert. Mit ProResProRes im Glossar erklärt RAW können Videocutter unverfälschtes Bildmaterial mit RAW-Daten direkt von der Kamera importieren, bearbeiten und gradieren, was höchste Flexibilität bei der Anpassung von Helligkeit und Schatten bietet – ideal für HDR-Workflows. https://www.apple.com/de/newsroom/2018/ ... aptioning/
...dann verstehe ich nicht was mit "höchste Flexibilität bei der Anpassung von Helligkeit und Schatten" genau gemeint ist. Schade das Apple selbst all die sichtbare unterschiede zwischen PR und PRRAW nicht präsentiert.



Antwort von cantsin:

Bisher sieht es nur danach aus, als ob ProResProRes im Glossar erklärt Raw von Apple genauso stiefmütterlich behandelt wird wie früher Cineform Raw durch GoPro, und wie CinemaDNG durch Adobe...

Meine Vermutung ist eher, dass Apple nach REDs erfolgreicher Patentklage gegen Atomos ProResProRes im Glossar erklärt Raw keine großen Marktchancen mehr einräumt und deshalb auch keine nennenswerten Entwicklerresourcen in das Projekt steckt.



Antwort von roki100:

Apple hat m.M. seit Jahren für Video&Compositing kaum was neues entwickelt, außer das Design, Geschwindigkeit und ein paar Kleinigkeiten. Bei Motion haben die sehr lange gebraucht bis überhaupt sowas wie 3D Text kam... oder bei FCPX endlich mal "Custom LUT" Loader.
Immerhin... im verglich zu Microsoft Windows, immer noch, viel besser.;)



Antwort von nic:


@roki 100

dass das hinterher funktioniert ist klar, genug dr vorausgesetzt, da kann ich dann auch pro res pur nehmen.
der punkt von raw ist doch, alle clips in einen einheitlichen stil zu "entwickeln", sozusagen die technische farbkorrektur in den raw tab zu verlegen, um sie während des dabayerns auszuführen, hinterher hast du ein signal, wie es jeder andere video-codec auch vermag.

lg

srone

Das ‘demosaicing’ findet vor den Farbanpassungen statt. In Resolve etwa macht es qualitativ keinen Unterschied, ob du die technische Bildkorrektur im raw tab oder in den Primaries machst. Einmal nutzt du eben die Algorithmen des Herstellers (SDK) und einmal die von Resolve. Einzig Späßchen wie highlight recovery funktionieren nur mit den echten Sensorwerten. Und bei Kackprogrammen wie Premiere bist du natürlich besser bedient, wenn du möglichst viel in der SDK des Herstellers anpasst.



Antwort von Cinealta 81:


Bisher ist ProResProRes im Glossar erklärt Raw eine Technologie, die auf dem Papier gut aussieht und in der Praxis völlig vergeigt wurde.

Es ist ja beinahe so grotesk, dass man ein Slapstickvideo darüber drehen könnte:
von jemandem, der sich eine Nikon Z6 kauft;
dann feststellt, dass er seine Kamera für 200 Euro einschicken muss;
dann feststellt, dass er das Atomos-Recorder-Geraffel dranschrauben muss, obwohl das interne Speicherkarteninterface der Kamera eigentlich schnell genug ist für ProResProRes im Glossar erklärt RAW;
dann feststellt, dass er seine RAW-Daten über ein HDMI-Sollbruchstellen-Kabel aufzeichnen muss;
dann feststellt, dass er seine Dateien nur in einer begrenzten Anzahl NLEs öffnen kann;
dann feststellt, dass er keinen Zugriff auf die bei RAW üblichen Bildparameter hat;
dann feststellt, dass sein Material durch das skalierte Bayer-Pattern unscharf ist und Moiré-Artefakte hat;
und dann zum krönenden Abschluss noch mit rosa Spitzlichtern belohnt wird...

Das ist leider noch nicht alles:

--> http://blog.falklumo.com/2020/01/the-co ... s-raw.html (bitte aufmerksam zu Ende lesen)

Die Praxisrelevanz (=sichtbare Auswirkungen bei 100%) der aufgeführten "Problemchen" wird sicherlich von Owner zu Owner verschiedentlich interpretiert (bzw. hingenommen/nicht hingenommen), aber insgesamt haben Sie mit Ihrem obigen Post absolut Recht: Etwas "unrund" das Gesamtpaket - wobei für die bisher eher dürftige Unterstützung von ProResProRes im Glossar erklärt RAW kann Nikon relativ wenig. Für den Anwender ändert allerdings die Frage nach der Verantwortlichkeit nichts.



Antwort von cantsin:


Das ist leider noch nicht alles:

--> http://blog.falklumo.com/2020/01/the-co ... s-raw.html (bitte aufmerksam zu Ende lesen)

Hatte ich schon geschrieben - dass das "Material durch das skalierte Bayer-Pattern unscharf ist und Moiré-Artefakte hat".



Antwort von nic:


Wenn man sich fragt, was RAW eigentlich von anderen Formaten abgrenzt, sollte man vielleicht auf die gebotenen Funktionen in der "Entwicklungsabteilung" blicken. Was wir hier einmal tabellarisch versuchen...

Wieso schreibt ihr, dass redraw kein highlight recovery anbieten würde? Seit IPP2 ist das als highlight extension natürlich dabei...



Antwort von roki100:


In Resolve etwa macht es qualitativ keinen Unterschied, ob du die technische Bildkorrektur im raw tab oder in den Primaries machst.

Also die Farbanpassung mit ColorTemp und Tint mit den RAW Regler (das ist denke ich das, was srone meint), macht das schon ein unterschied.



Antwort von -paleface-:

@slashcam

Kann es sein das CDNG nicht ganz komplett ist?

Weil in Resolve kann ich Gain, Sättigung und Kontrast einstellen.

Oder meint ihr was anderes?



Antwort von roki100:

Schärfe/Sharpness auch:

Bildschirmfoto 2020-02-11 um 21.23.05.png



Antwort von -paleface-:

Color Space dann ja eigentlich auch.



Antwort von dienstag_01:

Was würde man denn hier sagen, wenn ich die Ergebnisse des Adobe Media Encoders als Referenz für die Qualität des h264 Codecs nähme?!
So ähnlich macht es dieser Artikel auch, von der Implementierung in einer einzelnen Anwendung auf den CodecCodec im Glossar erklärt an sich schließen, sehr seltsame Vorgehensweise.



Antwort von Paralkar:

ArriRaw kann man natürlich Tint/ WB und sonstige Sachen verstellen



Antwort von -paleface-:

Das würde ja bedeuten das unterschiedliche Software Raws unterschiedlich interpretieren.

Interessant.

Wie ist das denn wenn man z. B. ein CDNG in Resolve und Scratch lädt und beiden sagen wie mal 1000Kelvin WB hinzugefügt.
Sehen die dann gleich aus?



Antwort von dienstag_01:

Das würde ja bedeuten das unterschiedliche Software Raws unterschiedlich interpretieren.
Im Fotobereich ist das definitiv so. Warum sollte das bei Video anders sein.



Antwort von rudi:


@slashcam

Kann es sein das CDNG nicht ganz komplett ist?

Weil in Resolve kann ich Gain, Sättigung und Kontrast einstellen.

Oder meint ihr was anderes?

Hmm. In diesem Artikel ging es jetzt primär um Scratch und wie die SDKs da umgesetzt sind.
Wenn CDNG unter Resolve mehr Optionen bietet, dann müssen wohl zwei Tabellen her.

@nic: Ich finde auch in der RED IPP2 unter Scratch keine Highlight Extension (und auch nicht unter Resolve).
Muss wohl morgen nochmal genauer danach schauen...



Antwort von cantsin:

Die Tabelle bleibt trotzdem interessant. Denn wenn es stimmt, dass Scratch die Hersteller-SDKs 1:1 einbindet, sieht man so, welche Funktionen bzw. Kontrollparameter über die SDKs zur Verfügung gestellt werden und wo NLE-Softwarehersteller eigene Decoder-Engines entwickeln müssen, um mehr Kontrolle zu ermöglichen.

Bei einigen Formaten wie BRAW gibt es ja gar keine veröffentlichte Spezifikation, sondern nur das SDK.



Antwort von dienstag_01:


Die Tabelle bleibt trotzdem interessant. Denn wenn es stimmt, dass Scratch die Hersteller-SDKs 1:1 einbindet, sieht man so, welche Funktionen bzw. Kontrollparameter über die SDKs zur Verfügung gestellt werden und wo NLE-Softwarehersteller eigene Decoder-Engines entwickeln müssen, um mehr Kontrolle zu ermöglichen.

Bei einigen Formaten wie BRAW gibt es ja gar keine veröffentlichte Spezifikation, sondern nur das SDK.

Veröffentlichte Spezifikationen gibt's doch nirgends oder. Auch wieder genau wie bei Foto.
Das ist doch der eigentlich Witz bei RAW, es kann sehr viel drin sein. Muss aber nicht.



Antwort von cantsin:


Veröffentlichte Spezifikationen gibt's doch nirgends oder.

Ausser von CinemaDNG...



Antwort von dienstag_01:



Veröffentlichte Spezifikationen gibt's doch nirgends oder.

Ausser von CinemaDNG...

Naja, das ist die Spezifikation des Containers.

Aber wenn man es mal ganz puristisch betrachtet, dann brauch man vielleicht gar keine Spezifikationen vom Hersteller. Man hat Daten, die so vom Sensor kommen sollen - angeblich, uns ist ja inzwischen klar, dass das nicht immer der Fall sein kann -, alles weitere macht man selbst in der Software. Ich weiß nicht, wo da die Grenzen liegen.
Vielleicht sollte man mal testen, wie ein und dasselbe File in verschiedenen Applikationen aussieht, vielleicht bringt das weiter.



Antwort von mash_gh4:



Ausser von CinemaDNG...

Naja, das ist die Spezifikation des Containers.

nein -- im falle von DNG ist jede menge bis hinein in die color science bzw. den konkreten verarbeitungsablauf und die anwendung von DNG Camera Profiles (DCP) ganz genau und für jeden offen zugänglich spezifiziert!

ist alles hier nachzulesen:
http://wwwimages.adobe.com/content/dam/ ... .5.0.0.pdf

https://www.youtube.com/watch?v=_fikTm8XIt4

sorry -- aber über solche sachen kann/braucht man auf den niveau, wie es von der slashcam redaktion vorgegeben wird, ohnehin nicht ernsthaft diskutieren...



Antwort von Darth Schneider:

Danke SlashCAM, ich denke das war nötig, wir wollen doch keinen Raw Salat.

Also Fazit von dieser Diskussion, ProResProRes im Glossar erklärt Raw braucht definitiv ein Update, und Nikon auch kommt ja sicher, die Formate sind ja noch sehr neu. Mit BRaw fahrt man neben den unbezahlbaren Formaten wie ArriRaw und Co. eigentlich dann ja sehr gut..
Man kann ja sogar wenn man eine Raw Pfeife ist , so wie ich im aller ersten Resolve Raw Menü unter Color eigentlich das meiste wichtige ganz locker einstellen, inklusive dem Highlight Recovery...Obwohl ich bei dem Knopf eigentlich keinen Unterschied in den Schatten sehe, ich drück ihn einfach jedes Mal...
Man kann ja auch nix gross da was einstellen nur ein Häckchen setzen, oder sehe ich da was falsch ? Also was soll der Hype ?
Was mich auch schon wirklich überrascht, ist das man bei BRaw nix an der Schärfe herumdrehen kann, komischerweise im Kameramenü aber doch schon..
Warum nicht in Resolve ?
Das wäre doch eigentlich noch ziemlich wichtig für den finalen Look eines Films, denke ich.



Antwort von roki100:


Highlight Recovery...Obwohl ich bei dem Knopf eigentlich keinen Unterschied in den Schatten sehe, ich drück ihn einfach jedes Mal...
Man kann ja auch nix gross da was einstellen nur ein Häckchen setzen, oder sehe ich da was falsch ? Also was soll der Hype ?

In den clipping Highlights. Du kannst noch den Regler "Highlights" auf minus ziehen, dann siehst Du den unterschied.



Antwort von Cinealta 81:


Hatte ich schon geschrieben - dass das "Material durch das skalierte Bayer-Pattern unscharf ist und Moiré-Artefakte hat".

Klar - meine Aussage bezog sich aber auf die technische Ursachenforschung bzw. mögliche Hinweise auf Readout / Verarbeitung (und die Schlussfolgerungen daraus):

Therefore, I conclude that for ProResRAW, the sensor uses a readout mode or data pipeline which skips pixels. I am not going to call it line or row skipping yet. Skipping, e.g., every 3rd line and 3rd row doesn't end up to produce a feed which can be debayered easily. However, you can read 4, and then drop 2, lines and rows - and still end up with a Bayer pattern. And it should indeed lead to both, 6k and 4k artifacts. That's line and row skipping and I personally believe that this is what is going on. However, I am not ready yet to draw that conclusion officially. Officially I say though that Nikon applies pixel skipping in ProResProRes im Glossar erklärt RAW.

Für ergebnisorientierte Anwender uninteressant, für technikaffine Neugierige und Besondersgenauhingucker sicherlich von Bedeutung.



Antwort von roki100:

auf der apple Seite steht noch: "ProRes RAW-Dateien besitzen sogar noch eine kleinere Dateigröße als ProResProRes im Glossar erklärt 4444-Dateien"
Na klar, wegen Pixel-Skipping?



Antwort von dienstag_01:


auf der apple Seite steht noch: "ProRes RAW-Dateien besitzen sogar noch eine kleinere Dateigröße als ProResProRes im Glossar erklärt 4444-Dateien"
Na klar, wegen Pixel-Skipping?

RAW hat nur einen (Helligkeits-) Wert pro Pixel.



Antwort von roki100:



auf der apple Seite steht noch: "ProRes RAW-Dateien besitzen sogar noch eine kleinere Dateigröße als ProResProRes im Glossar erklärt 4444-Dateien"
Na klar, wegen Pixel-Skipping?

RAW hat nur einen (Helligkeits-) Wert pro Pixel.

Bei ProResProRes im Glossar erklärt RAW werden aber vermutlich PixelPixel im Glossar erklärt übersprungen und die übersprungene haben somit gar kein Wert? Oder habe ich das hier falsch verstanden:
"However, you can read 4, and then drop 2, lines and rows - and still end up with a Bayer pattern. And it should indeed lead to both, 6k and 4k artifacts. That's line and row skipping and I personally believe that this is what is going on."

Irgend wann wird vll. bekannt, ProResProRes im Glossar erklärt RAW ist nur ProResProRes im Glossar erklärt Proxy in 12 BitBit im Glossar erklärt ;))



Antwort von dienstag_01:



RAW hat nur einen (Helligkeits-) Wert pro Pixel.

Bei ProResProRes im Glossar erklärt RAW werden aber vermutlich PixelPixel im Glossar erklärt übersprungen und die übersprungene somit gar kein Wert? Oder habe ich das hier falsch verstanden:
"However, you can read 4, and then drop 2, lines and rows - and still end up with a Bayer pattern. And it should indeed lead to both, 6k and 4k artifacts. That's line and row skipping and I personally believe that this is what is going on."

Das hat mit dem Unterschied von ProResProRes im Glossar erklärt und PRRaw erstmal gar nichts zu tun. Gleiche Formate habe ja die gleiche Anzahl von Pixeln, egal wie viele da eigentlich auf dem Sensor sind.



Antwort von roki100:



Bei ProResProRes im Glossar erklärt RAW werden aber vermutlich PixelPixel im Glossar erklärt übersprungen und die übersprungene somit gar kein Wert? Oder habe ich das hier falsch verstanden:
"However, you can read 4, and then drop 2, lines and rows - and still end up with a Bayer pattern. And it should indeed lead to both, 6k and 4k artifacts. That's line and row skipping and I personally believe that this is what is going on."

Das hat mit dem Unterschied von ProResProRes im Glossar erklärt und PRRaw erstmal gar nichts zu tun. Gleiche Formate habe ja die gleiche Anzahl von Pixeln, egal wie viele da eigentlich auf dem Sensor sind.

also so wie ich das verstehe ist, dass die übersprungenen Lines und Rows (was ja Sensor-Pixel sind) dann in ProResProRes im Glossar erklärt RAW als NULLen gefüllt sind?



Antwort von dienstag_01:



Das hat mit dem Unterschied von ProResProRes im Glossar erklärt und PRRaw erstmal gar nichts zu tun. Gleiche Formate habe ja die gleiche Anzahl von Pixeln, egal wie viele da eigentlich auf dem Sensor sind.

also so wie ich das verstehe ist, dass die übersprungenen Lines und Rows (was ja Sensor-Pixel sind) dann in ProResProRes im Glossar erklärt RAW als NULLen gefüllt sind?

Wieso denn? Dieser Vorgang hat mit dem Unterschied von Sensorgröße zu Videoformatgröße zu tun. Wie kommt man von z.b. 6K (Sensor) auf 4k (Video)? Durch Skipping. Unter anderem.
Da sind dann keine Nullen, die fehlen einfach ganz.



Antwort von roki100:

Ok jetzt verstehe ich!
Dann ist das auch bei Sigma FP mit CDNG wahrscheinlich auch so?



Antwort von dienstag_01:


Ok jetzt verstehe ich!
Dann ist das auch bei Sigma FP mit CDNG wahrscheinlich auch so?

Skipping machen einige Kameras, nicht nur bei RAW.
Und bei der Sigma sollte es genau wie bei der Nikon auch so sein.



Antwort von roki100:

Und ich dachte, dass zuerst alle PixelPixel im Glossar erklärt gelesen werden, dann aber Kameraintern herunter skaliert wird und als File gespeichert. :/



Antwort von cantsin:

In unser Diskussion gehen munter die Kategorien von FormatFormat im Glossar erklärt (ProRes Raw), Software-Unterstützung (Apples SDK und dessen Implementierung in Programmen wie Scratch) und Hardware-Implementierung (Umweg über HDMIHDMI im Glossar erklärt und Atomos-Recorder, Line Skipping bei der Nikon Z6) durcheinander.

Also Fazit von dieser Diskussion, ProResProRes im Glossar erklärt Raw braucht definitiv ein Update

Die Software-Unterstützung definitiv, die Hardware-Implementierung zumindest bei Nikon, aber bei allen anderen Herstellern, die die Aufzeichnung an Atomos auslagern, um die RED-Lizenzgebühren zu sparen.

und Nikon auch kommt ja sicher, die Formate sind ja noch sehr neu.

Bei Nikon würde ich in dieser Kamerageneration nicht mehr mit Verbesserungen rechnen, denn die Beschränkung auf 4K-RAW mit Line Skipping hat, wie bei der Sigma fp, sehr wahrscheinlich mit Hardware-, möglicherweise auch mit Lizenz-Beschränkungen des (in beiden Kameras identischen) Sony-Sensors zu tun.

inklusive dem Highlight Recovery...Obwohl ich bei dem Knopf eigentlich keinen Unterschied in den Schatten sehe, ich drück ihn einfach jedes Mal...

Ich werde den Eindruck nicht los, dass in unseren Foren-Diskussionen z.T. grundsätzliche Dinge nicht verstanden werden und "Highlight Recovery" mit dem vermeintlichen Zurückholen ausgebrannter Spitzlichter mit Raw- oder Log-Material verwechselt wird.

Letzteres bedeutet nur: Wenn RAW- oder Log-Material als Rec709 oder sRGB interpretiert wird (z.B. durch Wahl von Rec709 im Raw-Tab oder Anwenden einer LUT), werden Schatten und Spitzlichter abgeschnitten, weil Rec709 eigentlich nur 6 Blenden Dynamik abbilden kann. Dreht man an den Kurven, kommt die abgeschnittenen Spitzlichter scheinbar "magisch" wieder zurück (wenn mit Log oder Raw gedreht wurde - wurde in Rec709 bzw. Standardprofilen gedreht, sind dir Spitzlichter bereits bei der Aufnahme abgeschnitten und unwiderruflich verloren).

Dies hat aber nichts mit Highlight Recovery zu tun. Highlight Recovery ist ein eher experimentelles und spekulatives Notnagel-Feature, bei dem physisch (d.h. auch in Raw oder Log) ausgebrannte Spitzlichter aus Restinformationen einzelner Farbkanäle rekonstruiert werden. Wenn Du z.B. in Kunstlicht mit seinem hohen Rotanteil drehst und die Spitzlichter brennen aus, dürfte vor allem der Rotkanal überbelichtet sein, bzw. die roten Sensorpixel im Rot-Blau-Grün-Grün-Sensorpattern auf dem Maximalwert stehen. Sind die Blau- und/oder Grün-Pixel nicht ausgebrannt, sondern erzeugen ein visuelles Muster, kann die Raw-Highlight-Recovery dieses Muster auf die Rot-Pixel interpolieren und so die verlorene Bildinformation rekonstruieren.

Das ist zwangsläufig spekulativ: Stell Dir vor, Du drehst im Bühnenlicht, und auf der Bühne steht eine cyanblau bemalte weisse Leinwand (z.B. ein Aktbild von Yves Klein), die durch ein Spotlicht angestrahlt wird. Wegen der Tungsten-Beleuchtung clippt die Leinwand in den Rot-Sensorpixeln der Kamera. Klickst Du jetzt Highlight-Recovery an, könnte Resolve (oder ein anderes Programm, dass Raw interpretiert) versuchen, das visuelle Muster des Cyan- Gemäldes (d.h. in den Blau- und Grün-Sensorpixel) auf die weisse Leinwand auszuschmieren; oder es könnte annehmen, dass in der Cyan-Farbe der Rotkanal geclippt ist, den Rotkanal entsprechend "rekonstruieren" und dadurch das Gemälde grau machen. (Letzteres ist wahrscheinlicher und passiert auch häufig bei aktivierter Highlight Recovery. Kannst Du gut testen, wenn Du nachts Leuchtreklamen aufnimmst und die bei der Aufnahme eine BlendeBlende im Glossar erklärt clippen lässt.)

Man kann ja auch nix gross da was einstellen nur ein Häckchen setzen, oder sehe ich da was falsch ? Also was soll der Hype ?
S.o.

Was mich auch schon wirklich überrascht, ist das man bei BRaw nix an der Schärfe herumdrehen kann, komischerweise im Kameramenü aber doch schon..
Warum nicht in Resolve ?

Weil Braw nur halbes oder Pseudo-Raw ist und zumindest einen Teil des Debayerings bereits in der Kamera erledigt.

Das wäre doch eigentlich noch ziemlich wichtig für den finalen Look eines Films, denke ich.

Du kannst nach wie vor normale Nachschärf-Filter in Resolve & Co. anwenden, nur dass die dann eben nicht als Debayering-Parameter verwendet werden, sondern wie bei konventionellem Videomaterial aufs debayerte Bild angewendet.



Antwort von cantsin:


Und ich dachte, dass zuerst alle PixelPixel im Glossar erklärt gelesen werden, dann aber Kameraintern herunter skaliert wird und als File gespeichert. :/

Das geht ja gar nicht, weil Du dann kein Bayer-Pattern mehr erhältst.



Antwort von dienstag_01:


Und ich dachte, dass zuerst alle PixelPixel im Glossar erklärt gelesen werden, dann aber Kameraintern herunter skaliert wird und als File gespeichert. :/

(Line-) Skipping gibt es, wie oben schon mal gesagt, auch bei anderen Formaten. Skipping heißt weglassen. Ein anderes Verfahren des Skalierens von Sensor- auf Ausgabeformat wäre eine Interpolation (wie bei a7 Cams von Sony), das Verrechnen mehrerer Pixel. Kostet Rechenleistung und Zeit.



Antwort von Cinealta 81:


Wie kommt man von z.b. 6K (Sensor) auf 4k (Video)? Durch Skipping

Falsch! RAW / DNG können auch vollkommen anders skaliert werden - unter Erhaltung ALLER Eigenschaften (außer Auflösung natürlich, denn es wird hoch- oder herunterskaliert). Testen Sie das selbst in 2 Minuten:

Importieren Sie hierzu ein RAW-Bild (oder echtes DNG) in Adobe Bridge. Unter Windows darauf Rechtsklick --> In Camera RAW öffnen --> RAW-Image öffnet sich im entsprechenden (ACR) Fenster

Dort klicken Sie in der oberen Menüleiste auf das Transformieren-Werkzeug --> Daraufhin erscheint zu Ihrer Rechten eine Liste von Reglern, darunter der Unterpunkt "Skalieren" - steht standardmäßig auf 100.

Tippen Sie den Wert 80, oder 60, oder XYZ ein und klicken dann unten links auf "Speichern". Im daraufhin folgenden Menü ist bereits DNG voreingestellt (falls etwas anderes, bitte DNG verlustfrei / höchste Qualität wählen). Speichern Sie das Bild als DNG.

Nehmen Sie nun Ihr Original-RAW und vergleichen dann bitte mit dem (in diesem Beispiel) herunterskalierten DNG. Egal was Sie tun, Sie werden keinen Unterschied (außer Größe) feststellen. Die herunterskalierte DNG hat zu 100% die gleichen Eigenschaften, die das Original-RAW kennzeichnen. Und zwar ALLE. Ausnahmslos.



Antwort von cantsin:


Die herunterskalierte DNG hat zu 100% die gleichen Eigenschaften, die das Original-RAW kennzeichnen. Und zwar ALLE. Ausnahmslos.

Sicher?!? AFAIK werden dann nur TIFF-Daten in einen DNG-Container geschrieben und geht das undebayerte Bild verloren.

Also das gleiche, als wenn man DNG debayert, bearbeitet und als 16bit-Still oder -Video speichert.



Antwort von dienstag_01:



Wie kommt man von z.b. 6K (Sensor) auf 4k (Video)? Durch Skipping

Falsch! RAW / DNG können auch vollkommen anders skaliert werden - unter Erhaltung ALLER Eigenschaften (außer Auflösung natürlich, denn es wird hoch- oder herunterskaliert). Testen Sie das selbst in 2 Minuten:

Importieren Sie hierzu ein RAW-Bild (oder echtes DNG) in Adobe Bridge. Unter Windows darauf Rechtsklick --> In Camera RAW öffnen --> RAW-Image öffnet sich im entsprechenden (ACR) Fenster

Dort klicken Sie in der oberen Menüleiste auf das Transformieren-Werkzeug --> Daraufhin erscheint zu Ihrer Rechten eine Liste von Reglern, darunter der Unterpunkt "Skalieren" - steht standardmäßig auf 100.

Tippen Sie den Wert 80, oder 60, oder XYZ ein und klicken dann unten links auf "Speichern". Im daraufhin folgenden Menü ist bereits DNG voreingestellt (falls etwas anderes, bitte DNG verlustfrei / höchste Qualität wählen). Speichern Sie das Bild als DNG.

Nehmen Sie nun Ihr Original-RAW und vergleichen dann bitte mit dem (in diesem Beispiel) herunterskalierten DNG. Egal was Sie tun, Sie werden keinen Unterschied (außer Größe) feststellen. Die herunterskalierte DNG hat zu 100% die gleichen Eigenschaften, die das Original-RAW kennzeichnen. Und zwar ALLE. Ausnahmslos.

Wenn du richtig gelesen und richtig zitiert hättest, wären dir vielleicht die beiden Worte *unter anderem* aufgefallen. Aber egal.

Ansonsten empfehle ich dir mal, dein neu erzeugtes (skaliertes) DNG nochmal zu öffnen (ACR). Wenn der Skalieren-Regler auf dem vorher eingestellten Wert steht, wird das wohl etwas zu bedeuten haben ;)



Antwort von Cinealta 81:

@Cantsin

Testen Sie es einfach:

Laden Sie das RAW-Image und speichern Sie es - ohne Veränderung - als DNG. Es erfolgt eine (teils erhebliche) Reduzierung der Dateigröße, was auch teilweise Sinn von DNG ist. Ansonsten bleiben alle Eigenschaften gleich (mit RAW). Machen einige Fotografen im Batch-Verfahren um Speicherplatz zu sparen.

Dann laden Sie das gleiche RAW-Image wieder, skalieren das wie oben beschrieben herunter und speichern es wiederum als DNG: Ist erheblich kleiner als die Original-DNG.

Würde es sich um ein "Fake-DNG" (TIFF in DNG-Container) handeln, wäre die Datei größentechnisch erheblich aufgepumpt.

Auf dieser Art machen wir mit der RX10 IV 4k RAW-Videos (5s): 24fps RAW-Sequenz, dann herunterskalieren. Easy edit mit Lightroom. ;-)



Antwort von dienstag_01:


@Cantsin

Testen Sie es einfach:

Laden Sie das RAW-Image und speichern Sie es - ohne Veränderung - als DNG. Es erfolgt eine (teils erhebliche) Reduzierung der Dateigröße, was auch teilweise Sinn von DNG ist. Ansonsten bleiben alle Eigenschaften gleich (mit RAW). Machen einige Fotografen im Batch-Verfahren um Speicherplatz zu sparen.

Dann laden Sie das gleiche RAW-Image wieder, skalieren das wie oben beschrieben herunter und speichern es wiederum als DNG: Ist erheblich kleiner als die Original-DNG.

Würde es sich um ein "Fake-DNG" (TIFF in DNG-Container) handeln, wäre die Datei größentechnisch erheblich aufgepumpt.

Auf dieser Art machen wir mit der RX10 IV 4k RAW-Videos (5s): 24fps RAW-Sequenz, dann herunterskalieren. Easy edit mit Lightroom. ;-)

Ich behaupte mal, dass das totaler Quatsch ist, denn der Sinn von DNG ist ja gerade, dass originale RAW zu bewahren und in einen kompatiblen Container abzulegen.
Dass DNG weniger Daten abspeichert als das Original ist erklärbar. Die Skalierung allerdings wird nur als zusätzliche Information gespeichert, da wird nicht skaliert/interpoliert/transformiert.



Antwort von Cinealta 81:


Ich behaupte mal,

...ist nicht unbedingt ein Ansatz, der auf Fakten basiert. Einfach mal ausprobieren, die skalierten DNG auf Größe, Qualität, etc. aufmerksam untersuchen und mit der Original-DNG vergleichen. DANACH werden Sie etwas anderes behaupten. In der Zeit, in der der Sie hier schreiben, hätten Sie eine ganze Menge an diesbezüglichen Erkenntnissen erlangen können. ;-)



Antwort von dienstag_01:

Ich finde es albern, aber gut. Kostet halt wieder unnötig Zeit.



Antwort von Jott:

Was soll denn das Getue mit ProResProRes im Glossar erklärt Raw? Was Nikon und Sigma da treiben (Pixel weglassen oder was auch immer) hat ja nichts mit dem CodecCodec im Glossar erklärt zu tun. Das könnte man mal verinnerlichen.

Was treibt DJI? Hat das auch mal jemand so akribisch erforscht?



Antwort von Darth Schneider:

An SlashCAM
Diesen tollen Star Wars Font, da oben, im RAW WARS Logo von wem habt ihr den ?
Kann man den kaufen, oder habt ihr das selber gemacht ?
Gruss Boris



Antwort von roki100:


An SlashCAM
Diesen tollen Star Wars Font, da oben, im RAW WARS Logo von wem habt ihr den ?
Kann man den kaufen, oder habt ihr das selber gemacht ?
Gruss Boris

https://www.dafont.com/de/star-jedi.font



Antwort von Darth Schneider:

Das war aber schnell, ich verneige mich, Sir Fairchild..;)



Antwort von Cinealta 81:


Was soll denn das Getue mit ProResProRes im Glossar erklärt Raw? Was Nikon und Sigma da treiben (Pixel weglassen oder was auch immer) hat ja nichts mit dem CodecCodec im Glossar erklärt zu tun. Das könnte man mal verinnerlichen.

So ist es. Es geht hier um die "eigenwillige" Verarbeitung beim Processing. Ich persönlich spreche über die Z6. Da macht Nikon ziemlich Verrenkungen, anstatt X,Yk direkt auszugeben. Ohne Turnübungen. Die Ursache dafür? Technische Einschränkungen aufgrund von Hardware, Firmenpolitik, Angst vor Patentklagen, Dämlichkeit, etc. Keiner weiß es. Ist auch müßig, darüber zu spekulieren.



Antwort von pillepalle:

Habe gerade ein etwas längeres Telefonat mit einer sehr freundlichen Mitarbeiterin von Nikon gehabt, die mich aufgrund der E-Mail die ich vor ein paar Tagen geschrieben hatte (eigentlich wegen des Flickens), zurückgerufen hat. Neben der Flicker-Thematik, an der bei Nikon bereits gearbeitet wird und das voraussichtlich in einem der nächsten Firmware-Updates behoben wird, haben wir auch über ein paar andere Themen gesprochen. Unter anderem auch über ProResProRes im Glossar erklärt RAW. Dazu erklärte sie mir, das Nikon nur den reinen DatenstromDatenstrom im Glossar erklärt liefert und die Daten erst im Atoms Recorder verarbeitet und ins ProResProRes im Glossar erklärt RAW FormatFormat im Glossar erklärt umgewandelt werden. Daher habe Nikon auch wenig Einfluß auf die Qualität der Verarbeitung und damit der Bilder. Ich weiß allerdings nicht genau, ob sie meine Frage verstanden hatte, warum nicht 6K Rohdaten ausgegeben/verarbeitet werden (war unschwer zu hören eine Asiatin). Jedenfalls war ihr auch klar das bisher ein vernünftiger RAW-Workflow fehlt, genauso wie eine Auswahl an kompatibeler Software. Nikon hat eben noch wenig Erfahrung mit dem FormatFormat im Glossar erklärt, wie im Filmbereich ganz allgemein, und es dauert eben eine Weile Erfahrung zu sammeln und Dinge zu verbessern, wenn man das Know-How nicht irgendwo einkaufen möchte. Sind ja bisher auch noch wenig Vögel die damit ernsthaft filmen und die das interessiert. Bin jedenfalls positiv überrascht und habe den Eindruck das sie wirklich auf das hören was sie von ihren Fotografen und Kameraleuten herangetragen wird. Der Service für Profis war bei denen jedenfalls immer 1+

VG



Antwort von rudi:


An SlashCAM
Diesen tollen Star Wars Font, da oben, im RAW WARS Logo von wem habt ihr den ?
Kann man den kaufen, oder habt ihr das selber gemacht ?
Gruss Boris

Tatsächlich habe ich das ganze als Logo in Affinity nachgebaut. War nicht schwer und ging schnell, weil ja alle Buchstaben im Original vorkommen ;)



Antwort von CameraRick:



An SlashCAM
Diesen tollen Star Wars Font, da oben, im RAW WARS Logo von wem habt ihr den ?
Kann man den kaufen, oder habt ihr das selber gemacht ?
Gruss Boris

Tatsächlich habe ich das ganze als Logo in Affinity nachgebaut. War nicht schwer und ging schnell, weil ja alle Buchstaben im Original vorkommen ;)

Die freie Star Jedi Typo bietet allerdings auch sehr einfach den Look, dazu sehr Umfangreich mit der "Erweiterung" und Verbindung von Buchstaben in den Sonderzeichen: https://www.dafont.com/de/star-jedi.font
Also nur falls jemand das brauchen kann.



Antwort von rudi:

P.S. ich wollte den Artikel jetzt nochmal um eine zweite Tabelle mit Resolve-Parametern erweitern und da gibt es tatsächlich immer mehr Unterschiede im Detail zu entdecken.
In Scratch kann ich z.B. bei ARRI z.B. die Decoding Settings sehr detailliert einstellen (FAst, ADA-1 bis ADA-5 in HW und SW). In Resolve bekomme ich hier keine Optionen, dafür kann ich in verringerter Auflösung rausgehen. Das bietet Resolve aber für fast jedes RAW FormatFormat im Glossar erklärt an.

Cinema DNG ist in Resolve deutlich besser unterstützt, aber wohl auch schon deshalb, weil Resolve für fast jedes RAW FormatFormat im Glossar erklärt einen Standard-Satz an Korrekturen anbietet: (Shadows, Color Boost, Saturation, Midtone Detail, Lift, Gain Contrast). Daher würde ich vermuten, dass die sowieso nach dem Debayering berechnet werden.

Dafür gibts kein Kinefinity RAW und ProRES RAW zum Vergleich.
Daher ist es vielleicht besser das ganze noch mal komplett separat für Resolve zu betrachten.



Antwort von srone:



@roki 100

dass das hinterher funktioniert ist klar, genug dr vorausgesetzt, da kann ich dann auch pro res pur nehmen.
der punkt von raw ist doch, alle clips in einen einheitlichen stil zu "entwickeln", sozusagen die technische farbkorrektur in den raw tab zu verlegen, um sie während des dabayerns auszuführen, hinterher hast du ein signal, wie es jeder andere video-codec auch vermag.

lg

srone

Das ‘demosaicing’ findet vor den Farbanpassungen statt. In Resolve etwa macht es qualitativ keinen Unterschied, ob du die technische Bildkorrektur im raw tab oder in den Primaries machst. Einmal nutzt du eben die Algorithmen des Herstellers (SDK) und einmal die von Resolve. Einzig Späßchen wie highlight recovery funktionieren nur mit den echten Sensorwerten. Und bei Kackprogrammen wie Premiere bist du natürlich besser bedient, wenn du möglichst viel in der SDK des Herstellers anpasst.

hast du da eine verlässliche quelle dafür?

weil imho, ist doch gerade die gewichtung der farben während des debayerns der punkt, der den weissabgleich obsolet macht.

lg

srone



Antwort von rudi:

Ach und noch eine Bitte:
Kann mir irgendwer zeigen, wo ich unter Resolve oder Scratch die Highlight Recovery von RED RAW aktiviere. Auch wenn ich die IPP2 nutze, sehe ich nirgendwo einen entsprechenden Punkt, aber vielleicht fehlinterpretiere ich da eine Abkürzung. Oder kann es sein, dass das nur in RED Cine X geht?



Antwort von iasi:


Wir lassen iasi als Beta-Tester erstmal die Komodo kaufen *g*

VG

Und in wiefern wird sich dann an R3D etwas ändern?

Etwa weil"s dann geglobelshuttert wird? ;)



Antwort von pillepalle:

@ iasi

Nein, ich bin mit der Z6 doch glücklich und das brauche das alles nicht ;) Einfach nur um zu testen ob die Kamera wirklich gut ist, denn die Mängel/Schwächen zeigen sich ja meist erst im Einsatz. In Internetforen geht's ja oft nur um das übliche Technische Daten Quartett mit wenig Praxisbezug.

VG



Antwort von iasi:


Highlight Recovery ist ein eher experimentelles und spekulatives Notnagel-Feature, bei dem physisch (d.h. auch in Raw oder Log) ausgebrannte Spitzlichter aus Restinformationen einzelner Farbkanäle rekonstruiert werden. Wenn Du z.B. in Kunstlicht mit seinem hohen Rotanteil drehst und die Spitzlichter brennen aus, dürfte vor allem der Rotkanal überbelichtet sein, bzw. die roten Sensorpixel im Rot-Blau-Grün-Grün-Sensorpattern auf dem Maximalwert stehen. Sind die Blau- und/oder Grün-Pixel nicht ausgebrannt, sondern erzeugen ein visuelles Muster, kann die Raw-Highlight-Recovery dieses Muster auf die Rot-Pixel interpolieren und so die verlorene Bildinformation rekonstruieren.

Das ist zwangsläufig spekulativ: Stell Dir vor, Du drehst im Bühnenlicht, und auf der Bühne steht eine cyanblau bemalte weisse Leinwand (z.B. ein Aktbild von Yves Klein), die durch ein Spotlicht angestrahlt wird. Wegen der Tungsten-Beleuchtung clippt die Leinwand in den Rot-Sensorpixeln der Kamera. Klickst Du jetzt Highlight-Recovery an, könnte Resolve (oder ein anderes Programm, dass Raw interpretiert) versuchen, das visuelle Muster des Cyan- Gemäldes (d.h. in den Blau- und Grün-Sensorpixel) auf die weisse Leinwand auszuschmieren; oder es könnte annehmen, dass in der Cyan-Farbe der Rotkanal geclippt ist, den Rotkanal entsprechend "rekonstruieren" und dadurch das Gemälde grau machen. (Letzteres ist wahrscheinlicher und passiert auch häufig bei aktivierter Highlight Recovery. Kannst Du gut testen, wenn Du nachts Leuchtreklamen aufnimmst und die bei der Aufnahme eine BlendeBlende im Glossar erklärt clippen lässt.)

Ich kann mich an ein Youtube-Resolve-Tutorial erinnern, bei dem vor Jahren (vor dem Highlight-Recovery-Button) gezeigt wurde, wie aus R3D-Material noch Zeichnung in den Lichtern herausgekitzelt wurde. Letztlich verliert man natürlich die Farbinformationen, aber Helligkeitsabstufungen gewinnt man immerhin zurück.
Dein Beispiel ist gut und macht schön deutlich, wo die Grenzen bei diesem "Rettungsversuch" liegen.

Eigentlich sollte man bei extremen Lichtverhältnissen auch bei Digi-Cams noch Farbkorrekturfilter benutzen, um das Clippen in einem Kanal und das Rauschen im anderen zu vermeiden.



Antwort von iasi:


@ iasi

Nein, ich bin mit der Z6 doch glücklich und das brauche das alles nicht ;) Einfach nur um zu testen ob die Kamera wirklich gut ist, denn die Mängel/Schwächen zeigen sich ja meist erst im Einsatz. In Internetforen geht's ja oft nur um das übliche Technische Daten Quartett mit wenig Praxisbezug.

VG

Bevor eine Kamera in dem Einsatz kommt, sollte man die Mängel/Schwächen und eben Möglichkeiten und Grenzen aber eben zuvor erstmal feststellen. Das meine ich mit Einarbeitung.
Dazu sollte man aber die Aufnahmen auch mal auf ihren Spielraum in der Post testen.
So etwas braucht viel mehr Zeit, als viele investieren, bevor sie Test bei Youtube posten. :)

Ich behaupte mal:
Jemand der sich in eine Z6 intensiv eingearbeitet hat, holt mehr und besseres aus der Kamera heraus, als jemand, der sich mal kurz eine Alexa holt und drauflosfilmt.

Der Raw-Vergleich zeigt doch, wie aufwändig es schon allein ist, das geeigneste und beste Gradingtool für ein Raw-Format zu finden.



Antwort von nic:



Das ‘demosaicing’ findet vor den Farbanpassungen statt. In Resolve etwa macht es qualitativ keinen Unterschied, ob du die technische Bildkorrektur im raw tab oder in den Primaries machst. Einmal nutzt du eben die Algorithmen des Herstellers (SDK) und einmal die von Resolve. Einzig Späßchen wie highlight recovery funktionieren nur mit den echten Sensorwerten. Und bei Kackprogrammen wie Premiere bist du natürlich besser bedient, wenn du möglichst viel in der SDK des Herstellers anpasst.

hast du da eine verlässliche quelle dafür?

weil imho, ist doch gerade die gewichtung der farben während des debayerns der punkt, der den weissabgleich obsolet macht.

lg

srone

Das Demosaicing erzeugt ein RGB-Bild im Sensorfarbraum, dort werden die Korrekturfunktionen (ISO, WB, ...) vorgenommen. Dann wird das fertige Bild in 16bit aus dem SDK an das Hostprogramm übergeben. So funktioniert es zumindest bei Red.



Antwort von nic:


Ach und noch eine Bitte:
Kann mir irgendwer zeigen, wo ich unter Resolve oder Scratch die Highlight Recovery von RED RAW aktiviere. Auch wenn ich die IPP2 nutze, sehe ich nirgendwo einen entsprechenden Punkt, aber vielleicht fehlinterpretiere ich da eine Abkürzung. Oder kann es sein, dass das nur in RED Cine X geht?

Gar nicht. Highlight extension wird je nach WB-Einstellung automatisch aktiviert und ist ein fester Bestandteil von IPP2.



Antwort von srone:

@nic, danke für deine antwort.

verstehe, wenn ich einen 12 oder 14bit sensor in 16bit auflöse bleibt da spielraum.

lg

srone



Antwort von roki100:

Wenn ich bei Google nach "Highlight Extension RED" suche, kommt Hair Extension etc. Gefunden habe ich aber das hier:

https://vimeo.com/217270940



Antwort von Banolo:

Hier mal ein Beispiel

BMPCC6K 12:1 RAW

Highlight Recovery (zu sehen an dem Vorhang)



Antwort von iasi:

Wenn man das HistogrammHistogramm im Glossar erklärt betrachtet, nachdem man die Highlights etwas heruntergezogen hat und dann H.Recovery aktiviert, sieht man, wie oberhalb der horizontalen Linien, wieder Ausschläge entstehen. Das ist nett anzusehen.

Bei reduser bin ich nach kurzer Suche darauf gestoßen:
http://www.reduser.net/forum/showthread ... e-amp-FCPX

Highlight Recovery ist nicht das einzige Wundermittel.



Antwort von Darth Schneider:

Klar gibt es das, ganz einfach im ganzen FrameFrame im Glossar erklärt genug leuchten, oder wenn das nicht geht, Kameraposition ändern, Dann gibt es nix zum recovern..;)
Gruss Boris



Antwort von roki100:


Highlight Recovery ist nicht das einzige Wundermittel.

Wenn ich das im RED Forum richtig verstanden habe, dann wäre ein anderes Wundermittel z.B. mit niedrigere ISO Wert aufnehmen und nachträglich einfach Schattenregler hochziehen? Oder was hat er hier anders gemacht?



Antwort von nic:



Highlight Recovery ist nicht das einzige Wundermittel.

Wenn ich das im RED Forum richtig verstanden habe, dann wäre ein anderes Wundermittel z.B. mit niedrigere ISO Wert aufnehmen und nachträglich einfach Schattenregler hochziehen? Oder was hat er hier anders gemacht?

Die ISO-Einstellung bei der Aufnahme ändert bei ISO-invarianten Rawformaten (redraw) nichts am Rohmaterial.



Antwort von roki100:



Wenn ich das im RED Forum richtig verstanden habe, dann wäre ein anderes Wundermittel z.B. mit niedrigere ISO Wert aufnehmen und nachträglich einfach Schattenregler hochziehen? Oder was hat er hier anders gemacht?

Die ISO-Einstellung bei der Aufnahme ändert bei ISO-invarianten Rawformaten (redraw) nichts am Rohmaterial.

das weiß ich. Nur was hat er da anders gemacht als beim dreh darauf geachtet das das Tageslicht (im Hintergrund) nicht überbelichtet wird und Nachhinein hat er dann einfach Schattenregler hochgedreht?
Ich dachte redraw sei auch mit Highlight Recovery (Highlight Extension?) geschmückt?



Antwort von Darth Schneider:

Gibt es denn völlig iso inrevelante Raw Formate ? Wohl eher nicht, oder ?
Bei BRaw hat man viel Spielraum aber unendlich geht das auch nicht. Es ist auch abhängig vom in Kamera gewählten nativen Wert, näher bei 400, oder näher bei 3200, oder sehe ich da etwas verkehrt ?
Ändern am Rohmaterial tut es nicht, aber das Raw ist nicht iso inrevelant.



Antwort von roki100:


Gibt es denn völlig iso inrevelante Raw Formate ? Wohl eher nicht, oder ?

Ja, laut WarRaws Tabelle: ProResProRes im Glossar erklärt RAW...



Antwort von Darth Schneider:

Das wird auch seine physikalischen Grenzen haben, zu wenig Licht rauscht irgendwann doch immer...egal mit welchem FormatFormat im Glossar erklärt, oder mit welcher Kamera.



Antwort von nic:

Ich glaube ihr versteht das Konzept nicht ganz. Der Sensor sammelt natürlich immer die identischen Informationen, egal welche Verstärkungseinstellung man am Ende auf das Material anwendet. Es findet keine Verstärkung auf dem analogen Signalweg statt. Erst digital in der Entwicklung in der Postproduktion. D.h., du hast, wie beim Helium Sensor etwa sechs Blenden über 400 ISO und sechs Blenden darunter, die du nutzbar aufzeichnest. Nur wie du dieses Bild am Ende anzeigst, ist deine Entscheidung, ob jetzt auf 400 ISO, 800 iso oder 150 iso. Mit 3200 ISO wird das Bild natürlich rauschen und bei 100 ISO hast du kaum Spielraum in den Lichtern. Es ist deine Entscheidung, wie du damit umgehst.



Antwort von iasi:

Daher auch ETTR anhand des Historgram.
Je nach Kamera, dann eben noch die Lichter schützen.

Wenn man bei der Belichtung bei 180° bleiben will und die BlendeBlende im Glossar erklärt zur Bildgestaltung und/oder Bildoptimierung einsetzen will, bleibt nur noch der ND-FilterND-Filter im Glossar erklärt oder die Ausleuchtung zur Belichtungssteuerung.

Aber immerhin:
Dual ISO bringt dann doch noch eine weitere - wenn auch nur zweistufige - Möglichkeit mit ins Spiel.
Das ist dann wie das Einlegen von hochempfindlichem Negativ.



Antwort von Darth Schneider:

Was ich nie wirklich verstanden habe, die Logik hinter BMDs dual Iso.
Die Verstärkung findet einerseits in der Raw/ProRes Kamera statt, andererseits sind es dann aber doch nur Metadaten die in der Post mit Begrenzung geändert werden können.
Dann sollte das Bild dann aber logischerweise doch gar nicht rauschen, bei einem anderen nicht nativen Iso Wert, und die DR sollte eigentlich ganz unverändert bleiben wenn das wirklich nur Metadaten sind, ansonsten sind das doch gar keine...??



Antwort von dienstag_01:


Was ich nie wirklich verstanden habe, die Logik hinter BMDs dual Iso.
Die Verstärkung findet einerseits in der Raw/ProRes Kamera statt, andererseits sind es dann aber doch nur Metadaten die in der Post mit Begrenzung geändert werden können.
Dann sollte das Bild dann aber logischerweise doch gar nicht rauschen, bei einem anderen nicht nativen Iso Wert, und die DR sollte eigentlich ganz unverändert bleiben wenn das wirklich nur Metadaten sind, ansonsten sind das doch gar keine...??

Bei einer Cam mit iso-invariantem Sensor spielt ISO auch keine Rolle. Für RAW.
Ob die BMD Cams iso-invariant sind, wissen andere.



Antwort von Darth Schneider:

Also meine BMD ist das nicht...Iso ist doch ab irgend einem Punkt immer eine künstliche Verstärkung, egal ob Raw oder was auch immer. Also für mich tönt, Iso irrelevanter Sensor, immer noch nach einem Widerspruch in sich selbst...So ähnlich wie rokis Marketingpixel.



Antwort von dienstag_01:


Also meine BM nicht...Iso ist doch ab irgend einem Punkt immer eine künstliche Verstärkung, egal ob Raw oder was auch immer. Also für mich tönt, Iso irrelevanter Sensor, immer noch nach einem Widerspruch in sich selbst...So ähnlich wie rokis Marketingpixel.

Das wundert mich bei dir ehrlich gesagt nicht.



Antwort von Frank Glencairn:


Was ich nie wirklich verstanden habe, die Logik hinter BMDs dual Iso.
Die Verstärkung findet einerseits in der Raw/ProRes Kamera statt, andererseits sind es dann aber doch nur Metadaten die in der Post mit Begrenzung geändert werden können.
Dann sollte das Bild dann aber logischerweise doch gar nicht rauschen, bei einem anderen nicht nativen Iso Wert, und die DR sollte eigentlich ganz unverändert bleiben wenn das wirklich nur Metadaten sind, ansonsten sind das doch gar keine...??

Der Sensor hat hardwareseitig zwei "Register" oder Modi in denen er laufen kann, einen mit niedriger ISO und einer mit hoher.
Diese zwei Empfindlichkeiten sind keine Metadaten, sondern einfach zwei Betriebszustände zwischen denen man hin und her schalten kann.

Alle ISO Zwischenstufen sind nur Metadaten, wenn man raw aufzeichnet, bei ProResProRes im Glossar erklärt wird alles fest eingebacken.



Antwort von Darth Schneider:

An Frank:
Danke, vieles von dem ist mir schon klar, nur den Begriff mit diesem "Super Iso Sensor" verstehe ich nicht...

An dienstag:
Willst du mir sagen das wenn ich mit meiner Pocket mit Iso 10 000 filme, dann rauscht es nicht ? Das wäre doch dann dann nach meiner Logik so ein Iso irrelevanter Super Sensor...eigentlich eine kleine Sonne, in der Kamera.

Wenn ich mit der Pocket nicht genug ausleuchte, im Innenraum dann rauscht das aber blöderweise schon viel tiefer...
Kannst du mir das erklären ? Mr. Das wundert mich nicht...
Dual Iso ist sicher super, aber am besten filmt man doch bei meiner Kiste mit Iso 400 oder mit 3200 um sicher zu sein das möglichst wenig rauscht, oder ?
Also ist Dual Iso ganz bestimmt auch kein Wundermittel.



Antwort von dienstag_01:



Was ich nie wirklich verstanden habe, die Logik hinter BMDs dual Iso.
Die Verstärkung findet einerseits in der Raw/ProRes Kamera statt, andererseits sind es dann aber doch nur Metadaten die in der Post mit Begrenzung geändert werden können.
Dann sollte das Bild dann aber logischerweise doch gar nicht rauschen, bei einem anderen nicht nativen Iso Wert, und die DR sollte eigentlich ganz unverändert bleiben wenn das wirklich nur Metadaten sind, ansonsten sind das doch gar keine...??

Der Sensor hat hardwareseitig zwei "Register" oder Modi in denen er laufen kann, einen mit niedriger ISO und einer mit hoher.
Diese zwei Empfindlichkeiten sind keine Metadaten, sondern einfach zwei Betriebszustände zwischen denen man hin und her schalten kann.

Alle ISO Zwischenstufen sind nur Metadaten, wenn man raw aufzeichnet, bei ProResProRes im Glossar erklärt wird alles fest eingebacken.

Das ist dann - oder soll ich schreiben wäre dann - nichts anderes als ein ISO-varianter Sensor mit zwei festen Verstärkungen.



Antwort von pillepalle:

Iso invariant (auch zwischen zwei Verstärkerstufen bei Dual ISO Sensoren) würde bedeuten, dass es praktisch egal wäre, ob ich eine Szene mit ISO 400 oder ISO 1600 Aufnehme und das Ergebnis wäre am Ende das gleiche (z.B bezüglich des Rauschens, oder der Dynamik). Im Prinzip könnte ich dann auch in der Base ISO filmen und anschließend die Schatten hochziehen und es würde nicht mehr rauschen. Oder mit höheren ISO arbeiten ohne weniger Dynamik zu haben (wiederspricht ein wenig dem viel propagiertem ETTR). Wie gut das in der Praxis funktioniert ist eine andere Sache.

VG



Antwort von dienstag_01:

(wiederspricht ein wenig dem viel propagiertem ETTR)
Absolut nicht. Das widerspricht nur ETTR mit ISO. Aber manche wissen ja, wo die BlendeBlende im Glossar erklärt ist oder haben einen Filter dabei ;)



Antwort von pillepalle:


(wiederspricht ein wenig dem viel propagiertem ETTR)
Absolut nicht. Das widerspricht nur ETTR mit ISO. Aber manche wissen ja, wo die BlendeBlende im Glossar erklärt ist oder haben einen Filter dabei ;)

Aber das würde ja bedeuten das man eben doch immer mit der niedrigsten ISO filmen sollte (innerhalb des jeweiligen ISO Bereichs). Denn wenn ich wirklich ETTR belichten möchte geht das nur wenn die ISO ganz unten stehen. Sobald ich die ISO hochdrehe mache ich die BlendeBlende im Glossar erklärt ja wieder zu und bringe faktisch weniger Licht auf den Sensor. Der Dreh am ISO Button wäre dann ja nur eine 'Metadaten Änderung' und keine echte Belichtungsänderung, die sich aber trotzdem auf die Anzeige der Waveforms auswirkt.

VG



Antwort von dienstag_01:



Absolut nicht. Das widerspricht nur ETTR mit ISO. Aber manche wissen ja, wo die BlendeBlende im Glossar erklärt ist oder haben einen Filter dabei ;)

Aber das würde ja bedeuten das man eben doch immer mit der niedrigsten ISO filmen sollte (innerhalb des jeweiligen ISO Bereichs). Denn wenn ich wirklich ETTR belichten möchte geht das nur wenn die ISO ganz unten stehen. Sobald ich die ISO hochdrehe mache ich die BlendeBlende im Glossar erklärt ja wieder zu und bringe faktisch weniger Licht auf den Sensor. Der Dreh am ISO Button wäre dann ja nur eine 'Metadaten Änderung' und keine echte Belichtungsänderung, die sich aber trotzdem auf die Anzeige der Waveforms auswirkt.

VG

Natürlich sollst du mit der niedrigsten ISO-Stufe filmen, sonst kannst du ETTR gar nicht einstellen. (bei ISO-Invarianten Sensoren)



Antwort von pillepalle:

@ dienstag_01

Aber dieser ISO Invarianz-Sensor wäre dann doch nur Marketing, wenn ich praktisch doch immer in der niedrigsten ISO-Einstellung filme :) Denn durch das Hochdrehen der ISO würde dann ja nur das Monitorbild heller und die Waveforms sich verändern ( z.B. dann auf dem Monitor clippen). Nur hätte es dann ja überhaupt keine Bedeutung wenn es tatsächlich nur eine Metadaten-Änderung wäre. Bei einer tatsächlichen Verstärkung würde ich dann ja auch tatsächlich clippen und die Informationen in den Highlights wären weg.

VG



Antwort von dienstag_01:


@ dienstag_01

Aber dieser ISO Invarianz-Sensor wäre dann doch nur Marketing, wenn ich praktisch doch immer in der niedrigsten ISO-Einstellung filme :) Denn durch das Hochdrehen der ISO würde dann ja nur das Monitorbild heller und die Waveforms sich verändern ( z.B. dann auf dem Monitor clippen). Nur hätte es dann ja überhaupt keine Bedeutung wenn es tatsächlich nur eine Metadaten-Änderung wäre. Bei einer tatsächlichen Verstärkung würde ich dann ja auch tatsächlich clippen und die Informationen in den Highlights wären weg.

VG

Naja, wenn das Hochdrehen von ISO nur Einfluss auf das Monitorbild, nicht aber auf das aufgezeichnete Signal hat (um das es ja geht), dann ist das im klassischen Sinne invariant - von ISO nicht beeinflusst. Verständlicher wird's nie ;)



Antwort von cantsin:

Es ist wirklich erstaunlich, welche magischen Erwartungen einige hier mit RAW verbinden.

Im Gegenteil verhält es sich ja so, dass man bei RAW-Aufnahme im Optimalfall nur die native ISO des Sensors wählen sollte, bzw. eine der beiden nativen ISOs bei Dual-ISO-Sensoren.

Für RAW konzipierte Kameras wie die Blackmagics zeigen bei allen (auch den nicht-nativen) ISOs immer nur das native Sensor-Clipping in den Zebras an. Bei einer externen Recorder-Lösung würde ich mich darauf nicht verlassen, denn der Recorder kennt die nativen ISOs der Kamera nicht.



Antwort von cantsin:


Aber dieser ISO Invarianz-Sensor wäre dann doch nur Marketing, wenn ich praktisch doch immer in der niedrigsten ISO-Einstellung filme :)

Die Wahrheit ist, dass Du das bei allen Kameras tust. ISO ist nur Signal- (bzw. Gain-) Verstärkung; höhere (und auch niedrigere) ISOs als die native Sensor-ISO bedeuten eigentlich nur gephotoshoppte Bilder mit gepushter Belichtung.

Wieder mal ein Beispiel, dass wir uns bei Digitalbilder mit untauglichen Begriffen bzw. Metaphern aus der Analogfilmzeit herumschlagen (siehe den Parallelthread zur Graukarten-Belichtung). Wobei die "ISO"-Angaben der Kamerahersteller sowie fiktiv und untereinander nicht vergleichbar sind.



Antwort von pillepalle:

Ne eben, ich glaube das es tatsächlich doch ein wenig komplexer ist. Mir ging es dabei nur darum, das ISO-Invariant so gesehen relativ witzlos wäre, denn tatsächlich nutzt man dann ohnehin immer die Base ISO. Dann sehe ich vielleicht, ok ich belichte zwei Blenden unter, aber damit ich was auf dem Monitor erkenne, drehe ich mal am ISO Button.

Bei meiner Kamera ist der Sensor z.B nicht ISOless. Da macht es einen Unterschied welche ISO ich einstelle (auch da im Idealfall die niedrigste). Aber ab einem gewissen Punkt macht das unterbelichten keinen Sinn mehr (weil z.B. Details in den Schatten verloren gehen) also drehe ich die ISO hoch und verstärke damit das Signal. Dafür nehme ich eine geringere Dynamik und ein höheres Rauschen in Kauf, habe aber die Informationen da, wo ich sie haben möchte. Mit einem ISO-Invarianz Sensor hätte ich diese Verstärkungsmöglichkeit gar nicht und würde praktisch immer ohne zusätzliche Verstärkung drehen.

VG



Antwort von Paralkar:

Ich hab jetzt nicht wirklich durchgelesen was drin steht, bin grad drehen, die Grafik war aber auf den ersten Blick nicht ganz falsch

https://createinmotion.com/dual-native- ... hat-is-it/



Antwort von cantsin:


Bei meiner Kamera ist der Sensor z.B nicht ISOless. Da macht es einen Unterschied welche ISO ich einstelle (auch da im Idealfall die niedrigste). Aber ab einem gewissen Punkt macht das unterbelichten keinen Sinn mehr (weil z.B. Details in den Schatten verloren gehen) also drehe ich die ISO hoch und verstärke damit das Signal. Dafür nehme ich eine geringere Dynamik und ein höheres Rauschen in Kauf, habe aber die Informationen da, wo ich sie haben möchte. Mit einem ISO-Invarianz Sensor hätte ich diese Verstärkungsmöglichkeit gar nicht und würde praktisch immer ohne zusätzliche Verstärkung drehen.

Bei Deiner Kamera geschieht dann die Gain-Verstärkung nur an einem anderen Punkt (=früher) in der Signalverarbeitungs-Pipeline der Kamera, so dass die Gainverstärkung fest ins gespeicherte (Raw-) Bild eingebacken ist.

https://photographylife.com/iso-invaria ... lained/amp



Antwort von dienstag_01:


Ne eben, ich glaube das es tatsächlich doch ein wenig komplexer ist. Mir ging es dabei nur darum, das ISO-Invariant so gesehen relativ witzlos wäre, denn tatsächlich nutzt man dann ohnehin immer die Base ISO. Dann sehe ich vielleicht, ok ich belichte zwei Blenden unter, aber damit ich was auf dem Monitor erkenne, drehe ich mal am ISO Button.

Bei meiner Kamera ist der Sensor z.B nicht ISOless. Da macht es einen Unterschied welche ISO ich einstelle (auch da im Idealfall die niedrigste). Aber ab einem gewissen Punkt macht das unterbelichten keinen Sinn mehr (weil z.B. Details in den Schatten verloren gehen) also drehe ich die ISO hoch und verstärke damit das Signal. Dafür nehme ich eine geringere Dynamik und ein höheres Rauschen in Kauf, habe aber die Informationen da, wo ich sie haben möchte. Mit einem ISO-Invarianz Sensor hätte ich diese Verstärkungsmöglichkeit gar nicht und würde praktisch immer ohne zusätzliche Verstärkung drehen.

VG

Genau, man dreht immer ohne zusätzliche Verstärkung. Genau das ist der Sinn des Ganzen, das am wenigsten durch rauschen beeinflusste Signal aufzuzeichnen und in der Post nachzubearbeiten. Nur deshalb gibt es das ;)



Antwort von pillepalle:

@ Paralkar

So verstehe ich Dual-Native-Iso auch. Es gibt einfach zwei Verstärkerstufen, aber invariant sind die auch nicht.

@ catsin

Muss jetzt leider auch los, aber lese mir später mal den Artikel durch. Bei der Fotografie ging es im wesentlich immer um das Rauschen (die Dynamik war da weniger das Problem). Da ging es darum, dass ich die Schatten in einem Bild mit ISO 100 hochziehen kann und sie nicht mehr rauschen, als wenn ich das Bild direkt mit ISO 800 aufgenommen hätte. Auch da nur alles innerhalb gewisser Grenzen.

@ Dienstag

Dann hätte man aber eben die Option das Signal direkt zu verstärken verloren. Manchmal ist ein rauschendes Bild besser als gar kein Bild (weil hoffnungslos unterbelichtet).

VG



Antwort von dienstag_01:


@ Paralkar

So verstehe ich Dual-Native-Iso auch. Es gibt einfach zwei Verstärkerstufen, aber invariant sind die auch nicht.

@ catsin

Muss jetzt leider auch los, aber lese mir später mal den Artikel durch. Bei der Fotografie ging es im wesentlich immer um das Rauschen (die Dynamik war da weniger das Problem). Da ging es darum, dass ich die Schatten in einem Bild mit ISO 100 hochziehen kann und sie nicht mehr rauschen, als wenn ich das Bild direkt mit ISO 800 aufgenommen hätte. Auch da nur alles innerhalb gewisser Grenzen.

@ Dienstag

Dann hätte man aber eben die Option das Signal direkt zu verstärken verloren. Manchmal ist ein rauschendes Bild besser als gar kein Bild (weil hoffnungslos unterbelichtet).

VG

Ja, pillepalle, die Option, das Signal direkt in der Kamera zu verstärken, hast du verloren. Weil, verstärken kannst du natürlich auch in der Post, auch dein hoffnungslos unterbelichtetes Material. Mit dem Vorteil, dass die Verstärkung auf der Ebene des digitalen Signals stattfindet, digital heißt, Rauschen ist zu großen Teilen eliminiert. Bei deiner Kamera wird das analoge Signal verstärkt, mit dem Nachteil des stärkeren Eingehens von Rauschanteilen ins Ergebnis.
Die ISO-Invarianz betrifft ja auch andere Formate, die gleich in der Kamera festgeschrieben werden. Ergebnis, da greift natürlich ISO, auch hier auf dem digitalen Signalweg: weniger Rauschen (wenn wir jetzt mal alle anderen Variablen wie Sensorformate etc. weglassen und nur die Signalverarbeitung betrachten).
Das ist nun mal so.



Antwort von roki100:

Ich finde Dual Gain da viel interessanter. :) Arri.com: Zwei separate Auslesepfade von jedem Pixel mit unterschiedlicher Verstärkung....Beide Pfade werden in die A/D-Wandler der Kamera eingespeist und liefern ein 14-Bit-Bild für jeden Pfad (für geringe und verstärkte Signal).
Bei Fairchild: 11Bit für jeden Pfad.



Antwort von Paralkar:

Man sollte nicht zuviel zusammenwerfen, die Dual Gain Architektur der Alexa dient dazu n möglichst hohen Dynamic Range zu kriegen, die Alexa selbst rauscht bei weitem mehr als ne Venice, auch wenn es vergleichsweise harmonisch rüberkommt.

Egal ob Red, Sony oder Arri, der Iso ist ein Metadaten wert, im Falle eines NICHT Dual ISO Wertes hast du ein Base ISO, der bei Arri beispielsweise so gewählt wurde das man nach oben sowie unten 7 Blenden DR hat, der Base ISO ist sozusagen das Ideal für die Übertragungskurve, alles andere entspricht bei Raw dem Ändern des Belichtungsreglers in der Post. Bei Dual ISO ist es so das 2 verschiedene Verstärkungen und somit Base ISOs gibt.

Der Verlust bzw. die Verschiebung vom Dynamic Range bei einem anderen als dem Base ISO lässt sich für mich so erklären:

Nehmen wir ArriRaw mit Base ISO 800 als Beispiel, wenn ich entweder 400 ISO an der Cam oder in der Post einstelle, dann sorgt es dafür das die Helligkeit um die Hälfte sinkt, somit is das so oder so vorhandene Rauschen in dem ISO 800 Bild weniger sichbar/ wahrnehmbar, mach ich es andersrum nehme das ISO 800 Signal und verdoppel es, hab ich effektiv doppelt soviel Licht und nehme das Rauschen deutlich stärker war, das so oder so im Signal ist. Deshalb würde ich behaupten sagt man ne Alexa mit ISO 400 gibt mehr Dynamic Range in den Schatten und mit 1600 mehr Dynamic Range in den Höhen.

Das ganze ist dann bedingt durch ETTR auch nochmal beeinflusst, ein Sensor der möglichst viel Licht abbekommt, rauscht auch weniger

Dadurch erklärt sich auch das ganze mit den ISO Metadaten & der digitaler Signalverstärkung etc.



Antwort von iasi:



Der Sensor hat hardwareseitig zwei "Register" oder Modi in denen er laufen kann, einen mit niedriger ISO und einer mit hoher.
Diese zwei Empfindlichkeiten sind keine Metadaten, sondern einfach zwei Betriebszustände zwischen denen man hin und her schalten kann.

Alle ISO Zwischenstufen sind nur Metadaten, wenn man raw aufzeichnet, bei ProResProRes im Glossar erklärt wird alles fest eingebacken.

Genau.
Eigentlich wäre es gut, wenn man nur zwischen den beiden Registern hin- und herschalten könnte.
ISO ist bei RAW doch nur dazu gut, bei Unter- oder Überbelichtung auf dem Kameramonitor ein angepasstes Bild sehen zu können - mal drastisch formuliert.

Beispiel Red Gemini:
Bei nativen 800 ISO würde ich mit einer 6400 ISO-Belichtung um 3 Blenden unterbelichten. Bei nativen 3200 ISO wär"s nur 1 Blende.
Die höhere ISO-Stufe bekommt man natürlich nicht verlustfrei geschenkt, aber die Dual-Base-Lösung ist bei weitem besser, als in der Post um 2 Blendenstufen hochziehen zu müssen.

Aber schon erstaunlich, dass man mittlerweile bis zu 5000 ISO-Base geboten bekommt. Verglichen mit High-Speed-Negativen ist das enorm. Zumal man dann auch noch "pushen" kann.

Hier übrigens eine Übersicht über Digi-Cine-Cams 2019:
https://www.film-tv-video.de/equipment/ ... son-chart/



Antwort von roki100:

was ich nicht verstehe, warum wird z.B. mit "ISOxx - ISO6400" etc. bei Videokameras Werbung gemacht? Manche meinen tatsächlich, "die eine Kamera sei besser, weil mehr ISO". Ist doch Blödsinn.
Also ähnlich wie mit Marketingpixel, so auch mit ISO bzw. Marketingisos (oder was auch immer).



Antwort von nic:

Ganz so einfach ist das nicht. Über Base-ISO kannst du leider nur bei tatsächlichen Videosignalen reden, da dieses durch die Lage (Helligkeit) von Neutralgrau im Videobild definiert wird. Es hat erstmals nichts mit dem Belichtungsspielraum oberhalb und unterhalb dieses Wertes zu tun. Bei Raw existiert diese direkte Verknüpfung überhaupt nich mehr. Dieser Zusammenhang ist auch erstmal ohne die Unterscheidung zwischen ISO-variantem RAW und invarientem Raw zu betrachten.

ISO-(In)varianz ist auch kein Marketingbegriff sondern eine simple technische Eigenschaft des Systems. Bei ISO-varianten Systemen geht man jetzt her und benennt die Einstellung mit dem größten Dynamikumfang base-ISO. Arri und Panasonic sind hier Beispiele. Bei invarianten Kameras ist die Definition um einiges schwerer. Natürlich kannst du jetzt in etwa den mittleren Wert angeben, der so viel Spielraum in den Lichtern wie in den Schatten lässt, da hast du aber das Problem definieren zu müssen welche Blenden in den Schatten du als nutzbar definierst. Und das sehen die Hersteller oft großzügiger als du selbst.
Solche Systeme solltest du so nutzen, dass du sie je nach Situation selbst bewertest. In lowlight Szenen also in der Regel niedriger (bei denen du die Schatten vor Rauschen schützen möchtest), als bei high-key (wenn du eher auf die Lichter achten musst). Die Helium leuchte ich z.B. bei dunklen Szenen auf eine 200 und bei Tagesaufnahmen in Richtung 1000. Der ISO-Wert sind nur Metadaten, aber sie haben in dem Fall eine große Auswirkung darauf wieviel Licht tatsächlich in der Szene eingesetzt wird.

Das hat nichts mit Wundersensor zu tun. Es bedeutet lediglich, dass ISO Einstellungen nicht ins Rohmaterial eingebrannt werden. Das hat Vor– und Nachteile. Für mich, also für die Art und Weise die ich arbeite, hat es mehr Vorteile, deshalb mag ich die Red Kameras sehr gerne. Arri ist in diesem Sinne mehr wysiwyg, was viele Kameraleute sehr wertschätzen.



Antwort von Frank Glencairn:


was ich nicht verstehe, warum wird z.B. mit "ISOxx - ISO6400" etc. bei Videokameras Werbung gemacht?

1. Weil viele denken höhere Zahlen sind automatisch immer besser. Egal ob ISO, PixelPixel im Glossar erklärt oder PS. Wer will schon eine neue Kamera/TV/Auto mit geringeren Leistungswerten als das alte?

2. Weil die meisten das Ganze nicht verstehen, und deshalb super anfällig für Marketing blahblah sind.



Antwort von roki100:

ja, das verstehe ich. Und dann filmen die mit beste ISO Kamera vll. mit ISO12800 und überall ArtefakteArtefakte im Glossar erklärt, aber Hauptsache sieht man etwas im dunkel.



Antwort von iasi:

na ja - den meisten Leuten ist schon klar, dass die Maximalwerte nicht nutzbar sind. Aber es ist doch auch so, dass eine alte Kamera mit beworbenen 3200 ISO nicht die verwendbare Empfindlichkeit einer aktuellen Kamera mit 5-stelligen ISO-Werten erreicht.

Meine Vollformat-5dII kann ja selbst mit einer MFT-P4k, was die nutzbare Empfindlichkeit angeht, nicht mehr mithalten.



Antwort von pillepalle:


Meine Vollformat-5dII kann ja selbst mit einer MFT-P4k, was die nutzbare Empfindlichkeit angeht, nicht mehr mithalten.

Was die Bildqualität angeht sicher nicht, aber im Low-Light Bereich hat sich in den letzten Jahren eigentlich nicht mehr so viel getan (zumindest bei Nikon). Meine 8 Jahre alte D800 verhält sich im Low-Light Bereich ähnlich gut wie die D850, oder meine Z6. Die hatte eben nur noch keine guten Filmformate wie die Spiegellosen heute. Auch eine D4s ist genau so gut im Low-Light wie eine D5. Da sind wir mit der jetzigen Sensortechnik eigentlich schon so ziemlich am Limit.

VG



Antwort von klusterdegenerierung:

Von der a6000 zur a6300 ist es ein riesen Sprung und zur A7III bzw a6600 auch.
Deshalb kann ich die Aussage für mich nicht bestätigen.



Antwort von pillepalle:

@ klusterdegenerierung

Dann war das bei Sony vielleicht anders. Bei Nikon hatten die vor 8 Jahren schon das Low-Light Wunder. Ich glaube auch das eine A7sII vermutlich nicht schlechter war als eine a7III, oder eine a6600.

VG



Antwort von klusterdegenerierung:

Oh doch, gewaltig.
Das finde ich ja so toll an Sony.



Antwort von roki100:


Meine Vollformat-5dII kann ja selbst mit einer MFT-P4k, was die nutzbare Empfindlichkeit angeht, nicht mehr mithalten.

Auch nicht mit irgendwelche Tricks? Wie Beispiel HIER, jedoch mit BMMCC/BMPCC.



Antwort von iasi:



Meine Vollformat-5dII kann ja selbst mit einer MFT-P4k, was die nutzbare Empfindlichkeit angeht, nicht mehr mithalten.

Auch nicht mit irgendwelche Tricks? Wie Beispiel HIER, jedoch mit BMMCC/BMPCC.

Bei der 5dII geh ich nicht über ISO1600 - die P4k kann man auch mal auf ISO3200 stellen.
Wohlgemerkt: Vollformat - MFT

Tricksen kann man bei beiden noch, aber am "Abstand" ändert es nicht viel.

Die 5dII mit Vollformalobjektiven liefert bei ordentlichen Belichtung natürlich dennoch bessere Bilder als z.B. eine MFT-GH5.



Antwort von pillepalle:

Ich habe gerade mal nachgeschaut. Die 5D MKII ist auch eine 12 Jahre alte Kamera die Du mit einer 1 Jahre alten Pocket vergleichst. Ich wollte damit eigentlich nur sagen, das sich ganz gernerell nicht mehr viel im Low-Light Bereich tun wird, wenn man schon eine halbwegs moderne Kamera besitzt. Es sind andere Dinge die eine neue Kamera interessant machen. Und klar, ein größerer Sensor hilft dagegen schon.

VG



Antwort von iasi:


Ich habe gerade mal nachgeschaut. Die 5D MKII ist auch eine 12 Jahre alte Kamera die Du mit einer 1 Jahre alten Pocket vergleichst. Ich wollte damit eigentlich nur sagen, das sich ganz gernerell nicht mehr viel im Low-Light Bereich tun wird, wenn man schon eine halbwegs moderne Kamera besitzt. Es sind andere Dinge die eine neue Kamera interessant machen. Und klar, ein größerer Sensor hilft dagegen schon.

VG

Auch zwischen der GH5 und der P4k besteht der Dual-Gain-Unterschied.

Ich finde es jedenfalls erstaunlich und als einen enormen Fortschritt, dass man sogar mit einer MFT-Kamera bis zu 6400ISO gehen kann.

Mir geht es dabei gar nicht so sehr um Low-Light, sondern um Abblendmöglichkeiten, wenn ich z.B. große Schärfentiefe bei großer BrennweiteBrennweite im Glossar erklärt möchte.

Einen Raum mit nur 1/4 der Grundhelligkeit ausleuchten zu müssen, ist ebenfalls eine große Ersparnis. Zudem erschlägt man dadurch auch nicht gleich das Zigarettenglimmen.



Antwort von Onkel Danny:

Der Vergleich ist nett, aber mehr auch nicht.
Denn Scratch benutzten wohl die wenigsten und das nicht nur hier.

Das die SDK's von den Herstellern, nicht immer in vollem Umfang und Aktualität
genutzt werden, ist hinlänglich bekannt. Darum gibt es je nach NLE, auch diverse Unterschiede.

Und es liegt nun mal in der Natur der Sache, das verlustbehaftet komprimierte Formate,
kein ursprüngliches RAW mehr ist.
Egal von welchem Hersteller auch immer! Das zählt für Atomos, BM, Canon, RED und Sony gleichermaßen.

Bei NIkon/Sigma ist es eh ein Witz hoch 10, denn verlustbehaftet und noch skaliert, hat nun wirklich nichts mehr mit RAW zu tun.

Und dadurch das Apple dem eigenen FormatFormat im Glossar erklärt nie Einstellmöglichkeiten gegeben hat,
kann man davon ausgehen, das es nicht möglich ist. Da es das FormatFormat im Glossar erklärt gar nicht hergibt.
Also eher ProResProRes im Glossar erklärt 1.5, stärker komprimiert bei 12bit, nicht verkehrt, aber auch nicht mehr.

Sony geht schon seit jeher den Weg über einen zusätzlichen Recorder und Arri komprimiert intern verlustlos.
Bei Arri kann man ja auch seit der LF komprimieren, aber erst beim Offload der Daten.

Das RED Patent gilt doch eigentlich nur für Kameras, daher wundert es ein wenig, das gerade ein reiner
Monitor Hersteller wie Atomos, zahlen muss.

Ach und Braw kann man in Cam nicht nachschärfen, sondern nur ProRes. Das aber nur am Rande

greetz



Antwort von iasi:

Sony wollte es ja wie Red machen, scheiterte dann aber am Red-Patent.

So schrecklich finde ich das - sagen wir mal: sanftere - Raw von BMD und Red nicht. Unkomprimiertes Raw bietet dann doch nicht mehr die Vorteile, die die Nachteile aufwiegen würden. Zumal, wenn man es bei R3D und BRaw mit der Komprimierung nicht übertreibt.

Wenn nur ein Teil des Sensors durch Crop ausgelesen wird, habe ich das Gefühl, etwas wird unterschlagen.
Diese 4k-Raw vom 6k-Sensor durch Auslassung von Sensordaten ist wiederum eine Krücke. Da hat wohl schlicht die Elektronik nicht genügend Leistung, um die vollen 6k-Sensordaten wegzuschreiben.



Antwort von Jörg:

Wenn nur ein Teil des Sensors durch Crop ausgelesen wird, habe ich das Gefühl, etwas wird unterschlagen.

finde ich auch!
Bin deshalb aus dem Kino raus.
Habe an der Tür empört mit den Fuß aufgestampft...



Antwort von roki100:

.LOL ;)))



Antwort von Darth Schneider:

Ich habe auch schon mehrfach BMD deswegen angeschrieben.
Wenn die mit dem Scheiss Crop bei Raw mit HD nicht aufhören, dann melde ich das dem Trump und dann gibt es heftige Sanktionen.



Antwort von Onkel Danny:


Wenn nur ein Teil des Sensors durch Crop ausgelesen wird, habe ich das Gefühl, etwas wird unterschlagen.

finde ich auch!
Bin deshalb aus dem Kino raus.
Habe an der Tür empört mit den Fuß aufgestampft...

Danke

...
Wenn die mit dem Scheiss Crop bei Raw mit HD nicht aufhören, ...

Das liegt daran, das Du es leider bis Heute nicht verstanden hast, warum das so sein muss ;)

greetz



Antwort von nic:


Sony wollte es ja wie Red machen, scheiterte dann aber am Red-Patent.

Sony hat ein mit Redraw vergleichbares Raw: X-OCN...



Antwort von Paralkar:

Der Codex HDE Workflow funktioniert mit jedem Arri Raw FormatFormat im Glossar erklärt, bin gespannt, werd ich dieses Jahr bei nem Kinofilm ausprobieren, bis jetzt bin ich sehr zufrieden mit den Tests



Antwort von Banolo:

Also meiner Meinung nach verstehe ich nicht wieso über highlight recovery so schlecht geredet wird. Klar ist es keine Vollwertige Rettung aber besser als nichts und in sehr vielen fällen SUPER

Am Beispiel zu sehen mehr als zufriedenstellend



Antwort von roki100:

sehe ich genau so wie Du. Bei der BMPCC ist z.B. so, dass auch ISO1600 gut nutzbar ist und in Verbindung mit Highlight Recovery, habe ich da einen sehr guten DynamicRange. Obwohl ich HR sehr oft nutze, habe ich diese komische rosa ArtefakteArtefakte im Glossar erklärt bisher nur einmal gesehen.



Antwort von klusterdegenerierung:

Es ist doch kein highlight recovery wenn noch alles vorhanden ist und man lediglich die vorhandenen highlights mit Lift oder GammaGamma im Glossar erklärt oder anderen tools wieder unterhalb der Obergrenze zieht!!
Dein Recovern wäre, wenn oben nichts mehr ist und mit irgendwelcher Wunderwaffe etwas herbeigezaubert wird, was aber bei Deinem Beispiel absolut nicht der Fall ist.

Also highlight recover abstellen und einfach selber die highlights wieder rein, also runter ziehen.



Antwort von roki100:

Ohne HR geht das nicht.



Antwort von cantsin:


Ohne HR geht das nicht.

Aber wenn Du Dir die RGB-Parade bei aktivierter Highlight Recovery ansiehst, sind da lauter seltsame Ausreißer, und die Clipping-Linie ist immer noch zu sehen. Es ist und bleibt daher ein Notnagel.



Antwort von srone:



Ohne HR geht das nicht.

Aber wenn Du Dir die RGB-Parade bei aktivierte Hightlight Recovery ansiehst, sind da lauter seltsame Ausreisser, und die Clipping-Linie ist immer noch zu sehen. Es ist und bleibt daher ein Notnagel.

in solchen fällen liebe ich den pro-mist von tiffen, als digitale version die highlights auf 92% runterziehen und nur ganz oben, eben von 90-100% ein wenig light diffussion reinrechnen, das entschärft die clippinglinie.

lg

srone



Antwort von roki100:

ich sehe auch bei dem Beispiel von User Banolo, nur dass das ausgebrannte nicht mehr ausgebrannt ist und somit insgesamt ein besseres Bildergebnis, als ohne HR.



Antwort von klusterdegenerierung:

Seit ihr alle Blind?
Das was im zweiten Bild unterhalb der Grenze wieder zu sehen ist, ist auf dem ersten Bild lediglich oberhalb und nicht zu sehen und nicht "weg"!

Kann man doch mit Lift einfach wieder reinholen, sieht man doch auf dem Bild, das da noch was ist und nicht dran gezaubert wird.



Antwort von roki100:


Kann man doch mit Lift einfach wieder reinholen, sieht man doch auf dem Bild, das da noch was ist und nicht dran gezaubert wird.

Geht aber nicht. Nur mit HR werden die Details sichtbar. Ohne HR kannst Du alles versuchen und mehr als matschige Highlights bekommt man da nichts wiederhergestellt. Vielleicht täusche ich mich - daher würde ich dir gerne eine CDNG zur verfügung stellen und Du zeigst es wie man ohne HR das macht...?



Antwort von srone:


Seit ihr alle Blind?
Das was im zweiten Bild unterhalb der Grenze wieder zu sehen ist, ist auf dem ersten Bild lediglich oberhalb und nicht zu sehen und nicht "weg"!

Kann man doch mit Lift einfach wieder reinholen, sieht man doch auf dem Bild, das da noch was ist und nicht dran gezaubert wird.

nun ja, die horizontale linie im blau bei ca 95% spricht da für sich, das sind keine "echten" details mehr.

lg

srone



Antwort von Darth Schneider:

Notnagel
Das würde auch durchaus einen Sinn ergeben, es heisst ja Highlight "Recovery"



Antwort von Funless:

Wenn mein Nickname nicht so irre cool wäre, ich würde ihn sofort in "Highlight_Recovery" ändern, Bäm!!

Oder (noch besser) in "Lass_ma_haylayt_maylayt_Füße", double-Bäm!!

Funless has spoken! 😬 Und nun weitermachen



Antwort von Banolo:

Kein Drama hehe hier ist das was gemeint ist

Ohne HR gibt es keine Highlights!



Antwort von Banolo:

Und hier mal ohne HR alle lichter runter gezogen :P

HR ist der BRINGER "muss man einfach ehrlich zugeben!

klusterdegenerierung wer ist BLIND :P



Antwort von klusterdegenerierung:


Kein Drama hehe hier ist das was gemeint ist

Ohne HR gibt es keine Highlights!

Kannst Du das mal mit dem highlight gedöns sein lassen und einfach den Lift Regler verschieben bis die nicht sichtbaren parts wieder runter kommen?
Der Punkt ist der, die sind nicht weg, die sind nur ausserhalb der verwendeten skalierung.

Highlight recovery ist an der Stelle einfach nur eine automatik für das was Du auch händisch selbst tun kannst.
Als Beispiel zb wenn Du einen überbelichteten Slog file importierst und er auch ausserhalb der Grenze liegt, gehst Du auf datei attribute und stellst von video auf full um und schon rutschen die highlights die ausserhalb waren nach unterhalb und sind wieder sichtbar.

Einfach mal an den Reglern drehen und schauen was dann passiert.

Edit, im Raw kannst Du das natürlich mit den Raw Boardmitteln machen.
Man muß sich doch nicht veräppeln lassen, nur das was da ist kann zurück geholt werden und was weg ist ist weg.
Dreh mal an der Raw Belichtung/Iso etc. kommt aufs selbe raus.



Antwort von klusterdegenerierung:

@Banolo
stelle mal bitte von colorspace bmd auf Rec709, dann knallt Dir das ganze durch die Decke, wenn Du es zurück auf BMD stellst wird es auf die Mitte zusammen gequetscht,
dabei übersieht man schnell das abgeschnittene highlights mit ruter gequetscht werden.

Wenn Du in Rec709 bleibst und vorsichtig den highlight Regler runter ziehst, siehst Du wie Du die letzten Fransen die drüber sind reinholen kannst.
Gucke mal auf die screenshots.



Antwort von roki100:

Highlight recovery ist an der Stelle einfach nur eine automatik für das was Du auch händisch selbst tun kannst.

Da geht wirklich nichts ohne HR....schon alles mögliche händisch versucht.



Antwort von klusterdegenerierung:


Highlight recovery ist an der Stelle einfach nur eine automatik für das was Du auch händisch selbst tun kannst.

Da geht wirklich nichts ohne HR....schon alles mögliche händisch versucht.

Schaue mal bitte auf meine screenshots, besonders Bild 2 auf die Parade und gucke auch mal in welchem colorspace Du Dich bewegst etc.



Antwort von roki100:

wie gesagt, ohne HR schon alles versucht. Ich habe da einfach keine bessere Ergebnisse hinbekommen. Mit HR werden kleinste Details sichtbar und licht sieht wie licht aus, das ausgebrannte nicht matschig usw. Mit HR hat man da einfach einen smoothen Highlight Rolloff...

Muss jeder für sich wissen...ich werde auf jeden Fall immer wieder eine RAW Cinema Kamera kaufen, wo HR dabei ist, weil ich das super finde.



Antwort von klusterdegenerierung:

Ich muß mich korrigieren, ihr habt anscheinend doch Recht, ich lag wohl nicht so sehr ausserhalb der Range.
Jetzt habe ich Material genommen wo der Himmel komplett weg war und tatsächlich holt diese Funktion noch was nicht sichbares rein!!

Wo Resolve das herholt ist mir ein Rätsel. Ich habe alle Regler ausprobiert und bekomme es mit nix so rein wie mit dem feature!
Das ist sehr aussergewöhlich.

Ich habe das seit der Pocket 2K nicht mehr benutzt, weil die highlight damit immer Magenta wurden und mir dieses feature unsinnig erschien.
Aber jetzt bin ich schon baff.

Vielleicht kann Fank das erklären?



Antwort von klusterdegenerierung:

AHA!
Jetzt habe ich was fazinierendes festgestellt, denn das recovern funktioniert scheinbar nur beim BMD space, in Rec nicht,
drehe ich aber in Rec den highlight Regler ganz zurück und schalte dann das Recovery ein, kommt auch im Rec was zurück, abgefahren.

Denn das heißt ich kann dieses feature noch über die anderen Parameter beeinflussen, siehe screenshots.
Wenn man übrigens den space auf bmd stellt, geht jegliches highlicht weg und kommt erst wieder, wenn man das recovern anstellt, was sehr seltsam ist.



Antwort von nic:

Ist nur ein Kanal überbelichtet, zeigt eine klassische Raw-Entwicklung weiß an, da es ansonsten zu monoton farbigen hellen Flächen kommen könnte. 'Highlight recovery' moduliert den Wert des überbelichteten Kanals anhand der zwei nicht überbelichteten, bzw. kann es auch zwei Kanäle anhand eines vorhandenen Kanals versuchen zu rekonstruieren/ erraten. Red ist sich bzgl. seines Verfahrens bspw. so sicher, dass es automatisch bei Überbelichtungen angewandt wird, bei anderen Herstellern ist es optional. Es erhöht die gefühlte DR des Sensors in den Lichtern zum Teil über eine BlendeBlende im Glossar erklärt, immer abhängig von der Farbtemperatur der Überbelichtung. Was daran ist so schwer zu verstehen?



Antwort von iasi:


Ist nur ein Kanal überbelichtet, zeigt eine klassische Raw-Entwicklung weiß an, da es ansonsten zu monoton farbigen hellen Flächen kommen könnte. 'Highlight recovery' moduliert den Wert des überbelichteten Kanals anhand der zwei nicht überbelichteten, bzw. kann es auch zwei Kanäle anhand eines vorhandenen Kanals versuchen zu rekonstruieren/ erraten. Red ist sich bzgl. seines Verfahrens bspw. so sicher, dass es automatisch bei Überbelichtungen angewandt wird, bei anderen Herstellern ist es optional. Es erhöht die gefühlte DR des Sensors in den Lichtern zum Teil über eine BlendeBlende im Glossar erklärt, immer abhängig von der Farbtemperatur der Überbelichtung. Was daran ist so schwer zu verstehen?

Nichts.

Da in den Highlights die Farben nicht mehr so relevant sind, ist das Erraten ja auch noch akzeptabel. Will man aber diese Highlights zu weit runterziehen, wird"s meist hässlich.
Man quetscht mit 'Highlight recovery' eben das Letzte aus dem Sensor, wobei dies dann eben ganz ohne "Verluste" auch nicht geht.



Antwort von roki100:

eines ist für mich ganz klar: in den meisten fällen ist HR besser als ohne.



Antwort von Banolo:

also nach dem Beispiel hier ist HR GOLD WERT einfach " die Kamera hat 1-2 Blenden mehr



Antwort von cantsin:


also nach dem Beispiel hier ist HR GOLD WERT einfach " die Kamera hat 1-2 Blenden mehr

Naja, in Deinem obigen Beispiel wurde einfach nicht korrekt belichtet, und der Fehler dann mit dem HR-Pflaster gekittet...



Antwort von Banolo:

cantsin nein das ist nicht richtig"

ich hab Schiffe aufgenommen und reflexartig den Vogel aufgenommen

Und HR ist wie ein SOS / 110 :P

Ich weiß nicht wieso alle das hier klein reden" weil Ihr kein BRAW habt?



Antwort von klusterdegenerierung:


also nach dem Beispiel hier ist HR GOLD WERT einfach " die Kamera hat 1-2 Blenden mehr

Interessant finde ich ja, das es eigentlich erst so flach und zeichnungslos wird, wenn man in colorspace & GammaGamma im Glossar erklärt BMD benutzt.
Trägt man hier Rec709 ein ist es zwar erstmal ausgebrannt, kann aber mit dem Highlight & Exposure Regler wieder aufgefangen werden, zumindest ist die Wolke dann nicht so weg.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
RAW Format Vergleich - Ein tabellarischer Funktions-Überblick
Kinefinity MAVO LF - 6K-Vollformat RAW Cinekamera ab Oktober für 12.000 Dollar
Hasselblad H6D-C400 - (Schon wieder) mit 4K RAW-Mittelformat-Aufzeichnung
Fast wie RAW: neues Sony 16-bit Format X-OCN
Magic Lantern - schlankeres RAW-Format ermöglicht längere Aufnahm
Red-Raw Samples zum Vergleich
12 mal Raw im Vergleich! Riesiger Cam Shootout!
Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018
Samsung T5 ./. Crucial X8 - Ein Vergleich
ProRes RAW: EVA1 u. Shogun Inferno (inkl. Vergleich zu Canon C200 und Ursa Mini 4.6K)
Red RAW Format Objektivprofil .lcp anwenden?
Neues Apple ProRes RAW Format angekündigt // NAB 2018
Braucht Deutschland so ein Youtube Format?
Diskussion mit Philip Bloom: ISO, Raw, Pentax, Medium Format
ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
Wie konvertiere ich .mov und .mp4-Dateien in ein .swf-Format?
Überblick Audiorecorder für Videoproduktion
GH4 Raw & ein Brett vor dem Kopf!
Lehrreiche Livestreams für Filmemacher im Überblick -- Cine Live Guide
10 wenig beachtete Neuigkeiten in Premiere Pro CC 2019 und ein Hinweis auf ProRes RAW
Sony PXW-FX9 - Bedienung: Die wichtigsten Kamera-Menüs erklärt und im Überblick
Sony AXS-R7 Raw Recorder: 120 fps 4K Raw für F55
Warum kann man RAW-Video nicht wie RAW-Fotos bearbeiten
Osmo Raw -- Handgimbal jetzt mit X5R 4K-Raw Kamera kompatibel // NAB 2016
RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019
RAW Wars - ProRes RAW gegen CinemaDNG

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom