Logo Logo
/// 

Raw und Whitebalance



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Frage von Mediamind:


Je mehr ich damit arbeite, um so besser gefällt es mir: Arbeiten mit Rawaufnahmen an der FX6 mit dem Ninja V. Trotzdem habe ich noch eine grundsätzliche Verständnisfrage.
In FCPX kann ich u.a. die Farbtemperatur und den Iso-Wert nachträglich ändern.
Frage an die erfahreneren Nutzer: Ist die WB wirklich komplett unabhängig von dem an der Kamera festgelegten Wert oder gibt es doch eine Art der Abhängigkeit? Man kann die WB ja auch über die Farbräder "beeinflussen", lieber im Inspektor einstellen oder über das Farbrad? Das selbe Spiel bei der Iso-Einstellung: Ich skaliere doch hier nur die Empfindlichkeit digital. Demnach könnte ich genau so gut über die Farbräder den Gain passen machen. Oder ist es sinniger, die Iso im Inspektor in die richtige Richtung zu bringen (falls nicht richtig belichtet) und dann im Grading das Finetunig zu machen?
Echte Anfängerfragen, sorry...



Antwort von dienstag_01:

Tja, wenn man wüsste, was für den speziellen Hersteller RAW ist (und was nicht) und man darüber hinaus auch wüsste, wie und auf welcher Ebene die einzelnen Einstellmöglichkeiten im NLE auf das Material einwirken (Stichwort direkt auf das Demosaicing oder auf der Ebene des Composite Signals), dann wäre deine Frage einfach zu beantworten.

Kleine Ergänzung: hardware-seitig ist die WB von den Farbfiltern vor den Photodioden abhängig, so wie ich das verstehe, sind die von Hersteller zu Hersteller verschieden (minimal).



Antwort von cantsin:

Mediamind hat geschrieben:
In FCPX kann ich u.a. die Farbtemperatur und den Iso-Wert nachträglich ändern.
Frage an die erfahreneren Nutzer: Ist die WB wirklich komplett unabhängig von dem an der Kamera festgelegten Wert oder gibt es doch eine Art der Abhängigkeit? Man kann die WB ja auch über die Farbräder "beeinflussen", lieber im Inspektor einstellen oder über das Farbrad? Das selbe Spiel bei der Iso-Einstellung: Ich skaliere doch hier nur die Empfindlichkeit digital. Demnach könnte ich genau so gut über die Farbräder den Gain passen machen. Oder ist es sinniger, die Iso im Inspektor in die richtige Richtung zu bringen (falls nicht richtig belichtet) und dann im Grading das Finetunig zu machen?
Echte Anfängerfragen, sorry...
Bei WB ist die Antwort relativ (aber auch nicht immer) einfach, bei ISO komplexer.

"Weißabgleich" bedeutet eigentlich nur eine Farbkalibrierung des Kamera-Sensoroutputs für die deutlich begrenztere Farbpalette von 8- und 10bit-Codecs. D.h. der Sensor "sieht" das vollständige Farbspektrum, im 8/10bit-Codec bleibt davon nur noch ein kleiner Bruchteil übrig. Weissabgleich heisst daher nur, dass man alle Farben wegschmeisst, die stichig sind, und nur die Farben übrig lässt, die fürs menschliche Auge normal bzw. nicht farbstichig aussehen. Wenn man daher wirkliches Raw aufzeichnet, findet diese Filterung bzw. Farbreduktion in der Kamera nicht statt und kann deshalb qualitätsverlustfrei in der Postproduktion gemacht werden.

Aber es gibt z.B. auch Kameras, die zwar undebayertes, aber farbreduziertes 10bit- oder sogar 8bit-"Raw" aufzeichnen, wo dann diese Gleichung nicht mehr stimmt und daher die WB-Einstellung an der Kamera stimmen muss. Und es gibt Kameras wie die von Blackmagic, deren "Raw" eine Mischung aus debayert (12bit-Log) und undebayert ist. Allgemeine Aussagen können deshalb im Einzelfall nicht zutreffen...

In FCPX gibt es beim nachträglichen Weißabgleich AFAIK eine prinzipielle Einschränkung: Foto-Rawkonverter und Davinci Resolve machen den Software-WB am undebayerten Material, in dem sie einfach die Werte der noch getrennten Grün-, Blau- und Rotkanälen gegeneinander verschieben . FCPX kann das AFAIK - bzw. auf Basis dessen, was ich hier mal vor ca. einem Jahr im Forum gelesen habe - nicht und macht den nachträglichen Weißabgleich an den debayerten Werten. Wenn das tatsächlich noch so ist, schränkt das die Flexibilität ein und führt zu Farbartefakten bei extremen Weißabgleich-Verschiebungen.

Bei ISO ist die nachträgliche Einstellung von der Kamera bzw. ihrem Sensor abhängig. Die meisten Sensoren haben nur eine oder zwei native ISOs, und alles dazwischen, darunter oder darüber ist faktisch Signalverstärkung in der Kameraelektronik - bzw., bildlicher ausgedrückt: Helligkeitsverstärkung und -verminderung durch kamerainternes Photoshopping. Bei einigen Kameras findet dieses interne Photoshopping erst nach der Raw-Aufzeichnung statt (so z.B. bei allen Kameras von Blackmagic und RED, aber auch bei einigen Fotokameras wie der Nikon D800); diese Kameras werden deshalb "ISO-invariant" genannt. Bei Raw-Fotos oder -Videos aus solchen Kameras kann die ISO bzw. der Gain nachträglich im Raw-Konverter verändert werden, ohne dass sich das Ergebnis von einer kamerainternen ISO-Einstellung verändert. (Faktisch ist ISO=Gain.)

Bei vielen bzw. den meisten Consumer-/Prosumer-Kameras findet die per ISO-Wert eingestellte Gain-Verstärkung in der internen Signalprozessierungs-Pipeline bereits vor der Raw-Aufzeichnung statt, weswegen der Gain dann fest ins Raw eingebacken ist und nachträglich nicht mehr verlustfrei verändert werden kann.

Ob sich, beim Material aus einer ISO-invarianten Kamera, das Ergebnis visuell unterscheidet, wenn man den ISO-Wert im Raw-Tab verändert oder konventionell in der Farbkorrektur den Gain hochzieht, hängt von der Software ab. Meine Vermutung ist, dass es bei FCPX keinen Unterschied macht (aber das kannst Du durch Tests kontrollieren.) Bei Resolve ist es in der Tat so, dass die ISO-Einstellung im Raw-Tab sich auf die undebayerten Werte auswirkt und der Gain-Regler in der Farbkorrektur auf die debayerten Werte.








Antwort von dienstag_01:

"Weißabgleich" bedeutet eigentlich nur eine Farbkalibrierung des Kamera-Sensoroutputs für die deutlich begrenztere Farbpalette von 8- und 10bit-Codecs. D.h. der Sensor "sieht" das vollständige Farbspektrum, im 8/10bit-Codec bleibt davon nur noch ein kleiner Bruchteil übrig. Weissabgleich heisst daher nur, dass man alle Farben wegschmeisst, die stichig sind, und nur die Farben übrig lässt, die fürs menschliche Auge normal bzw. nicht farbstichig aussehen. Wenn man daher wirkliches Raw aufzeichnet, findet diese Filterung bzw. Farbreduktion in der Kamera nicht statt und kann deshalb qualitätsverlustfrei in der Postproduktion gemacht werden. Sorry, wenn ich das so schreibe, aber das ist komplett falsch. WB hat nichts mit der Farbtiefe des Signals zu tun, sondern mit dem Unterschied, wie einerseits ein technisches Medium (Film, Sensor) Farben aufzeichnet und andererseits der Wahrnehmung der Farben durch unser Gehirn. Unser Gehirn sagt uns nämlich, dass ein weißes Shirt im Freien Weiß ist, die aufgezeichneten Werte lassen es aber eher Blau aussehen. Die WB bringt das wieder zusammen.
Also, WB ist Differenz Sensor - Gehirn und nicht 16 vs 8bit.



Antwort von cantsin:

dienstag_01 hat geschrieben:
"Weißabgleich" bedeutet eigentlich nur eine Farbkalibrierung des Kamera-Sensoroutputs für die deutlich begrenztere Farbpalette von 8- und 10bit-Codecs. D.h. der Sensor "sieht" das vollständige Farbspektrum, im 8/10bit-Codec bleibt davon nur noch ein kleiner Bruchteil übrig. Weissabgleich heisst daher nur, dass man alle Farben wegschmeisst, die stichig sind, und nur die Farben übrig lässt, die fürs menschliche Auge normal bzw. nicht farbstichig aussehen. Wenn man daher wirkliches Raw aufzeichnet, findet diese Filterung bzw. Farbreduktion in der Kamera nicht statt und kann deshalb qualitätsverlustfrei in der Postproduktion gemacht werden.
Sorry, wenn ich das so schreibe, aber das ist komplett falsch. Ja, aus der Sicht, die Du beschreibst. Bei Digitalkameras funktioniert WB aber faktisch (bzw. technisch) so wie von mir beschrieben. Und das erklärt, warum bei einem echten Raw-Signal der WB nachträglich in der Software gesetzt werden kann und die WB-Einstellung an der Kamera irrelevant bzw. nur ein Metadaten-Wert ist.



Antwort von Mediamind:

Vielen Dank schon einmal an Euch, vor allen an Cantsin. Die Aufnahme erfolgt bei der FX6, soweit mir bekannt, in 16 Bit und wird dann als 12 Bit Raw im Ninja auf die SSD geschrieben. Vor dem Hintergrund schätze ich, dass die WB dann tatsächlich keine Rolle mehr an der Kamera spielt. Wobei ich intern parallel als Backup mit dem Intracodec intern auf SD aufnehmen und somit sowieso gezwungen bin, auf die WB zu achten.



Antwort von Jott:

Sehr weise Entscheidung.



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:

Sorry, wenn ich das so schreibe, aber das ist komplett falsch.
Ja, aus der Sicht, die Du beschreibst. Bei Digitalkameras funktioniert WB aber faktisch (bzw. technisch) so wie von mir beschrieben. Und das erklärt, warum bei einem echten Raw-Signal der WB nachträglich in der Software gesetzt werden kann und die WB-Einstellung an der Kamera irrelevant bzw. nur ein Metadaten-Wert ist.
Nö, der funktioniert auch nicht, wie von dir beschrieben "Weißabgleich" bedeutet eigentlich nur eine Farbkalibrierung des Kamera-Sensoroutputs für die deutlich begrenztere Farbpalette von 8- und 10bit-Codecs. D.h. der Sensor "sieht" das vollständige Farbspektrum, im 8/10bit-Codec bleibt davon nur noch ein kleiner Bruchteil übrig. Mit der Farbtiefe hat das nichts zu tun. WB müsste auch gemacht werden, wenn man bei einem 16bit-Signal bliebe.
Wahrscheinlich verwechselst du WB mit den generellen Möglichkeiten von RAW, das ist richtig, man kann WB bei RAW oder einem Composite Signal mit höherer Farbtiefe besser korrigieren (bei RAW ist es eigentlich das gleiche wie in Camera). Die Frage des TO lautet aber, nicht ob (er nimmt ja mit RAW auf), sondern mit welchem Werkzeug.



Antwort von cantsin:

dienstag_01 hat geschrieben:
Wahrscheinlich verwechselst du WB mit den generellen Möglichkeiten von RAW, das ist richtig, man kann WB bei RAW oder einem Composite Signal mit höherer Farbtiefe besser korrigieren (bei RAW ist es eigentlich das gleiche wie in Camera). Die Frage des TO lautet aber, nicht ob (er nimmt ja mit RAW auf), sondern mit welchem Werkzeug.
Nee, seine Frage war: "Ist die WB wirklich komplett unabhängig von dem an der Kamera festgelegten Wert oder gibt es doch eine Art der Abhängigkeit?" - Und da ist die Antwort, bei einem echten Raw-Signal: komplett unabhängig.

Du hast aber Recht, ich hätte hier genauerweise "WB-Einstellung" statt Weißabgleich schreiben sollen (und er wohl auch).



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Wahrscheinlich verwechselst du WB mit den generellen Möglichkeiten von RAW, das ist richtig, man kann WB bei RAW oder einem Composite Signal mit höherer Farbtiefe besser korrigieren (bei RAW ist es eigentlich das gleiche wie in Camera). Die Frage des TO lautet aber, nicht ob (er nimmt ja mit RAW auf), sondern mit welchem Werkzeug.
Nee, seine Frage war: "Ist die WB wirklich komplett unabhängig von dem an der Kamera festgelegten Wert oder gibt es doch eine Art der Abhängigkeit?" - Und da ist die Antwort, bei einem echten Raw-Signal: komplett unabhängig.

Du hast aber Recht, ich hätte hier genauerweise "WB-Einstellung" statt Weißabgleich schreiben sollen (und er wohl auch).
Stimmt.



Antwort von R S K:

Um die eigentliche Frage zu beantworten:

Dinge wie ISO und WB im Clip Inspektor umzustellen bedeutet bei ProRes (d.h. echtem) RAW und FC, dass es vor dem debayering passiert, also so als ob du es tatsächlich genau so auch aufgenommen hättest. Wenn als Filter (Kreise, Kurven etc.) ist es entsprechend nach dem debayering. Letzteres werden dir bestimmte Leute wieder sagen sei natürlich exponentiell schlechter! 😱

Auch wenn wir von einem Unterschied (zumindest im Fall von WB) reden der bestenfalls im messbaren Bereich liegt.

Überhaupt in RAW aufzuzeichnen halte ich persönlich für gänzlich überflüssig (erst recht bei einer Kamera wie die FX6), insofern wir nicht von einer "Run & Gun" Produktion reden wo man die Gefahr läuft die Kamera nicht immer vernünftig einstellen zu können und sich absichern möchte. Oder bei bestimmten Ausnahme-Aufnahmen wo extreme Lichtverhältnisse vorliegen. Oder wenn man so oder so in ProRes aufzeichnen würde, dann ist der Sprung zu PRRAW auch ziemlich egal was Datenmenge und Performance angeht, also… joa… warum nicht. 🤷🏼???


Mediamind hat geschrieben:
Die Aufnahme erfolgt bei der FX6, soweit mir bekannt, in 16 Bit und wird dann als 12 Bit Raw im Ninja auf die SSD geschrieben.
Natürlich. Da die internen linearen 16bit der Kamera schlechter wären als die logarithmischen 12bit die geschrieben werden. Mal von der irrsinnigen Größe mal ganz abgesehen. Die linearen 16bit aufzuzeichnen wäre also in verschiedener Hinsicht kontraproduktiv.



Antwort von Mediamind:

Raw um Rawswillen finde ich auch nicht zielführend. An der A7SIII bleibe ich beim leichten Gepäck. Bei der FX6 habe ich eine SSD mit 1 TB und in der Kamera 2 Karten mit jeweils 128 GB als V90. Ich benötige nun kaum mehr das Dualrecordering auf beiden Karten, ich habe eine Aufnahme als Raw und die andere als XAVC-I. Damit kann ich insgesamt 256 GB auf den SDs in Summe nutzen. Einen vernünftigen Vorschaumonitor habe ich sowieso gerne, wenn der auch noch aufnehmen kann, um so besser. Das ganze Gelumpe ist schnell zusammengebaut und auf dem Stativ. Den Ninja habe ich an der Seite mit einem Manfrotto Magic Arm befestigt. Die Lösung ist für alle Arbeitswinkel schnell einstellbar und solide. Danke noch mal für die Erläuterungen. Den Umstand Inspektor vs Colorwheel habe ich mir gedacht, war aber eher geraten :-)








Antwort von klusterdegenerierung:

dienstag_01 hat geschrieben:
Unser Gehirn sagt uns nämlich, dass ein weißes Shirt im Freien Weiß ist, die aufgezeichneten Werte lassen es aber eher Blau aussehen. Die WB bringt das wieder zusammen.Also, WB ist Differenz Sensor - Gehirn und nicht 16 vs 8bit.
Öh was bitte haben Kelvinmessungen mit Gefühlen oder Wahrnehmungen zu tun?



Antwort von pillepalle:

klusterdegenerierung hat geschrieben:
Öh was bitte haben Kelvinmessungen mit Gefühlen oder Wahrnehmungen zu tun?
Nix. Aber die Weißbalance wird auch nicht alleine durch die Farbtemperatur bestimmt, sondern auch noch durch den Tint (Grün/Magenta).

Genaugenommen wird mit dem Weißpunkt in Farbräumen die Farbe weiß definiert. Sie ist aber von der Farbtemperatur der jeweiligen Beleuchtung abhängig. Deshalb gibt es in jedem Farbraum auch mehrere Weißpunkte, die man auch Schwarzkurve (Black Body Curve) nennt und den Farbtemperaturen der planckschen Strahler entsprechen. In XYZ-Räumen verwendet man dafür X/Y-Koordinaten die sich immer auf eine bestimmte Farbtemperatur beziehen.

Jedenfalls ist einem ja freigestellt, ob man sich beim setzen des Weißpunkts in der NLE (z.B. mit einer Pipette, oder durch Drehen von WB und Tint) an einen technisch korrekten Weißpunkt (entsprechend der Lichtfarbe) hält, oder nicht.

Es wird ja zum Glück niemand gezwungen in RAW zu arbeiten :) Wer die Vorteile nutzen möchte und einen guten Workflow hat, der freut sich einfach über die neuen Möglichkeiten.

VG



Antwort von dienstag_01:

klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Unser Gehirn sagt uns nämlich, dass ein weißes Shirt im Freien Weiß ist, die aufgezeichneten Werte lassen es aber eher Blau aussehen. Die WB bringt das wieder zusammen.Also, WB ist Differenz Sensor - Gehirn und nicht 16 vs 8bit.
Öh was bitte haben Kelvinmessungen mit Gefühlen oder Wahrnehmungen zu tun?
Wir empfinden Bilder manchmal als zu warm, manchmal als zu kalt. Was ist das anderes als Gefühl?

Worum es aber geht, ist, dass unser Gehirn die Welt nicht so sieht, wie sie ist. Ich gehe von draussen nach drinnen und immer sieht das weisse Shirt weiß aus. Physikalisch ist es das nicht.



Antwort von Jott:

Wir Humans haben halt einen automatischen Weißabgleich in der Rübe programmiert. Praktisch.



Antwort von dienstag_01:

Jott hat geschrieben:
Wir Humans haben halt einen automatischen Weißabgleich in der Rübe programmiert. Praktisch.
Nicht nur WB, unser Gehirn erfindet auch Farben, wo keine sind.
FRv08ctacAAK2Ej.jpg



Antwort von klusterdegenerierung:

dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:

Öh was bitte haben Kelvinmessungen mit Gefühlen oder Wahrnehmungen zu tun?
Wir empfinden Bilder manchmal als zu warm, manchmal als zu kalt. Was ist das anderes als Gefühl?

Worum es aber geht, ist, dass unser Gehirn die Welt nicht so sieht, wie sie ist. Ich gehe von draussen nach drinnen und immer sieht das weisse Shirt weiß aus. Physikalisch ist es das nicht.
Schon klar, kann man doch aber getrost übergehen wenn man die Cam auf 50% zertifiziertem Grau einmist, danach kann es doch so Bunt für Dich aussehen wie es will, ist es aber nicht, denn die Cam hat keine emotionsgesteuerte Wahrnehmung. 50% Grau ist dann 50% Grau, da kann man sich drauf verlassen.

Meine langjährigerfahrene Grafikkollegin pflegte immer zu sagen, was interessiert mich ob die weiße Packung auf dem Moni Gelb aussieht und warum, nimm die Pipette, messe die Werte und wenn sie alle gleich sind, hast Du keinen Farbstich, ob du ihn siehst oder nicht und wenn doch dann alle Werte nivellieren.

Ich war dann immer skeptisch bei den alten MacGurkenmonitoren wo alles weiße nach beiger Tapete aussah, aber spätistens beim Proof wußte ich immer wie Recht sie hat und wie weiß weiß ist.



Antwort von Mediamind:

pillepalle hat geschrieben:
klusterdegenerierung hat geschrieben:
Öh was bitte haben Kelvinmessungen mit Gefühlen oder Wahrnehmungen zu tun?
Nix. Aber die Weißbalance wird auch nicht alleine durch die Farbtemperatur bestimmt, sondern auch noch durch den Tint (Grün/Magenta).

Genaugenommen wird mit dem Weißpunkt in Farbräumen die Farbe weiß definiert. Sie ist aber von der Farbtemperatur der jeweiligen Beleuchtung abhängig. Deshalb gibt es in jedem Farbraum auch mehrere Weißpunkte, die man auch Schwarzkurve (Black Body Curve) nennt und den Farbtemperaturen der planckschen Strahler entsprechen. In XYZ-Räumen verwendet man dafür X/Y-Koordinaten die sich immer auf eine bestimmte Farbtemperatur beziehen.

Jedenfalls ist einem ja freigestellt, ob man sich beim setzen des Weißpunkts in der NLE (z.B. mit einer Pipette, oder durch Drehen von WB und Tint) an einen technisch korrekten Weißpunkt (entsprechend der Lichtfarbe) hält, oder nicht.

Es wird ja zum Glück niemand gezwungen in RAW zu arbeiten :) Wer die Vorteile nutzen möchte und einen guten Workflow hat, der freut sich einfach über die neuen Möglichkeiten.

VG
Nur zum Verständnis: Die WB findet zwischen Blau und Rot und Tint zwischen Grün und Magenta statt. Warum kann man dann Tint nicht im Inspector vor der Weiterverarbeitung des Raw-Materials einstellen? Ich habe nur Arri White Balance Tint cc zur Auswahl.



Antwort von pillepalle:

@ Mediamind

Ich weiß gerade nicht welchen 'Inspector' Du meinst, aber normalerweise kann man den Tint auch im RAW Konverter der NLE einstellen. Welche Parameter man dann bei welcher Software konrekt einstellen kann, liegt dann zum einen an der Software selber und welche Parameter in der SDK vom Hersteller des jeweiligen RAW-Formats zur Verfügung gestellt werden (bei ProRes RAW z.B. Apple). Es kann also gut sein, dass man den Tint auch mal nicht einstellen kann. Dann kann man den Weißpunkt in der Post auch nicht besonders genau einstellen (eben nur über die WB).

In der Praxis ist das aber alles nicht so dramatisch, wie das in Foren oft hochgekocht wird. Wenn Du mit dem Weißpunkt nicht total daneben liegst, läßt sich das Material immer zum gewünschten Weißpunkt drehen. Das geht sogar mit debayertem 10 Bit Material schon recht gut. Mit RAW bist Du eben noch ein wenig felxibeler, hast eine höhere Farbtiefe und mehr Kontrolle über die Bildverarbeitung. Ich sehe den Sinn von RAW jedenfalls nicht darin schlampiger bei der Aufnahme zu arbeiten, oder mir irgendwelche Wunder in der Post davon zu versprechen.

VG



Antwort von Mediamind:

Der Inspector ist ein Bestandteil von FCPX.
Die Flexibilität des Materials ist schon ein Vorteil. Da ich keinen zusätzlichen Aufwand habe, nehme ich das gerne mit. In der Kirche z.B. kann das ein großer >Vorteil sein, an anderer Stelle hatte ich über die typischen 3 Bereiche mit unterschiedlicher Farbtemperatur bei einer Hochzeitsmesse geschrieben. Raw macht das Spiel leichter, es geht n icht um schlampen bei der Aufnahme :-)
Ich bin hierüber gestolpert, wie immer sehr informativ:

https://www.youtube.com/watch?v=gAZktYuRD3g








Antwort von cantsin:

Für mich ist Raw ebenfalls das probateste Mittel, um bei dokumentarischen bzw. nicht-szenischen Aufnahmen bei available light mit Mischlicht fertig zu werden. Es gibt sehr komplexe Mischlichtsituationen, bei denen die gewählte Weißabgleich-Einstellung in der Kamera (bei konventionellen 8bit/10bit-Codecs) völlig versagen kann. Bestes Beispiel sind Clubs/Bühnen mit ihren farbigen und dann noch sich dauernd verändernden Mischlichtern.

Was ich bei Resolve noch vermisse, ist ein Keyframing der Parameter im Raw-Tab. (Geht das bei FCP?) So, dass man z.B. die Farbtemperatur und den Tint gleitend verändern kann, wenn die Kamera in eine andere Lichtsituation schwenkt oder sich das Umgebungslicht ändert. Natürlich kann man das in der konventionellen Farbkorrektur erledigen, aber manchmal führt die direkte Manipulation der Raw-Parameter (bzw. der Farbkanäle vor dem Debayering) zu besseren Ergebnissen.

Raw ist auch eine gute Sache, wenn man in extremen Schwachlichtsituationen drehen muss bzw. viel Bildrauschen im Material hat - was man in der Post mit Neat & Co. deutlich (wenn nicht sogar: dramatisch) besser/hochqualitativer filtern kann als wenn das Material bereits kameraintern rauschgefiltert wurde. Wobei bei allen mir bekannten Programmen (inkl. Resolve) AFAIK noch eine API fehlt, die Third-Party-Plugins Zugriff auf das undebayerte Videobild bietet. Es scheint mir logisch, dass Neat noch bessere Ergebnisse erzielen könnte, wenn es die noch rohen/uninterpolierten RGGB-Kanäle rauschfiltern könnte.



Antwort von Mediamind:

Ich kenne keinen Weg, vor der Bearbeitung in der Timeline per Keyframe die WB anzupassen. Die rechte Seite der Kirche ist normalerweise die sonnenseite mit vielleicht 5600k, links Tagelicht aus dem Norden, deutlich kühler und am Altar eine Mischung aus beidem, zusätzlich mit in der Regel sehr warmer Kunstbeleuchtung, Keyframing könnte da tatsächlich helfen. Ich trenne diese Bereiche, soweit es möglich ist...



Antwort von pillepalle:

@ catsin

Klar hat RAW Vorteile. Eure beiden Posts zeigen ja (Hochzeit, Club/Bühne), dass gerade Mischlichtsituationen bei Usern irgendwie Schwierigkeiten verursachen. Teils aber eben auch, weil man ein falsches Verständnis davon hat.

Nicht jedes Bild muss neutral sein, oder einen technisch korrekten Weißpunkt haben. Gerade in einem Club, Bühne, ect. muss nix neutral sein. Entweder hat man eine Grund-/Raumbleuchtung nach der man sich richtet und dann die bunten Leuchten bunt sein läßt, oder alles ist Bunt und man setzt den Weißpunkt der Situation, bzw. der vorherrschenden Lichtfarbe, angepasst. Eben dem eigenen Geschmack/Look angepasst. Aber bei ändernden Lichtfarben dreht man nicht ständig an der WB. Wenn man das wirklich wollte, könnte man auch gleich die Auto-WB Funktion der Kamera einschalten. Tut man aber nicht, weil's blöd aussieht und den Betrachter irritiert.

Und genauso ist das bei einer Hochzeit. In der Kirche nutzt man eine WB und außerhalb eine andere. Und natürlich stellt der Übergang von drinnen nach draußen (nicht nur wegen der Lichtfarbe, sondern auch wegen der Lichtmenge) eine Herausforderung dar. Aber auch die kann man meistern, wenn man sich vorher darauf einrichtet. Ich hatte mir z.B. bei Dokueinsätzen die ich in ProRes gemacht hatte vor Drehbeginn immer zwei Weißpunkte gespeichert. einen für Indoor und einen für Outdoor. So könnte ich mit einem Knopfdruck den Weißpunkt ändern, ohne lange orakeln zu müssen, oder an den Kelvin herumzudrehen.

Ich glaube das was die meisten stört ist die Tatsache, dass sie sich bereits während der Aufnahme festlegen müssen. Aber auch wenn man das tut, hat man immer noch einen gewissen Spielraum in der Post. Nur eben einen geringeren als in RAW.

Und was das Rauschen betrifft kam ich meist mit ProRes Material auch schon recht weit. Im Low-Light Bereich hat man eh wenig Spielraum. Da geht es meist nur darum genug Licht auf den Sensor zu lassen und zu entscheiden was clippen darf, weil die Kontraste in der Regel genauso problematisch sind, wie die Lichtmenge an sich.

@ Mediamind

Das kann man leicht lösen indem man zwei identische Clips mit unterschiedlichen Weißpunkten übereinander legt und dann mischt (Transparenz). Habe ich selbst schon mit 10 Bit Material so bei Übergängen von drinnen nach draußen gemacht.

VG



Antwort von Mediamind:

Das ist ein interessanter Tipp, den ich unbedingt ausprobieren muss, danke dafür :-)
Grundsätzlich gebe ich Dir Recht, ich habe jedoch gerade in der Kirche meine Kämpfe fechten müssen. Beispiel: cremefarbendes Kleid, taubenblauer Anzug, 2 Kameras, die komplett andere Hintergründe, jedoch das selbe Kleid/Anzug abbilden. Da ist es schon wichtig, das man hier nicht in der WB "verrutscht". Bei Bühne und Co und farbigem Licht nehme ich eine annähernd passende Temperatur, je nach Licht, zischen ca. 3000K und 4000K unter Zuhilfenahme einer Graukarte oder einer App.



Antwort von cantsin:

pillepalle hat geschrieben:
Nicht jedes Bild muss neutral sein, oder einen technisch korrekten Weißpunkt haben. Gerade in einem Club, Bühne, ect. muss nix neutral sein. Entweder hat man eine Grund-/Raumbleuchtung nach der man sich richtet und dann die bunten Leuchten bunt sein läßt, oder alles ist Bunt und man setzt den Weißpunkt der Situation, bzw. der vorherrschenden Lichtfarbe, angepasst.
Dem widerspreche ich prinzipiell nicht. Aber: Das menschliche Auge sieht, wie oben ja schon geschrieben, Farben anders als die Kamera. D.h. wenn Du in einem Club oder Konzertsaal bist, der in das heute so beliebte monochrom-Magenta-LED-Licht getaucht ist, nimmst Du das als Zuschauer mit Deinem Auge eher wie einen Farbnebel wahr, der Dich umgibt. Außerdem stellt sich das Auge auf das monochrome Licht ein und nimmt noch Farbdifferenzierungen wahr, die Du später im Kamerabild nicht mehr siehst. Im Video hast Du dann nur noch eine monochrome Magenta-Soße, bei der noch hinzu kommt, dass (a) die Bühnen-LEDs ein erbärmliches Farbspektrum/CRIs haben und (b) dass CMOS-Sensoren äußerst ungnädig auf dieses spezielle monochrome Licht reagieren und das Bild selbst dann geclippt aussehen lassen, wenn es messtechnisch nicht geclippt ist. Hier hilft es ganz konkret, wenn bei der Kameraaufnahme das ohnehin schon eingeschränkte Farbspektrum nicht noch weiter beschnitten, sondern so gut möglich erhalten bleibt (wobei das natürlich, statt Raw, auch ein debayerter 12-/14-/16bit-Codec leisten würde).

Meine Lösung ist, um bei solchen Aufnahmen in der Weissabgleich- bzw. Farbtemperatur- und Tinteinstellung ein bisschen gegenzusteuern und Richtung Grün/Türkis zu verschieben. Auch wenn das dann keine "korrekte" Farbwiedergabe ist, hast Du dann im Videobild (und auch bei Fotos) eine bessere Farbdifferenzierung, die im nachträglichen Seheindruck IMHO natürlicher/besser ist.


Hier mal ein frisches Beispiel einer Aufnahme von der letzten Woche:
P1063386-original wb-2k.jpg Aufnahme mit "korrekter" WB-Einstellung, die das Magenta-Bühnenlicht originalgetreu wiedergibt (mit der o.g. Einschränkung, dass das menschliche Auge/Gehirn das Motiv im echten Leben anders sieht/decodiert)

P1063386.jpg Die gleiche Aufnahme mit "gegengesteuerter" WB-/Tint-Einstellung (in der Nachbearbeitung, auf der Basis des Kamera-RAWs).

IMHO kommt diese Einstellung auch der subjektiven Bildwahrnehmung der Konzertbesucher näher. Und liefert in diesem Fall auch konkret mehr Information: Nämlich, dass die Sängerin eine bildende Künstlerin ist, die Objekte in Parks und Gärten platziert, die auf den ersten Blick nicht von Pflanzen zu unterscheiden sind, und die das auch in ihre selbstgeschneiderte Bühnengarderobe umsetzt; und dass der Musiker rechts einen Anzug mit dem Design und in den Farben der (in niederländischen Großstädten populären) surinamischen Limonade Fernandes trägt. - Wenn ich noch penibler gearbeitet hätte, hätte ich den durch die WB-/Tint-Verschiebung entstandenen Grünstich auf der Basedrum maskiert und korrigiert.

Daneben ist ein zweites Problem die Continuity: Wenn sich die Farben des Club- oder Bühnenlichts wegen der Lightshow dauernd verändern, man aber mal einen nicht zu harten Schnitt setzen will, ist Raw das beste Mittel, um einen Farbsprung im Schnitt zu verhindern oder wenigstens abzumildern.



Antwort von pillepalle:

@ Mediamind

Genau. Deshalb vorher entscheiden und alle Kameras gleich einstellen. Dann sieht nicht nur das Blau immer gleich aus, sondern es ist auch leichter bei nachträglichen Änderungen in der Post. Und korrigieren lässt sich nachträglich auch noch viel.

@ catsin

Dafür hat man ja einen Monitor an dem man das Bild beurteilt. Eben weil das Auge es anders wahrnimmt. Und je besser der Monitor und die Tools, desto besser kann man auch sein Bild beurteilen.

Natürlich macht es in Deinem Fall Sinn gegenzusteuern und Dein Beispiel zeigt doch gerade, sich nicht immer blind auf eine Kameraautomatik zu verlassen. Aber es zeigt auch, scheiß Licht bleibt scheiß Licht. Daran ändert RAW wenig. Nur der Spielraum wird größer.



VG



Antwort von cantsin:

pillepalle hat geschrieben:
Dafür hat man ja einen Monitor an dem man das Bild beurteilt. Eben weil das Auge es anders wahrnimmt. Und je besser der Monitor und die Tools, desto besser kann man auch sein Bild beurteilen.
Ja, aber Du kannst auch mit dem besten Monitor beim Drehen nicht konstant die sich verändernde Lichtfarbe im Blick behalten und dann an der Kamera die WB-Einstellung während der Aufnahme dynamisch nachregeln - sozusagen neben den Fokus-Pulls auch noch WB-Pulls machen. Mein beliebter Klassiker ist, dass man am Anfang eines Konzerts oder einer Performance eine gute WB-/Tint-Einstellung macht und dann in dem Moment, wo die Band auf der Bühne loslegt, der Techniker das Licht umschaltet. - Und Veränderung der WB-Einstellung ist ja bei den meisten bzw. allen mir bekannten Kameras nicht einmal technisch möglich, es sei denn man stellt sie auf Auto-WB, was alles nur noch schlimmer machen würde. Deshalb: Raw aufnehmen, WB + Tint in der Post einstellen, und ein Problem (oder man hier in den Niederlanden so schön sagt: "eine Kopfschmerz-Akte") weniger.
Aber es zeigt auch, scheiß Licht bleibt scheiß Licht. Daran ändert RAW wenig. Nur der Spielraum wird größer.
Ja. Oder anders ausgedrückt: RAW erhält von dem Scheiß-Licht wenigstens alles, was sich verwerten lässt, so dass man das unter den miesen Umständen bestmögliche damit machen kann.



Antwort von pillepalle:

@ cantsin

Aber genau das meine ich doch. Niemand macht Whitebalancepulls während der Aufnahme. Mit einem Weißpunkt wird durchgedreht und wenn sich die Farbe ändert, dann ändert sie sich. Warum sollte pinkes Licht nicht auch im Video pink sein? Wenn es die ganze Zeit zu pink ist, dann steuere dagegen.

Wenn man Dinge dokumentiert hat man nie ideale Situationen. Raw ändert daran wenig. Wo es clippt, da clippt es auch in RAW und wenn Farben übersättigt sind, sind sie das auch in RAW. Die Aufnahmebedinungen an sich sind viel wichtiger, als die Tatsache ob ich in RAW drehe, oder nicht.

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Aber genau das meine ich doch. Niemand macht Whitebalancepulls während der Aufnahme. Mit einem Weißpunkt wird durchgedreht und wenn sich die Farbe ändert, dann ändert sie sich. Warum sollte pinkes Licht nicht auch im Video pink sein?
Siehe mein Bildbeispiel oben. Und Dein Argument, dass sich die Farbe halt ändert, wenn sie sich im Motiv ändert, kann ein Problem werden, wenn man schneidet - weil das menschliche Auge diese Farbsprünge in der Originalsituation so nicht sieht bzw. ausgleicht.

Wobei das natürlich eine Frage der Herangehensweise ist. Will man das Konzert "neutral"/objektiv dokumentieren, als Mittschnitt mit durchlaufender statischer Kamera? Oder will man eher eine subjektive Perspektive einnehmen? Wenn Du den Konzertbesuchern am nächsten Tag das Video zeigen würdest, und die erste Viertelstunde wäre pink, die zweite magenta, die dritte blau etc., wären sie sehr wahrscheinlich erstaunt und würde sich das nicht mit ihrer Erinnerung bzw. subjektiven Wahrnehmung decken. (EDIT: Wobei noch hinzukommt, dass monochromes Licht extrem giftig rüberkommen kann, wenn es von Digitalkameras aufgenommen wurde. Chemischer Film ist da viel gnädiger...)








Antwort von pillepalle:

Natürlich würden sie das nicht. Aber der Grund für das bescheidene Ergebnis ist ja das Licht. Und in RAW ist es etwas weniger bescheiden (weil man etwas mehr Spielraum bei der Korrektur hat), aber mehr auch nicht.

Hier klingt das oft so, als ob Raw die Lösung aller Probleme wäre und der Gamechanger. Ich nutze selber gerne Raw, aber das entscheidet nicht darüber, ob mein Video am Ende viel besser aussieht oder nicht.

VG



Antwort von Darth Schneider:

Das empfinde ich bei vielen Diskussionen hier auch so.
Weder RAW noch ein Fairchild, Sony oder ein Arri Sensor und auch kein Aufnahme Codec machen schöne Bilder. Ja nicht mal die teuren Gläser machen einen nennenswerten Unterschied…
Es ist schlussendlich einzig und alleine nur das Licht (und dem was vor der Kamera passiert), was wir sehen und als schön oder als unschön empfinden.
Gruss



Antwort von roki100:

Also zB. Arri Kamera + RAW oder ProRes + ALEV Sensor + Anamorphic Linse, macht kein unterschied im vergleich zB. zu 8Bit h264 + igw. Alibaba Sensor + sphärische Meike? ^^



Antwort von Darth Schneider:

Mit genug Licht und genug Leute die wissen was sie machen, natürlich vor und hinter der Kamera, eigentlich ganz klar ja !
Der Unterschied wäre zwar da, aber nur sehr klein, absolut zu vernachlässigen, fürs Publikum voll unwichtig…
Egal ob der erfahrene DoP mit einem iPhone oder mit ner Arri dreht.

Theoretisch, aber die Profis drehen lieber mit den Arris und Co., dabei geht es lange nicht nur um die Bildqualität…

Und Hobby/Prosumer Filmer geht es (gefühlt) fast nur darum, und wir haben eigentlich keine Ahnung.
Hauptsache wir glauben und wir kaufen…;))
Gruss Boris



Antwort von roki100:

Allein schon die Linse macht (in meinen Augen) doch viel aus. Selbst so ein vertikal gestrecktes (oval) Bokeh macht das Bild viel schöner, interessanter.... so, dass alle andere sphärische Linsen nur noch rumliegen und verstauben... Wie kommts das mich (auch ein Zuschauer) das so begeistert?



Antwort von Darth Schneider:

Das ist aber Pixelpeepen, zumindest für mich.
Das schöne passiert immer vor der Kamera und das ist doch hoffentlich nicht nur der unscharfe Hintergrund…

Ich finde Gläser auch toll, aber unnötiger Luxus für mich, mir reicht eigentlich das Oly, vielleicht mal noch ein lichtstärkeres 12-40…
Mehr Glas brauch ich bestimmt nicht für die Pocket.
Aber dafür viel mehr Licht…;)
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Das ist aber Pixelpeepen, zumindest für mich.
Quatsch^^ Ich habe dir (einer von den Zuschauer) geschrieben, was mir gefällt und das da eben eine gewisse Linse schon sehr relevant ist bzw. nicht unbedeutend.
Licht ist nur ein Bestandteil des ganzes...

Wir waren bei Anamorphic. Wir können auch sphärische Linsen zum vergleich nehmen; warum gefallen mir z.B. Canon FD (und ältere Canon EF) linsen mehr, als moderne? Du kannst Lampen überall platzieren wie du möchtest, das gefilmte Objekt, werde ich mit Altgläser trotzdem schöner finden. Warum und wieso, weiß ich nicht, darüber kann man nur philosophieren...wenn ich es betrachte (ein Zuschauer), wirkt das Bild eben einfach nur schöner. Und ich denke, da bin ich nicht der einzige Zuschauer, der das so sieht.

Aber auch das andere, solche tolle Entwicklungen, wie z.B. "RAW" und nicht eingebackene Whitebalance, das hat auch gute gründe ...Welche Kamera, Codecs etc. aber auch Sensoren, Linsen...zum Einsatz kommen, ist mM. nicht unbedeutend.

Natürlich gibt es auch tolle 8Bit Kameras, die auch mit größere verglichen wurden (wie z.b. damals die GH2), wo nur die lichter eine entscheidende Rolle gespielt hat, da wurde aber nur ein kamerainterne neutraler Look benutzt.... würde man aber ein anderen Look wählen (zB. Teal&Orange), würde man die unterschiede bereits beim graden deutlich erkennen.



Antwort von Darth Schneider:

Licht ist nur ein Bestandteil des Ganzen ?
Klar, genau so wie das Catering der Filmcrew, aber ein viel, viel wichtigerer Bestandteil wie du jetzt wahrscheinlich denkst, viel wichtiger wie die Objektive ganz bestimmt.

Ohne schönes Licht gibt es gar keine Szene oder irgendwas was du überhaupt filmen oder nur schön finden kannst…
Licht ist einer der technisch, allerwichtigsten und kreativsten Bestandteile des Filmemachens und Fotografierens überhaupt..
Wichtiger wie die ganze Kamera, mitsamt der zig Linsen…

Da sind wir diesbezüglich einfach grundsätzlich ganz verschiedener Meinung und eine Diskussion bringt absolut nix, also belassen wir es besser bei dem..;)
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Licht ist nur ein Bestandteil des Ganzen ?
Klar, genau so wie das Catering der Filmcrew, aber ein viel, viel wichtigerer Bestandteil wie du jetzt wahrscheinlich denkst, viel wichtiger wie die Objektive ganz bestimmt.
Die sagen sich bestimmt nicht... "Weder RAW noch ein Fairchild, Sony oder ein Arri Sensor und auch kein Aufnahme Codec machen schöne Bilder. Ja nicht mal die teuren Gläser machen einen nennenswerten Unterschied…
Es ist schlussendlich einzig und alleine nur das Licht (und dem was vor der Kamera passiert), was wir sehen und als schön oder als unschön empfinden."


...sondern wählen eben das passende Werkzeug aus und in fast alle Fällen ist da zB. keine 8Bit Kamera dabei....und auch nicht "egal welche linse" sondern die wissen ganz genau was für was benötigt wird und haben beste linse ever mit dabei, ein Koffer mit 6 Linsen kostet vll. wie ganzes Haus....

So egal scheint das also nicht zu sein. Und das weiß man auch selbst, wenn man vorher zB. mit einer 60D und später mit P4K gefilmt hat, wo eben die Vorteile sind und wo nicht... Warum also viel zu viel philosophieren wenn man doch selbst weißt?








Antwort von Darth Schneider:

Licht ist gar nicht mehr teuer….
Zum Beispiel:
Ein Setup von drei von diesen Lampen mit genug nötigem Zubehör kostet aber weniger wie zwei MFT Siuris….;)
https://www.digitec.ch/de/s1/product/ap ... t-14642505
Gruss Boris



Antwort von cantsin:

In der (Berufs-) Fotografie fotografiert niemand nur JPEG, es sei denn, es geht um möglichst schnellen Turnaround oder Vorgaben z.B. von Presseagenturen, die aus Vorsorge gegen Bildmanipulationen nur kamerainterne JPEGs akzeptieren. Man kann als Dokumentar- oder journalistischer Fotograf durch Präzision bei Kadrierung, Belichtung, Weißabgleich und sonstigen Kameraeinstellungen dahin arbeiten, dass man in den meisten Fällen fertige Kamera-JPEGs hat und die RAWs nur als Backup verwendet, falls doch noch Korrekturen nötig sind.

Unter schwierigen bzw. extremen Lichtbedingungen würde jeder mir bekannte Fotograf RAW (oder zumindest JPEG+RAW) schiessen und in Lightroom & Co entwickeln. Auch da kann man ja eine Routine entwickeln, dass die Bilder an sich gut sind bzw. nur wenige Korrekturen (wie z.B. WB...) brauchen, und ansonsten durch ein maßgeschneidertes Raw Konverter-Preset in den meisten Fällen gut entwickelt werden.

In der Fotografie ist RAW schon seit langem kein kontroverses Thema mehr, weil weder Speicherkapazität (bei Speicherkarten und auf Computerfestplatten), noch Prozessierungsgeschwindigkeit in der heutigen Zeit Hindernisse darstellen. Im Gegenteil, ich profitiere z.B. davon, dass ich aus meinen vor 15 Jahren geschossenen Raw-Fotos mit heutigen Konvertern bildqualitativ sichtbar mehr rausholen kann als damals. . Der Geheimtipp ist ja, dass man sich heute bedenkenlos eine alte Kamera wie z.B. die Nikon D90, Canon 5D Mark 1 oder Sony NEX-5N für 100-150 EUR kaufen und - auch dank dem heutigen, verbesserten Raw-Processing/Debayering/Entrauschen - für beinahe alle fotografischen Anwendungen verwenden kann.

Es gibt also in der Fotografie fast keine guten Gründen, nicht Raw zu schießen und zu archivieren.

Bei Video gäbe es eigentlich auch keine guten Gründe dagegen. Wenn z.B. (rein hypothetisch) unsere alten DV-Kameras aus den 90ern schon Raw-Video hätten aufzeichnen können, könnten wir heute mit dem Material viel mehr machen und es u.U. spektakulär hochrechnen/remastern. Die einzigen Gründe, die gegen Raw sprechen (wenn eine Videokamera dieses Aufzeichnungsmöglichkeit bietet), sind der Speicherplatz und bei vernetzt arbeitenden Teams natürlich auch die Transferzeiten. Selbst Prozessorspeed/Computerleistung ist kein Argument mehr, da z.B. die heute üblichen 10bit 4:2:2 h264/h265-Codecs deutlich mehr Schnittrechner-CPU-/GPU-Power brauchen als alle mir bekannten Raw-Videoformate (CinemaDNG, Braw, ProRes Raw). In den heutigen Versionen von Resolve und Final Cut ist die Bearbeitung von Raw-Video ebenso einfach wie von Log-Material - teilweise sogar noch einfacher (u.a. in Resolves Color-Managed Workflow bzw. in ACES, wo die Raw-Formate automatisch erkannt und in den Arbeitsfarbraum/die richtigen Farben konvertiert werden, während bei dem meisten Log-Material die Transformationen manuell zugewiesen werden müssen).

Wenn also bei einem Projekt wie z.B. einer Konzertvideoaufnahme die dabei anfallende Datenmenge unproblematisch ist, und die Kamera Raw-Videoaufnahme bietet, gibt es irgendeinen guten Grund, davon keinen Gebrauch zu machen? -

Aber klar, wenn es nur um ein Projekt geht, das man mit einer guten Kameraeinstellung (inkl. WB) problemlos aufnehmen kann und das Zielmedium z.B. Online-Video ist, kann man genausogut konventionell (10bit Log oder sogar gleich 8bit Rec709) aufnehmen, um das Ding umstandslos im Kasten zu haben. .



Antwort von Mediamind:

Ich habe in der Vergangenheit oft für mich nur wenige Vorteile in RAW gesehen. Bei meinem jetzigen Setup fällt Raw einfach in den Schoß. Ich hatte das ja weiter oben aufgeführt. Da ich nie ohne Backup drehe, kommt für mich das Recording auf mittlerweile billigen SSDs günstig und ich brauche nicht 2 V90 Karten parallel füllen. Dafür habe ich aber keine Objektivkorrektur und andere Anpassungen, die in der Kamera laufen. Auf der anderen Seite habe ich das bisher nicht als Problem erlebt. Und Noise wird tatsächlich besser mit Neat bearbeitet. Das Ergebnis ist deutlich hochwertiger.



Antwort von iasi:

Man sollte es auch nicht zu sehr verkomplizieren.

Da ist der Bayer-Sensor, der vom Hersteller auf eine Farbtemperatur abgeglichen ist.

Bei Kerzenlicht treffen dann eben nur wenige Photonen auf das Sensel hinter dem blauen Filter, wenn der Sensor auf Tageslicht ausgelegt ist. Dann hat man hier eben einen geringen Signal-Rauschabstand.

Die Kamera oder die Software schätzt/errechnet dann den Farbwert eines Bildpunktes anhand der benachbarten RGB-Werte.
Besonders gut gelingt dies, wenn das Licht dem entspricht, auf das der Sensor kalibriert ist.

Wer einen ISO800-Tageslicht-Sensor mit ISO3200 und 3200Kelvin belichtet, sollte mit einem mäßigen Ergebnis rechnen.



Antwort von Darth Schneider:

@roki

Die 60D ? Klar, und auch die 5D Mark 2….und noch früher zig andere 8Bit Kameras…
Was schwurbelst du da herum ?

Und genau darum weiss ich doch inzwischen ganz genau, RAW, schöne Gläser und 12Bit Kameras mitsamt Neat Video und der Color Page von Resolve, und all die neuen Spielzeuge nützen dem Film absolut nix wenn man diesen gar nicht oder nur schlecht ausleuchtet, oder ebenso belichtet.

Und klar, sind die Kamera, die Gläser und das Licht alles nur Werkzeuge, aber wenn ein Werkzeug davon einfach fehlt, weil du denkst du kannst das mit etwas anderem einfach kompensieren, wird das wahrscheinlich am Schluss nix besonderes…
Das kannst du drehen wie du willst.

Gruss Boris



Antwort von Darth Schneider:

@roki
Die 60D ? Klar und auch die 5D Mark 2….
Was schwurbelst du da herum ?

Das ändert doch nix.
RAW, schöne Gläser und 12Bit Kameras mitsamt Neat Video nützen oder verbessern genau mal gar nix wenn man gar nicht oder nur schlecht ausleuchtet.
Und das hat auch nix mit Philosophie zu tun….

Und womit ich früher gefilmt habe tut hier doch absolut nix zur Sache…
(Das waren übrigens zig Kameras, in den letzten (über) 30 Jahren ;))
Gruss Boris



Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
Ich habe in der Vergangenheit oft für mich nur wenige Vorteile in RAW gesehen. Bei meinem jetzigen Setup fällt Raw einfach in den Schoß. Ich hatte das ja weiter oben aufgeführt. Da ich nie ohne Backup drehe, kommt für mich das Recording auf mittlerweile billigen SSDs günstig und ich brauche nicht 2 V90 Karten parallel füllen. Dafür habe ich aber keine Objektivkorrektur und andere Anpassungen, die in der Kamera laufen. Auf der anderen Seite habe ich das bisher nicht als Problem erlebt. Und Noise wird tatsächlich besser mit Neat bearbeitet. Das Ergebnis ist deutlich hochwertiger.
Servus,
hatte es ja vor einiger Zeit auch schon probiert und war eigentlich eher überrascht wie wenig das Raw der FX6 rauscht, aber vermutlich ist dies eher meiner konsequenten Belichtung am Rande der Überbelichtug geschuldet und ich in Resolve mit RCM niemals die dunklen Partien anheben, eher runter drücken muß und wenn man trotzdem was sieht, kommt man mit einer differenzierten Nutzung des Resolve eigenen Denoiser schon bestens klar, man darf eben nicht den Fehler machen Chroma & Luma gleichermaßen hoch zu jubeln, sondern wirklich am vergrößertem Ausschnitt schauen, wann genau sind die Farbfehler weg und wann das Rauschen.

In Punkto Objektivverzerrung habe ich ganz gute Erfahrung mit der Objektivkorrektur in der Editpage gemacht, wo ich allerdings seit langen großen Verbesserungsbedarf sehe, ist eine gute Vignettenkorrektur, denn die gibt es ja immer noch nicht und muß man sich selber basteln, da wäre eine Autokorrektur anhand von Profilen oder auslesen der xml schon sehr hilfreich.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Antworten zu ähnlichen Fragen:
Log und RAW - Codec-Qualität von Blackmagic, Panasonic und Sony
Adobe Premiere Pro und After Effects bekommen ProRes RAW und mehr Neues...
RAW DSLR DSLM oder kompakte Raw Kamera für Resolve
Auch hinter Nikons neuem Video RAW Codec verbirgt sich TICO RAW
TICO-RAW - Endlich ein RAW für alle?
Ist Video RAW mit Foto RAW vergleichbar?
RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019
RAW Wars - ProRes RAW gegen CinemaDNG
Panasonic: Neue Firmware für Lumix S1H/S1R/S1 und S5 bringt besseren AF und RAW-Output für S5
Canon EOS R3: Aufnahmezeiten und Hitzelimits bei 6K 12 Bit 25p/50p RAW und 4K All-I 50p
Messevideo: Blackmagic RAW - warum besser als CDNG RAW? Inkl. Sidecarfile, unterstütze Kameras uvm. // IBC2018
Canon EOS C300 Mark III in der Praxis: Hauttöne, 10 und 12 Bit (internes) RAW und 10 Bit XF-AVC LOG Recording ?.
Canon stellt EOS C70 RAW Firmware Update 1.0.3.1 (inkl. 4K 60p Raw) zum freien Download zur Verfügung
Die RAW und LOG Aufklärung
Kamera Farbfilter und RAW - Völlig out?
C70 und Atomos ProRes RAW??
Schnittprogramme und Support RAW Formate
Workflow für 8K Raw und 4K Proxies in Resolve 14
Blackmagic Video Assist 3.1 und RAW 1.7 Updates
RawTherapee und CinemaDNG / RAW einfach nur Top!
Weitere CES-Informationen zu Nikon, RAW und Atomos
Nikon Z9 - bis zu 8K60p, ProRes HQ und später internes RAW
Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!
RED KOMODO - RAW-Sensor Verhalten und Global Shutter
Raw nicht gleich Raw?
Nikon Z6 Problem: Bild-Flackern bei LOG (und RAW) Videoaufnahme

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom