Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Infoseite // Kann RAW eigentlich besser werden?



Frage von Fassbrause:


Hallo Leute,

wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen. Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt? Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild. Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.

Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?

Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.

Wisst ihr Bescheidt? Was meint ihr? Und korrigiert mich gerne, wenn ich mit irgendetwas falsch liege.

Space


Antwort von Frank Glencairn:

Fassbrause hat geschrieben:

können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Yup, RED und BM führen das schon ne ganze Weile vor.
Fassbrause hat geschrieben:

Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?
Kommt halt immer auf das Debayering, die Color Science, LUT etc. an. Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung". Dabei ist "korrekt" meistens gar kein Thema, viel wichtiger ist ob es gut aussieht - so wie HiFi Boxen auch den Teufel tun werden die Aufnahme "korrekt" wiederzugeben, wie lineare Nahfeldmonitore das tun. Es geht da um einen möglichst gefälligen Klang, und nicht darum das Original möglichst getreu wiederzugeben.

Space


Antwort von cantsin:

Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.

Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.

Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples Aperture 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen. Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.

Space


Antwort von TheBubble:

Fassbrause hat geschrieben:
wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen.
Das kann man (als Hersteller) so machen, muss es aber nicht unbedingt. Es ist durchaus möglich, dass man bereits vor dem Ablegen als "raw" eine digitale Vorverarbeitung vornimmt und die Sensorwerte dann bereits keine echten Rohwerte mehr sind. Beliebt bei Filmkameras ist z.B. bereits eine (verlustbehaftete) Datenkompression der Raw-Werte.

Auch Dinge wie ein erstes Entrauschen, ein erstes Skalieren der Werte und auch "Ausbessern" bekannter Sensor-Defekte bieten sich schon vor der Speicherung an. Vieles ist möglich, die Übergänge sind fließend, was genau passiert müssten die Hersteller beantworten.
Fassbrause hat geschrieben:
Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt?
Das trifft auf jede digitale Aufnahme, auf jedes Dateiformat zu. Es werden immer nur Zahlen gespeichert.
Fassbrause hat geschrieben:
Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild.
Wenn ein Bayer-Sensor vorhanden ist. Das ist heute zwar gängig, aber es gibt dazu durchaus Alternativen wie andere Farbmasken. Oder die früher beliebten 3-CCD/CMOS Kameras.
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.

Dies bedeutet, dass alle Nachbearbeitungen, Effekte, Kompositionen und natürlich die Farbanpassung erst danach kommen. Und diese Schritte benötigen oft viele Zeitstunden manueller Arbeit, so dass es meist nicht wirtschaftlich sein dürfte, auf die Originaldateien der Kamera zurückzugehen, wenn es kleine Verbesserungsmöglichkeiten gibt.

Space


Antwort von mash_gh4:

TheBubble hat geschrieben:
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.

Space


Antwort von Cinealta 81:

"Frank Glencairn" hat geschrieben:
Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung".
So ist es - es gibt absolut verschiedene Interpretationen von RAW durch die entsprechenden Softwarehersteller. Man betrachte nur die Diskussionen um Sony.ARW und C1 vs Adobe. Dabei sollte jedem klar sein, dass jeder Hersteller seine eigene Interpretation hat. Es gibt in diesem Bereich keine allgemein gültige Normen.

Space


Antwort von TheBubble:

mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.

Ich selbst halte die vielen kameraspezifischen Raw-Formate für keine gute Lösung: Eine klare Schnittstelle zwischen dem, was die Kamera an Daten abliefert und dem, was die weitere Software (Schnitt, Grading, FX, usw.) entgegennimmt ist letztlich nützlicher. Die Einzelfälle, wo ein manuelles Eingreifen wirklich etwas bringt sind nun mal Einzelfälle.

Man auch mit einem Raw-Entwickler als Preprocesser arbeiten, der Gedanke in jeder Software hunderte von Kameras unterstützen zu müssen ist jedoch absurd.

Space


Antwort von -paleface-:

mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. --
Fixed pattern compensation?

Was ist das?

Space


Antwort von TheBubble:

-paleface- hat geschrieben:
Fixed pattern compensation?

Was ist das?
Ich nehme an, er bezieht sich auf die Korrektur bestimmter Sensoreigenschaften:
https://en.wikipedia.org/wiki/Fixed-pattern_noise

Space



Space


Antwort von mash_gh4:

TheBubble hat geschrieben:
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.
wie gesagt, da geht's um einen grundsätzlichen paradigmenwechsel in der herangehensweise, der einem ziemlich seltsam vorkommt, wenn man mit derartigen ML-ansätzen nicht viel zu tun hat. die sachen eben nicht schritt für schritt zu erledigen bzw. nicht von der weiteren verabeitung zu isolieren, ist ist hier oft der entscheidende schlüssel, um tatsächlich wieder ein klein wenig mehr qualität herauszukitzeln. das hat damit zu tun, dass bei jedem dieser schritte interpolierungen vorgenommen werden, die danach vom anderen teil-system, das den anderen teil bearbeitet nicht mehr zu gänze nachvollzogen werden können. nur wenn man beide schritte -- also z.b. denoisen und debayern wirklich in einem gesamtsystem abzuwickeln und und zu optimieren versucht, erschließen sich hier möglichkeiten, wie es sie mit der traditonellen herangehensweise nicht gab

siehe z.b.:
http://on-demand.gputechconf.com/gtc/20 ... tworks.pdf
http://www.cs.ubc.ca/labs/imager/tr/2014/FlexISP/

Space


Antwort von roki100:

wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...

Space


Antwort von dienstag_01:

roki100 hat geschrieben:
wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...
Zeig mal.

Space


Antwort von roki100:

kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.

Space


Antwort von dienstag_01:

roki100 hat geschrieben:
kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.
Das kann eigentlich nur mit einer unterschiedlichen Interpretation der Format zu tun haben, die Regler werden nicht mal so, mal so arbeiten.

Space


Antwort von Fassbrause:

Danke für eure Antworten, Leute. Ihr habt etwas Licht ins Dunkel gebracht :)

Space


Antwort von micha2305:

cantsin hat geschrieben:
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.

Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.

Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples Aperture 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen. Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.
Wie ist das bei ZRAW ?

Ist ZRAW, einfach formuliert, CDNG oder BRAW ähnlicher ?

Space


Antwort von roki100:

ZRAW ist chinesisches BRAW

Space


Antwort von micha2305:

roki100 hat geschrieben:
ZRAW ist chinesisches BRAW
Also eher wie Braw.

Und Prores Raw ?

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Antworten zu ähnlichen Fragen //


Was David Fincher besser kann als Tarantino und Nolan
GH5: C1, C2 C3.... > Was kann ich besser machen?
Kann Chat GPT Bilder besser verlustfrei komprimieren als PNG?
Kann ich Audio in 192 kHz besser entrauschen?
Ich mache eigentlich nur "Nischenfilme" Schaust Du trotzdem?
Wer stempelt eigentlich Streetview Fotos?
Was ist eigentlich eine LUT?
Was macht eigentlich PRR in Resolve?
Was bedeutet eigentlich Rolling Shutter und welche Werte sind gut?
The Show must go on -- Netflix zeigt, wie in Noch-Coronazeiten gedreht werden kann
Kann so eine vergessliche Person:inn Kanzlerin werden?
Neue Parrot Anafi Ai Drohne kann per LTE geflogen werden
Nikon Z6 RAW - Besser als ProRES?
AtomOS 10.94.01 - RAW Noise, besser als vorher?
Updates da: Canon R5 kann jetzt 8K ProRes RAW mit dem Ninja V+ aufzeichnen
FeiyuTech Firmware Updates - besser über USB
V12 BMW E31 850i besser als Tatort




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash