Frage von Fassbrause:Hallo Leute,
wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen. Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt? Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild. Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Wisst ihr Bescheidt? Was meint ihr? Und korrigiert mich gerne, wenn ich mit irgendetwas falsch liege.
Antwort von Frank Glencairn:
Fassbrause hat geschrieben:
können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Yup, RED und BM führen das schon ne ganze Weile vor.
Fassbrause hat geschrieben:
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?
Kommt halt immer auf das Debayering, die Color Science, LUT etc. an. Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung". Dabei ist "korrekt" meistens gar kein Thema, viel wichtiger ist ob es gut aussieht - so wie HiFi Boxen auch den Teufel tun werden die Aufnahme "korrekt" wiederzugeben, wie lineare Nahfeldmonitore das tun. Es geht da um einen möglichst gefälligen Klang, und nicht darum das Original möglichst getreu wiederzugeben.
Antwort von cantsin:
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.
Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.
Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples Aperture 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.
Antwort von TheBubble:
Fassbrause hat geschrieben:
wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen.
Das kann man (als Hersteller) so machen, muss es aber nicht unbedingt. Es ist durchaus möglich, dass man bereits vor dem Ablegen als "raw" eine digitale Vorverarbeitung vornimmt und die Sensorwerte dann bereits keine echten Rohwerte mehr sind. Beliebt bei Filmkameras ist z.B. bereits eine (verlustbehaftete) Datenkompression der Raw-Werte.
Auch Dinge wie ein erstes Entrauschen, ein erstes Skalieren der Werte und auch "Ausbessern" bekannter Sensor-Defekte bieten sich schon vor der Speicherung an. Vieles ist möglich, die Übergänge sind fließend, was genau passiert müssten die Hersteller beantworten.
Fassbrause hat geschrieben:
Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt?
Das trifft auf jede digitale Aufnahme, auf jedes Dateiformat zu. Es werden immer nur Zahlen gespeichert.
Fassbrause hat geschrieben:
Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild.
Wenn ein Bayer-Sensor vorhanden ist. Das ist heute zwar gängig, aber es gibt dazu durchaus Alternativen wie andere Farbmasken. Oder die früher beliebten 3-CCD/CMOS Kameras.
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.
Dies bedeutet, dass alle Nachbearbeitungen, Effekte, Kompositionen und natürlich die Farbanpassung erst danach kommen. Und diese Schritte benötigen oft viele Zeitstunden manueller Arbeit, so dass es meist nicht wirtschaftlich sein dürfte, auf die Originaldateien der Kamera zurückzugehen, wenn es kleine Verbesserungsmöglichkeiten gibt.
Antwort von mash_gh4:
TheBubble hat geschrieben:
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.
Antwort von Cinealta 81:
"Frank Glencairn" hat geschrieben:
Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung".
So ist es - es gibt absolut verschiedene Interpretationen von RAW durch die entsprechenden Softwarehersteller. Man betrachte nur die Diskussionen um Sony.ARW und C1 vs Adobe. Dabei sollte jedem klar sein, dass jeder Hersteller seine eigene Interpretation hat. Es gibt in diesem Bereich keine allgemein gültige Normen.
Antwort von TheBubble:
mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.
Ich selbst halte die vielen kameraspezifischen Raw-Formate für keine gute Lösung: Eine klare Schnittstelle zwischen dem, was die Kamera an Daten abliefert und dem, was die weitere Software (Schnitt, Grading, FX, usw.) entgegennimmt ist letztlich nützlicher. Die Einzelfälle, wo ein manuelles Eingreifen wirklich etwas bringt sind nun mal Einzelfälle.
Man auch mit einem Raw-Entwickler als Preprocesser arbeiten, der Gedanke in jeder Software hunderte von Kameras unterstützen zu müssen ist jedoch absurd.
Antwort von -paleface-:
mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. --
Fixed pattern compensation?
Was ist das?
Antwort von TheBubble:
-paleface- hat geschrieben:
Fixed pattern compensation?
Was ist das?
Ich nehme an, er bezieht sich auf die Korrektur bestimmter Sensoreigenschaften:
https://en.wikipedia.org/wiki/Fixed-pattern_noise
Antwort von mash_gh4:
TheBubble hat geschrieben:
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.
wie gesagt, da geht's um einen grundsätzlichen paradigmenwechsel in der herangehensweise, der einem ziemlich seltsam vorkommt, wenn man mit derartigen ML-ansätzen nicht viel zu tun hat. die sachen eben nicht schritt für schritt zu erledigen bzw. nicht von der weiteren verabeitung zu isolieren, ist ist hier oft der entscheidende schlüssel, um tatsächlich wieder ein klein wenig mehr qualität herauszukitzeln. das hat damit zu tun, dass bei jedem dieser schritte interpolierungen vorgenommen werden, die danach vom anderen teil-system, das den anderen teil bearbeitet nicht mehr zu gänze nachvollzogen werden können. nur wenn man beide schritte -- also z.b. denoisen und debayern wirklich in einem gesamtsystem abzuwickeln und und zu optimieren versucht, erschließen sich hier möglichkeiten, wie es sie mit der traditonellen herangehensweise nicht gab
siehe z.b.:
http://on-demand.gputechconf.com/gtc/20 ... tworks.pdf
http://www.cs.ubc.ca/labs/imager/tr/2014/FlexISP/
Antwort von roki100:
wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...
Antwort von dienstag_01:
roki100 hat geschrieben:
wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...
Zeig mal.
Antwort von roki100:
kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.
Antwort von dienstag_01:
roki100 hat geschrieben:
kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.
Das kann eigentlich nur mit einer unterschiedlichen Interpretation der Format zu tun haben, die Regler werden nicht mal so, mal so arbeiten.
Antwort von Fassbrause:
Danke für eure Antworten, Leute. Ihr habt etwas Licht ins Dunkel gebracht :)
Antwort von micha2305:
cantsin hat geschrieben:
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.
Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.
Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples Aperture 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.
Wie ist das bei ZRAW ?
Ist ZRAW, einfach formuliert, CDNG oder BRAW ähnlicher ?
|
Antwort von roki100:
ZRAW ist chinesisches BRAW
Antwort von micha2305:
roki100 hat geschrieben:
ZRAW ist chinesisches BRAW
Also eher wie Braw.
Und Prores Raw ?