Yup, RED und BM führen das schon ne ganze Weile vor.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00
können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Kommt halt immer auf das Debayering, die Color Science, LUT etc. an. Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung". Dabei ist "korrekt" meistens gar kein Thema, viel wichtiger ist ob es gut aussieht - so wie HiFi Boxen auch den Teufel tun werden die Aufnahme "korrekt" wiederzugeben, wie lineare Nahfeldmonitore das tun. Es geht da um einen möglichst gefälligen Klang, und nicht darum das Original möglichst getreu wiederzugeben.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Das kann man (als Hersteller) so machen, muss es aber nicht unbedingt. Es ist durchaus möglich, dass man bereits vor dem Ablegen als "raw" eine digitale Vorverarbeitung vornimmt und die Sensorwerte dann bereits keine echten Rohwerte mehr sind. Beliebt bei Filmkameras ist z.B. bereits eine (verlustbehaftete) Datenkompression der Raw-Werte.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen.
Das trifft auf jede digitale Aufnahme, auf jedes Dateiformat zu. Es werden immer nur Zahlen gespeichert.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt?
Wenn ein Bayer-Sensor vorhanden ist. Das ist heute zwar gängig, aber es gibt dazu durchaus Alternativen wie andere Farbmasken. Oder die früher beliebten 3-CCD/CMOS Kameras.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild.
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.TheBubble hat geschrieben: ↑Mo 27 Apr, 2020 18:14 Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.
So ist es - es gibt absolut verschiedene Interpretationen von RAW durch die entsprechenden Softwarehersteller. Man betrachte nur die Diskussionen um Sony.ARW und C1 vs Adobe. Dabei sollte jedem klar sein, dass jeder Hersteller seine eigene Interpretation hat. Es gibt in diesem Bereich keine allgemein gültige Normen.Frank Glencairn hat geschrieben: ↑Mo 27 Apr, 2020 13:11 Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung".
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.mash_gh4 hat geschrieben: ↑Mo 27 Apr, 2020 19:28 die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.
Fixed pattern compensation?
Ich nehme an, er bezieht sich auf die Korrektur bestimmter Sensoreigenschaften:
wie gesagt, da geht's um einen grundsätzlichen paradigmenwechsel in der herangehensweise, der einem ziemlich seltsam vorkommt, wenn man mit derartigen ML-ansätzen nicht viel zu tun hat. die sachen eben nicht schritt für schritt zu erledigen bzw. nicht von der weiteren verabeitung zu isolieren, ist ist hier oft der entscheidende schlüssel, um tatsächlich wieder ein klein wenig mehr qualität herauszukitzeln. das hat damit zu tun, dass bei jedem dieser schritte interpolierungen vorgenommen werden, die danach vom anderen teil-system, das den anderen teil bearbeitet nicht mehr zu gänze nachvollzogen werden können. nur wenn man beide schritte -- also z.b. denoisen und debayern wirklich in einem gesamtsystem abzuwickeln und und zu optimieren versucht, erschließen sich hier möglichkeiten, wie es sie mit der traditonellen herangehensweise nicht gabTheBubble hat geschrieben: ↑Mo 27 Apr, 2020 20:00 Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.
Zeig mal.
Das kann eigentlich nur mit einer unterschiedlichen Interpretation der Format zu tun haben, die Regler werden nicht mal so, mal so arbeiten.roki100 hat geschrieben: ↑Mo 27 Apr, 2020 21:15 kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.
Wie ist das bei ZRAW ?cantsin hat geschrieben: ↑Mo 27 Apr, 2020 13:18Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.Fassbrause hat geschrieben: ↑Mo 27 Apr, 2020 13:00 Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.
Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples Aperture 'entwickelt' habe.
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.