Logo Logo
/// 

Kann RAW eigentlich besser werden?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Frage von Fassbrause:


Hallo Leute,

wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen. Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt? Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild. Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.

Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?

Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.

Wisst ihr Bescheidt? Was meint ihr? Und korrigiert mich gerne, wenn ich mit irgendetwas falsch liege.



Antwort von Frank Glencairn:

Fassbrause hat geschrieben:

können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Yup, RED und BM führen das schon ne ganze Weile vor.
Fassbrause hat geschrieben:

Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität? Wenn ich beispielsweise Footage von der neuen Canon C500 Mark II mit Footage der Canon C200 vergleiche sind Farben o.ä. mehr oder weniger identisch, korrekt?
Kommt halt immer auf das Debayering, die Color Science, LUT etc. an. Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung". Dabei ist "korrekt" meistens gar kein Thema, viel wichtiger ist ob es gut aussieht - so wie HiFi Boxen auch den Teufel tun werden die Aufnahme "korrekt" wiederzugeben, wie lineare Nahfeldmonitore das tun. Es geht da um einen möglichst gefälligen Klang, und nicht darum das Original möglichst getreu wiederzugeben.



Antwort von cantsin:

Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.

Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.

Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples ApertureAperture im Glossar erklärt 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.








Antwort von TheBubble:

Fassbrause hat geschrieben:
wenn man im RAW-Format aufnimmt werden nur Sensordaten abgespeichert, ohne Image-Processing oder dergleichen.
Das kann man (als Hersteller) so machen, muss es aber nicht unbedingt. Es ist durchaus möglich, dass man bereits vor dem Ablegen als "raw" eine digitale Vorverarbeitung vornimmt und die Sensorwerte dann bereits keine echten Rohwerte mehr sind. Beliebt bei Filmkameras ist z.B. bereits eine (verlustbehaftete) Datenkompression der Raw-Werte.

Auch Dinge wie ein erstes Entrauschen, ein erstes Skalieren der Werte und auch "Ausbessern" bekannter Sensor-Defekte bieten sich schon vor der Speicherung an. Vieles ist möglich, die Übergänge sind fließend, was genau passiert müssten die Hersteller beantworten.
Fassbrause hat geschrieben:
Diese Daten sind ja erstmal keine "Bild"-Daten sondern bestehen nur aus "Zahlen"-Werten, korrekt?
Das trifft auf jede digitale Aufnahme, auf jedes Dateiformat zu. Es werden immer nur Zahlen gespeichert.
Fassbrause hat geschrieben:
Die Software unserer Wahl "debayered" dann unsere rohen Sensordaten und macht sie zum Bild.
Wenn ein Bayer-Sensor vorhanden ist. Das ist heute zwar gängig, aber es gibt dazu durchaus Alternativen wie andere Farbmasken. Oder die früher beliebten 3-CCD/CMOS Kameras.
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.

Dies bedeutet, dass alle Nachbearbeitungen, Effekte, Kompositionen und natürlich die Farbanpassung erst danach kommen. Und diese Schritte benötigen oft viele Zeitstunden manueller Arbeit, so dass es meist nicht wirtschaftlich sein dürfte, auf die Originaldateien der Kamera zurückzugehen, wenn es kleine Verbesserungsmöglichkeiten gibt.



Antwort von mash_gh4:

TheBubble hat geschrieben:
Auch heute unterscheidet sich der Eindruck und die Qualität bereits durch das gewählte Verfahren. Es ist natürlich denkbar, das es zukünftig noch interessante und bessere Verfahren geben wird (man merkt ja an der Software-Seite, dass sich ab und zu etwas tut), aber man muß sich immer vor Augen hablten, dass insbesondere ein Debayering ganz weit vorne in der digitalen Verarbeitungskette steht.
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.



Antwort von Cinealta 81:

"Frank Glencairn" hat geschrieben:
Wenn du ein RAW Foto mit verschiedenen Programmen "entwickelst" siehst du ja auch die Unterschiede in der Qualität der "Entwicklung".
So ist es - es gibt absolut verschiedene Interpretationen von RAW durch die entsprechenden Softwarehersteller. Man betrachte nur die Diskussionen um Sony.ARW und C1 vs Adobe. Dabei sollte jedem klar sein, dass jeder Hersteller seine eigene Interpretation hat. Es gibt in diesem Bereich keine allgemein gültige Normen.



Antwort von TheBubble:

mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. -- nicht mehr hintereinander in einzelschritten in der pipeline abarbeitet, sondern komplexe neuronale netze damit beschäftigt, die quasi das gesamtsystem zu optimieren versuchen. genau solche sachen werden aber durch diese ganzen pseudo-RAW-formate, die einen großen teil des processings doch wieder in der kamera vorwegnehmen, weitestgehend verunmöglicht.
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.

Ich selbst halte die vielen kameraspezifischen Raw-Formate für keine gute Lösung: Eine klare Schnittstelle zwischen dem, was die Kamera an Daten abliefert und dem, was die weitere Software (Schnitt, Grading, FX, usw.) entgegennimmt ist letztlich nützlicher. Die Einzelfälle, wo ein manuelles Eingreifen wirklich etwas bringt sind nun mal Einzelfälle.

Man auch mit einem Raw-Entwickler als Preprocesser arbeiten, der Gedanke in jeder Software hunderte von Kameras unterstützen zu müssen ist jedoch absurd.



Antwort von -paleface-:

mash_gh4 hat geschrieben:
die wirklich interessanten neueren ansätze bestehen oft darin, dass man die elementaren bearbeitungsschritte -- also z.b.: debayern, entrauschen, fixed pattern compensation etc. --
Fixed pattern compensation?

Was ist das?



Antwort von TheBubble:

-paleface- hat geschrieben:
Fixed pattern compensation?

Was ist das?
Ich nehme an, er bezieht sich auf die Korrektur bestimmter Sensoreigenschaften:
https://en.wikipedia.org/wiki/Fixed-pattern_noise



Antwort von mash_gh4:

TheBubble hat geschrieben:
Die Hersteller können das gerne integrieren. Ein wirklich "echtes" raw dürfte aber ohnehin fast niemand anbieten: Dinge wie eine Normalisierung von Werten, ein Ausblenden von defekten Pixeln, ein erstes Entrauschen usw., hier liegt eine Integration direkt in die Kamera-Hardware einfach nahe.
wie gesagt, da geht's um einen grundsätzlichen paradigmenwechsel in der herangehensweise, der einem ziemlich seltsam vorkommt, wenn man mit derartigen ML-ansätzen nicht viel zu tun hat. die sachen eben nicht schritt für schritt zu erledigen bzw. nicht von der weiteren verabeitung zu isolieren, ist ist hier oft der entscheidende schlüssel, um tatsächlich wieder ein klein wenig mehr qualität herauszukitzeln. das hat damit zu tun, dass bei jedem dieser schritte interpolierungen vorgenommen werden, die danach vom anderen teil-system, das den anderen teil bearbeitet nicht mehr zu gänze nachvollzogen werden können. nur wenn man beide schritte -- also z.b. denoisen und debayern wirklich in einem gesamtsystem abzuwickeln und und zu optimieren versucht, erschließen sich hier möglichkeiten, wie es sie mit der traditonellen herangehensweise nicht gab

siehe z.b.:
http://on-demand.gputechconf.com/gtc/20 ... tworks.pdf
http://www.cs.ubc.ca/labs/imager/tr/2014/FlexISP/



Antwort von roki100:

wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...



Antwort von dienstag_01:

roki100 hat geschrieben:
wenn ich CDNG in Affiniy Photo lade und die Highlights/Lichter runterziehen, verhält sich das anderes als z.B. RW2 oder ARW. Bei CDNG ist da viel mehr spiel...
Zeig mal.








Antwort von roki100:

kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.



Antwort von dienstag_01:

roki100 hat geschrieben:
kann ich irgendwann machen. Bei RW2 habe ich letztens gemerkt, dass mit "Belichtung"-Regler (ISO/Exposure) noch etwas zu retten ist, dennoch wirkt der Regler "Lichter" z.B. auf ausgebrannte Haut anders.
Affinity Photo + CDNG und RAW Regler "Lichter" wirkt auf das Bild so, wie in DaVinci Resolve Highlights mit der aktivierten Option Highlight Recovery.
RW2 verhält sich so, als gebe es da gar kein Highlight Recovery, nur Highlights +/- Regler.
Das kann eigentlich nur mit einer unterschiedlichen Interpretation der FormatFormat im Glossar erklärt zu tun haben, die Regler werden nicht mal so, mal so arbeiten.



Antwort von Fassbrause:

Danke für eure Antworten, Leute. Ihr habt etwas Licht ins Dunkel gebracht :)



Antwort von micha2305:

cantsin hat geschrieben:
Fassbrause hat geschrieben:
Mit anderen Worten, wenn wir RAW aufnehmen, können unsere Aufnahmen in der Zukunft in neuem Glanz erscheinen lassen, da das Debayering durch technischen Fortschritt besser wird.
Ja, das stimmt - wenn man den nötigen Speicherplatz hat, um die RAW-Kameradateien zu archivieren.

Bei Videos gibt es allerdings z.Zt. die Einschränkung, dass die Standardprogramme - einschließlich Resolve - hinsichtlich der verwendeten Debayering-Algorithmen Black Boxes sind.

Bei meinen Fotos (bei denen die RAW-Archivierung ein kleineres Problem ist), kann ich die Fortschritte sogar sehr konkret sehen. Was ich heute mit RawTherapee z.B. aus meinen Nikon D90-RAW-Fotos von vor zehn Jahren herausholen kann, ist Klassen besser als das, was ich damals mit Apples ApertureAperture im Glossar erklärt 'entwickelt' habe.
Jetzt frage ich mich, gibt es dann eigentlich Unterschiede in der RAW-Qualität?
Auf zwei Ebenen: (a) des Sensors, (b) des Codecs. Zuerst zu (b): die wenigsten RAW-Videoformate geben die Sensordaten tatsächlich ungefiltert wieder, sondern diverse Bildfilterungen wie verlustbehaftete Datenkompression, z.Zt. auch Entrauschen (bei Blackmagics BRAW) und Korrektur optischer Fehler (wie Black Sun) können bereits eingebacken sein. Zum Beispiel sieht das Bild, das die BM Pocket 4K mit DNG (CinemaDNG oder Stills) erzeugt, deutlich anders aus, als das (weichere) Bild, das bei der BRAW-Aufzeichnung entsteht. Zu (a): verschiedene Sensoren erzeugen verschiedene Bilder - je nach Konstruktion und verwendeten Technologien, Sensel-Größe, auf den Sensor angebrachten optischen Filtern wie IR Cut und Anti-Aliasing.
Gleichzeitig sind aber die Color Sciences einer Sony FX9 und einer Canon C500 Mark II unterschiedlich. Es wäre beim Grading kein Leichtes, diese beiden Kandidaten aneinander anzugleichen.
Das geht aber schon einigermaßen gut, wenn man bei den Kameras in genormten Farbprofilen filmt und dann ACES oder Resolves Farbraum-Transformationstool verwendet und ggfs. noch mit Color Chart-Angleichung feintunet.
Wie ist das bei ZRAW ?

Ist ZRAW, einfach formuliert, CDNG oder BRAW ähnlicher ?



Antwort von roki100:

ZRAW ist chinesisches BRAW



Antwort von micha2305:

roki100 hat geschrieben:
ZRAW ist chinesisches BRAW
Also eher wie Braw.

Und Prores Raw ?




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Antworten zu ähnlichen Fragen:
Messevideo: Blackmagic RAW - warum besser als CDNG RAW? Inkl. Sidecarfile, unterstütze Kameras uvm. // IBC2018
Suche einen PC der 4 K Material schneiden kann und mit Solar betrieben werden kann.
RAW im Bewegtbild... warum eigentlich so selten?
Kann man einen DVD-Recorder eigentlich aufrüsten?
Alles soll besser werden: RED kündigt Hydrogen Two und Cine-Kameramodul an
Warum kann man RAW-Video nicht wie RAW-Fotos bearbeiten
Nikon Z6 RAW - Besser als ProRES?
Was David Fincher besser kann als Tarantino und Nolan
Videofile kann abgespielt aber nicht bearbeitet werden
Export fehlerhaft (1kb / kann nicht geöffnet werden)
Patch VDL Premium (Akt.Vers.) 16.0.3.66 kann heruntergeladen werden
Neuer Patch für Photostory d.L. (Akt.) 16.1.1.44 kann aktualisiert werden
MP4-Datei mit 50 FPS kann nicht abgespielt werden
Werden REDs RAW Patente für ungültig erklärt?
.mov kann nicht wiedergegeben bzw. bearbeitet werden (rätselhafter Codec)
The Show must go on -- Netflix zeigt, wie in Noch-Coronazeiten gedreht werden kann
F: Wie mpg umwandeln, sodass DVD-Video gebrannnt (VOB) werden kann?
Canopus ADVC50 7 Firewire Probleme / Das Gerät kann nicht gestartet werden
Canon GX7 Video mit 50 FPS kann auf aktuellem TV nicht abgespielt werden
ts-Datei kann nicht vom USB-Stick kopiert werden, aber wohl von externer HD
Clever gelöst: Apertus Axiom Beta kann UHD RAW via HDMI
Sonys neuer XEVC Codec basiert auf HEVC und kann 12-Bit 8K RAW?
Wann ist 3D eigentlich 3D?
Was macht eigentlich die XC?
Was machen eigentlich .... die HyperChargeBatteries?
Diskussionen im TV: Was ist eigentlich diese Digitalisierung!?

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom