Beitrag
von cantsin » So 22 Mai, 2022 17:23
In der (Berufs-) Fotografie fotografiert niemand nur JPEG, es sei denn, es geht um möglichst schnellen Turnaround oder Vorgaben z.B. von Presseagenturen, die aus Vorsorge gegen Bildmanipulationen nur kamerainterne JPEGs akzeptieren. Man kann als Dokumentar- oder journalistischer Fotograf durch Präzision bei Kadrierung, Belichtung, Weißabgleich und sonstigen Kameraeinstellungen dahin arbeiten, dass man in den meisten Fällen fertige Kamera-JPEGs hat und die RAWs nur als Backup verwendet, falls doch noch Korrekturen nötig sind.
Unter schwierigen bzw. extremen Lichtbedingungen würde jeder mir bekannte Fotograf RAW (oder zumindest JPEG+RAW) schiessen und in Lightroom & Co entwickeln. Auch da kann man ja eine Routine entwickeln, dass die Bilder an sich gut sind bzw. nur wenige Korrekturen (wie z.B. WB...) brauchen, und ansonsten durch ein maßgeschneidertes Raw Konverter-Preset in den meisten Fällen gut entwickelt werden.
In der Fotografie ist RAW schon seit langem kein kontroverses Thema mehr, weil weder Speicherkapazität (bei Speicherkarten und auf Computerfestplatten), noch Prozessierungsgeschwindigkeit in der heutigen Zeit Hindernisse darstellen. Im Gegenteil, ich profitiere z.B. davon, dass ich aus meinen vor 15 Jahren geschossenen Raw-Fotos mit heutigen Konvertern bildqualitativ sichtbar mehr rausholen kann als damals. [Und erwarte, dass sich in dieser Hinsicht durch die Weiterentwicklung von KI-Algorithmen bzw. computational photography in den nächsten Jahren noch sehr viel passieren wird, siehe Topaz, DxO Deep Prime, Photoshop/Lightroom Superresolution & Co.]. Der Geheimtipp ist ja, dass man sich heute bedenkenlos eine alte Kamera wie z.B. die Nikon D90, Canon 5D Mark 1 oder Sony NEX-5N für 100-150 EUR kaufen und - auch dank dem heutigen, verbesserten Raw-Processing/Debayering/Entrauschen - für beinahe alle fotografischen Anwendungen verwenden kann.
Es gibt also in der Fotografie fast keine guten Gründen, nicht Raw zu schießen und zu archivieren.
Bei Video gäbe es eigentlich auch keine guten Gründe dagegen. Wenn z.B. (rein hypothetisch) unsere alten DV-Kameras aus den 90ern schon Raw-Video hätten aufzeichnen können, könnten wir heute mit dem Material viel mehr machen und es u.U. spektakulär hochrechnen/remastern. Die einzigen Gründe, die gegen Raw sprechen (wenn eine Videokamera dieses Aufzeichnungsmöglichkeit bietet), sind der Speicherplatz und bei vernetzt arbeitenden Teams natürlich auch die Transferzeiten. Selbst Prozessorspeed/Computerleistung ist kein Argument mehr, da z.B. die heute üblichen 10bit 4:2:2 h264/h265-Codecs deutlich mehr Schnittrechner-CPU-/GPU-Power brauchen als alle mir bekannten Raw-Videoformate (CinemaDNG, Braw, ProRes Raw). In den heutigen Versionen von Resolve und Final Cut ist die Bearbeitung von Raw-Video ebenso einfach wie von Log-Material - teilweise sogar noch einfacher (u.a. in Resolves Color-Managed Workflow bzw. in ACES, wo die Raw-Formate automatisch erkannt und in den Arbeitsfarbraum/die richtigen Farben konvertiert werden, während bei dem meisten Log-Material die Transformationen manuell zugewiesen werden müssen).
Wenn also bei einem Projekt wie z.B. einer Konzertvideoaufnahme die dabei anfallende Datenmenge unproblematisch ist, und die Kamera Raw-Videoaufnahme bietet, gibt es irgendeinen guten Grund, davon keinen Gebrauch zu machen? [Und sei es auch nur, um z.B. in der Post hochqualitativer bzw. mit sichtlich besserer resultierender Bildqualität zu entrauschen?] -
Aber klar, wenn es nur um ein Projekt geht, das man mit einer guten Kameraeinstellung (inkl. WB) problemlos aufnehmen kann und das Zielmedium z.B. Online-Video ist, kann man genausogut konventionell (10bit Log oder sogar gleich 8bit Rec709) aufnehmen, um das Ding umstandslos im Kasten zu haben. [Obwohl man sich in 10 oder 20 Jahren vielleicht mal ärgern könnte, dass man damals geknausert hat - und selbst nur in dem Fall, bei der Rec709-Aufnahme, dass dann HDR-Video Standard sein könnte und niemand mehr so gerne SDR sieht].