Frage von WoWu:Liebe Kollegen,
vielleicht eine kleine Denkaufgabe, für lange, langweilige Weihnachtsnachmittage.
Mich würde Eure Einschätzung interessieren, was für Euch (noch) RAW ist.
Es gibt bekannlich ja keine Standardisierung und jeder Hersteller kann jedes beliebeige Signal als RAW bezeichnen.
Wovon sie auch bekannlich munter Gebrauch machen.
Dass kein Signal unbearbeitet die Kamera verlässt dürfte sich auch mittlerweile herumgesprochen haben.
Daher sind solche Definitionen, wie "Sensorsignal" auch lediglich Phantasie.
Aber wo hört es auf?
Wie weit darf bearbeitet werden, bevor es kein RAW mehr ist ?
Ist Kompression noch RAW ?
Kann man ein Signal, auf das man nicht einmal Zugriff auf die Interpolation erhält eigentlich noch RAW nennen ?
An welcher Stelle wird, Eurer Meinung nach, aus einem RAW-File ein Video Signal ?
Mich würden da Eure Meinungen interessieren.
Bitte keine Wickie-o.Ä. Links, die es zu Hauf im Netz gibt und die alle was Anderes sagen, sondern das, was IHR als RAW bewertet.
Freuen würde ich mich auch über das WARUM.
Merry XMAS
Antwort von srone:
als erster kleiner einwurf, frühestens wenn es transportfähig bzw auf ein existentes medium über einen ausreichend langen zeitraum schreibbar ist.
lg
srone
Antwort von WoWu:
Daraus lese ich, dass es für Dich jedes beliebige File-Format sein kann.
Lass mich da nochmal nach dem Inhalt nachfrage.
Welche Bearbeitungsschritte gehören (für Dich) noch zu RAW und welche nicht mehr.
Ich gehe mal davon aus, dass Hot-Pixel, linearisierung der Pixels und Homogenisierung der Pixels sowie des Noise zur Kamera-Vorverarbeitung gehören, weil man das eigentlich in der Nachbearbeitung gar nicht kann.
Wo aber steht für Dich z.B. die Möglichkeit, ins De-Bayering einzugreifen?
Unterschiedliche De-bayer Algorithmen auswählen zu können ?
Muss ein RAW das für Dich das noch zulassen oder könnte das bereits die Kamera machen und interpolierte Ergebnisse als RAW (File) ausgeben ?
Antwort von cantsin:
Meine Definition: ein Signal, das ohne Debayering in der nativen Bittiefe des Sensors aufgezeichnet wird. Dabei können Daten durchaus (wie bei Red und Cineform) verlustbehaftet komprimiert und meinetwegen auch Nachbearbeitungen wie z.B. geometrische Objektiv-Verzeichnungskorrektur fest in die Datei eingebrannt werden.
Antwort von srone:
das fileformat sollte, im moment wohl am besten auf ssd"s, ein maximum an information transportieren, aber handlebar bleiben, ich denke, bei einer vernünftigen prozessorleistung, sollte sich ein sensorstream in echtzeit verlustfrei "packen" lassen.
de-bayering, kann ich mir gut in der post vorstellen, sozusagen einen bildcharakterlichen ansatz schaffen.
lg
srone
Antwort von srone:
... verlustbehaftet...
wenn schreibbar, nicht nötig.
lg
srone
Antwort von didah:
für mich ist RAW das UNKOMREMIERTE bild. dass das dann in formate wie .cr2, .nef. .raw, .dng, oder .arw gespeichert wird ist mir reklativ egal - die dateigrösse spricht dafür, dass unabhängig vom (ausgabe)format die bildinformation unkompremiert gespeichert werden - aber das ist mehr geraten, gefült als auf tatsachen begründet..
lg
Antwort von Alf_300:
Unkomprimiertes Bild klingt gut, - das seh ich mit em Auge - das was die Kamera sieht und aufzeichnet ist was Anderes,
Antwort von WoWu:
Aber wo hört RAW bei Euch auf ?
Ab wann ist es kein RAW Signal mehr, sondern ein Videosignal ?
RAW ist nach meiner Auffassung ebenfalls ein Signal, das bisher nur die sensorspezifischen Bearbeitungen durchlaufen hat (Dead Pixel, linearisierung der Pixel und Ausgleich der Inhomogänität) aber eben noch nicht sichtbar ist, wohl aber abgespeichert wird. Für mich ist es auch noch farbraumneutral, also ohne De-Bayering.
Nur wo hört RAW dann auf. Wann ist es nicht mehr RAW ?
Kann man noch von RAW sprechen, wenn ich keinen Einfluss auf das De-bayering habe, und statt 12 Bit nur noch 10 in meinem NLE bearbeiten kann?
Sind dann nicht schon grosse Teile meiner Dynamik den Schornstein rauf gegangen, (um im weihnachtlichen Bild zu bleiben) ?
Hat dann nicht vielmehr mein NLE oder die sonstige Nachbearbeitung nur noch das erledigt, was sonst in der Kamera erledigt worden ist, wenn ich ohnehin keinen Einfluss darauf habe ?
Arbeite ich dann eigentlich noch mit einem RAW Signal ?
Oder nur mit einem, nach aussen verlegten Kameraprocessing ? Und RAW wird zum Etikett ?
Leider gibt es ja keine Normierung für RAW und jeder Hersteller kann jedes mögliche Signal als RAW bezeichnen.
Daher versuche ich mal, das Ende der Fahnenstange zu sehen.
Also, nochmal die Frage .. wo hört für Euch RAW (mit all seinen Vorzügen) eigentlich auf ?
Antwort von hannes:
> Aber wo hört RAW bei Euch auf ?
da, wo es anfängt, Arbeit zu machen. ;-)
Ehrlich gesagt, mir ist das Gehampel zu elitär und zu aufwendig.
Zu dem bin ich die ellenlangen Diskussionen im Filmclub dazu leid.
Ich nehme, was aus der Kamera kommt und bearbeite es ggf. ein wenig im JPEG-Illuminator nach.
Das hat zumindest im Club noch keiner anmeckern können.
Antwort von domain:
Ist alles reine Definitionssache und wird vielleicht irgend wann mal genormt werden.
Für mich würde RAW eine 12 Bitcodierung ohne Chromasubsampling, aber doch mit einer verlustfreien 5:1 Komprimierung ohne long GOPs bedeuten, also z.B. in JPEG-LS oder besser noch in JPEG2000, die ja bereits standardisiert sind.
Alles andere könnte ruhig in der Kamera erledigt werden.
Wers braucht wird damit bestimmt glücklich :-)
Antwort von WoWu:
> Aber wo hört RAW bei Euch auf ?
da, wo es anfängt, Arbeit zu machen. ;-)
Ehrlich gesagt, mir ist das Gehampel zu elitär und zu aufwendig.
Zu dem bin ich die ellenlangen Diskussionen im Filmclub dazu leid.
Ich nehme, was aus der Kamera kommt und bearbeite es ggf. ein wenig im JPEG-Illuminator nach.
Das hat zumindest im Club noch keiner anmeckern können.
@hannes
Genau das impliziert ja die Frage.
Bringt es gegenüber eines LOG Videosignal wirklich Vorteile, wenn ich auf die ganzen Zwischenprozesse ohnehin keinen Einfluss nehmen kann oder ist RAW lediglich Marketing-Aushängeschild und (Du nennst es) "elitäres Gehampel".
Das ist ein völlig korrekter Einwand, den man mal "auf den Punkt" bringen sollte.
@ domain
Auch die Frage, wie verlustbehaftet es eigentlich in den Augen der Anwender sein muss, um RAW zu sein, denn selbst die 5:1 in einem JPEG2000 Format machen natürlich jede Menge DC Koeffizienten, die das Bild bereits "aufweichen". Aber der Kern ist ja, dass Du, wenn Du bereits ein JPEG 2000 rausbekommst, es eigentlich gar nichts mehr mit RAW, also mit den ursprünglichen Sensordaten zu tun hat.
Denn dann müssten Files, wie IPTC oder XMP oder EXIF, also reine Bilddatenfiles rauskommen.
Interessant ist eben nur, dass die Vorstellungen, was RAW eigentlich ist, völlig voneinander abweichen.
Daraus resultieren vermutlich auch die gänzlich unterschiedlichen Workflows.
Es scheint mir so, dass Hersteller RAW als reinen Marketingbegriff missbrauchen.
Aber selbst, wenn man Sensortasten (wie bei der BMC) herausgibt und Speichert, nutzen sie einem nichts, wenn man sie nachher in eine Software importiert, in der man daran nichts mehr verändern kann.
Dann hätte das Processing auch in der Kamera erfolgen können und das Werbemittel RAW mutiert dazu, dass man dem Hersteller nicht die Bürde einer Verarbeitung in der Kamera auferlegt hat.
In solchen Fällen bestätigt sich eigentlich, dass eine LOG Verarbeitung um nichts schlechter ist als RAW.
Mir kommt es nur darauf an, mal zu sehen, wie jeder so einen Begriff definiert oder ob sich Anwender einfach an Definitionen von Herstellern anschliessen.
Motto: "Was aus meiner Kamera kommt ist RAW".
Egal, ob es nun stimmt, oder nicht.
Antwort von srone:
wie oben schon von mir erwähnt, spreche ich lieber vom "packen" (verlustfrei im sinne von rar oder zip) von daten als vom komprimieren, das raw signal in einen "abspielbaren" video(bild-)codec zu stecken, würde in meinen augen den sprung zum video darstellen.
ich sehe aber auch, das zb bei der bmcc in "raw" auf eine 256er ssd ca 30min material passt, ja es wird alles grösser und billiger, trotzdem eine menge holz, welches sich mit entsprechender "mehr"-prozessorleistung in der kamera, sicherlich im faktor 1:3 oder besser "packen" liesse.
aber prinzipiell muss ich dir recht geben wowu, es scheint jeder sein eigenes raw-süppchen zu kochen, man kann nur hoffen, daß es nicht, wie damals bei den videorecordern ausgeht (vhs vs betamax).
sollte jedoch "raw" zum alleinstellungsmerkmal eines camcorders (vor allem im consumersegment) gegenüber eines smartphones werden, werden wir hier mit sicherheit ein hochverdünnte "raw"- brühe erleben.
lg
srone
Antwort von WoWu:
Hallo srone.
Das mit dem "Packen" ist ein guter Ansatz, über den ich bisher noch gar nicht nachgedacht hatte. Aber da kann man ja eigentlich nicht von einer Kompression (im Sinne einer Bildveränderung) sprechen sondern lediglich in einem IT Sinn.
Ansonsten finde ich die Diskussionen um das RAW ähnlich schwierig, ich würde nicht so weit wie Hannes gehen, es als "elitär" zu bezeichnen, aber Diskussionen um das Thema sind wirklich schwer, weil jeder etwas Anderes darunter versteht.
Deswegen sind auch Workflow Diskussionen eigentlich nicht zu führen.
Mir liegt nur jetzt daran, einmal die Differenzen zwischen RAW und LOG "zu zementieren" und einmal genau zu definieren, welche Gegebenheiten eigentlich vorliegen müssen, um RAW überhaupt vorteilhaft nutzen zu können, weil sich auch für uns die Frage nach einem wirtschaftlichen Workflow stellt.
Und wenn sich herausstellt, dass die Unterschiede nicht nur klein sind sondern dass man u.U. von RAW sogar in Nachteile hat, dann fällt so ein Ansatz natürlich "hinten runter".
Nur dazu möchte ich die Punkte wirklich auch nachvollziehbar erfassen und endlich mal raus aus dem "Bauchgefühl".
Und je länger ich darüber nachdenke, umso entzauberter steht RAW plötzlich da und wird umso mehr zu dem, was Hannes sagte.
Antwort von Adl:
Also ich für mich persönlich verbinde mit RAW die Möglichkeit, dass ich Belichtung (in den Grenzen des Sensors) und die Farbtemperatur (somit auch noch kein Farbraum festgelegt) nachträglich in meinem workflow wirklich noch VERLUSTFREI ändern kann.
Aber ist ein interessantes Thema. Die Auslagerung von manchen Verarbeitungsprozessen aus der Kamera auf den Computer des Anwenders kommt den Herstellern bestimmt nicht ungelegen. Führt aber auch zu mehr Freiheit und aber auch zu mehr Verantwortung beim Anwender für das Ergebnis.
Ich denke, dass bei RAW in der Post je nach Anwender halt Weichen gestellt werden. Manche Anwender werden Wege gehen, die genausogut auch in der Kamera erledigt werden hätten können und man hätte sich einiges an Festplattenplatz gespart und manche werden das Potential von RAW zu nutzen wissen.
Aber ich sehe schon auch, dass sich die Marketingabteilungen den Begriff RAW schon zu eigen gemacht haben und ihre eigenen Vorstellungen entwickeln...
Antwort von WoWu:
Die Frage ist eben immer nur, wie sinnvoll es ist, beispielsweise das De-Bayering in die Hand des Anwenders zu legen.
Aber gerade darin liegt natürlich die Stärke von RAW.
Aus diesem Spannungsfeld heraus lassen eben die Hersteller die Nutzung gar nicht zu.
Ich kann über Resolve nicht viel sagen, weil wir es nicht benutzen, aber wenn ich sehe, dass die BMD Kamera zwar das RAW File (das es ja nun wirklich ist) ablegt, dann aber nur in Resolve zu importieren ist, wo das De-Bayering nach Schema F gemacht wird und gleich nach 10Bit reduziert, dann frage ich mich doch, was das soll.
OK, man kann jetzt auf das DNG aufsetzen und die Metadaten ergänzen, um dann iegendwann das File in einem Workflow auslesen zu lassen, in dem man die RAW Daten niemals angefasst hat.
Das wäre dann der "klassische" Ausbelichtungsvorgang.
Ich frage mich nur, wie viele ihre Filme wirklich ausbleichten lassen.
Ansonsten ist nämlich alles nur LOG (auch wenn RAW drauf steht).
Aber dann kann ich gleich eine Kamera nehmen, die mir 10BitLOG macht ... und dass dann auch noch auf die HW angepasst.
Das erscheint mir deutlich perfekter als dieser ganze RAW Weg, der dann ja eigentlich gar keiner ist.
Daher meine Frage hier, wie Anwender das sehen. Vielleicht hab ich etwas übersehen.
Aber im Augenblick schrumpft RAW auf eine Marginalität zusammen, die, solange man TV oder D-Cinema macht, gar nicht (oder nur sehr, sehr eingeschränkt) nutzbar ist.
Antwort von srone:
um ehrlich zu sein habe ich keine konkrete vorstellung davon, wie einflussreich ein alternativer debayering prozess sein kann, es liegt ja ein starres muster vor, ein anderes interpretieren dieses musters schafft imho gewinne und verluste, in vorerst für mich nicht einschätzbarer verteilung derselben.
ein besseres oversampling allerdings, wird sicherlich etwas bringen.
vielleicht kannst du wowu ja mal erläutern, welche vorteile du beim "externen" debayern siehst und welchen bildqualitativen einfluss selbiges haben kann?
lg
srone
Antwort von Adl:
Ich kann über Resolve nicht viel sagen, weil wir es nicht benutzen, aber wenn ich sehe, dass die BMD Kamera zwar das RAW File (das es ja nun wirklich ist) ablegt, dann aber nur in Resolve zu importieren ist, wo das De-Bayering nach Schema F gemacht wird und gleich nach 10Bit reduziert, dann frage ich mich doch, was das soll.
Genau da sehe ich den Knackpunkt für zukünftige Entwicklungen - werde ich vom Hersteller gezwungen "seinen" Weg zu beschreiten? Bei den RAW Files aus der BMD CC handelt es sich um einen Standard und der ermöglicht mir die Freiheit meinen workflow zu wählen. Ich muss ja nicht direkt in Resolve rein. Ich kann ja auch in z.B. Lightroom rein und dort das De-Bayering machen lassen.
Problematisch wird's aus meiner Sicht nur, wenn Hersteller anfangen (aus welch gut gemeinten Gründen auch immer - kleinere Dateigröße etc.), bei den RAW-Formaten ihr eigenes Süppchen zu kochen und den Anwender damit zwingen ihre Software zu nutzen. Bleibt zu hoffen, dass Festplattenplatz weiterhin rapide billiger wird...
Antwort von WoWu:
@srone
Du wählst im De-Bayering ja eigentlich nur die Interpolationsmethode aus, die man dann nur noch sehr beschränkt beeinflussen kann.
Einzelne Parameter der Interpolation sind über die Software eigentlich nur über ein sehr limitiertes Menü zugänglich, weil man im eigentlichen Algorithmus ja nix zu suchen hat.
Aber natürlich ist es eine Frage des Bildinhaltes, ob Du die Farbanteile von G z.B. aus den nebenliegenden R und B gewinnst oder die umliegenden 8 Pixel (oder mehr) benutzt wobei die Gewichtung z.B. auf R (oder einen andern Wert) erhöht werden kann.
(Und das ganze natürlich Matrix orientiert, also bis auf -je nach Interpolationsgrösse, z.B. 8x8 oder 3x3 o.A. runter)
Oder ob Du z.B. den LAPLACE Algorithmus benutzt, der seine Werte von weiter entfernten (nicht mehr) Pixeln bezieht.
Und wie Du die Fehlenden Werte für R und B aus den G Werten berechnest.
Oder ob Du auf der Basis des CIEL*a*b* Farbraums berechnest und wieder die Wahl hast, horizontal, vertikal oder diagonal zu gewichten.
Je nachdem, wie Du eingreifst, ergibt es nicht nur andere Farbabstimmungen, sondern auch andere Schärfen in den Farben und damit einen gewaltigen Sprung im eigentlichen Bildeindruck.
Aber das ist eben abhängig vom Bildinhalt und dem Zieleindruck, den Du verfolgst.
Aber solche Parameter sind eben relativ rechenaufwändig und müssen in der Software zunächst durch LUTs simuliert werden und erst im Renderprozess ausgeführt.
Aber Vorteile hat das schon.
Wir arbeiten mit einer Software von Kodak, die auf den Belichter ausgelegt ist. (Workflow hatten wir schon mal vor einiger Zeit)
Ich wüsste im Augenblick keine User-Software, die das zulässt.
Inwieweit Adobe das für Bewegtbild unterstützt, weiss ich nicht.
Zumindest müssten sie dann ja auch die entsprechenden LUTs bereit halten.
Daher ja auch die Frage, was RAW dann eigentlich soll, wenn ich nur feste Kameraprozesse auslagere.
Einzigen Vorzug, den ich erkennen kann ist die Archivierung, denn so ein RAW Format ist ja nicht festgelegt und wann immer die Rechner schneller und die Software intelligenter wird, kann man mehr draus machen.
Aber man könnte ja zumindest schon heute im De-Bayering alternative Methoden anbieten, reicht ja, wenn man unterschiedliche Algorithmen zulässt. Das wäre schon die halbe Miete.
Aber ansonsten, würde ich (heute) den 10 Bit LOG Verfahren, solange man nicht auf Film will, den Vorzug geben.
Übrigens muss ich zu DNG wirklich sagen, dass es der erste Versuch ist, die Sache zu standardisieren.
Ich kann mich da Adl nur anschliessen und hoffen, dass die Hersteller nicht so borniert sind, nur weil ADOBE draufsteht, es nicht zu benutzen.
Antwort von srone:
danke wowu für deine erläuterungen,
dadurch ergibt sich für mich allerdings folgender gedanke, zu jedem debayering algorithmus gehört ein lut, selbiges würde ich dann aber auch gerne in der kamerapreview (sprich auf dem display/sucher) wiederfinden, was dazu führt das die hersteller, die eingesparte processing-leistung in den viewfinder verlagern müssen um debayering als lut, entwicklung als lut, etc. darstellen zu können, ab da machts dann wirklich sinn, im sinne von wysiwyg.
lg
srone
Antwort von WoWu:
Tja, nur dann müsste man am Set sich schon für ein De-Bayering entscheiden. Das ist schwer, weil Du ja noch nicht einmal im Farbraum festgelegt bist.
Und eigentlich eigentlich gehört das LUT auch "von hinten nach vorne" gerechnet, Also: Welche Eigenschaften hat der Signalweg.
Wie wird mein Bild verändert, wenn es durch zwei analoge Medien geht (Licht durch Filmemulsionen) ... und dann den Weg rückwärts, Filmbelichtet, usw.
Wenn man sich mit dem Produkt schon für ein Zielmedium entschieden hat, dann würde der Farbraum für die Kameraarbeit reichen.
Aber dafür sind ja die Proxys eigentlich gedacht. RAW aufzeichnen und Proxys sehen ... Das macht auch Sinn.
Nur im Augenblick beschränkt sich (für mich) der Einsatz von RAW wirklich nur auf Film und weder auf TV noch auf D-Cinema, weil ich nicht erkennen kann, dass man mit (halbwegs) Bordmitteln überhaupt RAW nutzen kann.
Auch das Sichten ist noch ein Problem. Wir haben mal einen 12 Bit Monitor aus der Medizintechnik hier gehabt, um abzuschätzen, ob es was bringt.
Klar, schönes Bild, aber 60.000$ ist auch richtig Kohle und die 12 Bit die man so am Markt bekommt sind alle 10Bit-out-of-12.
Insofern ist RAW, so wie es derzeit wie Sauerbier angeboten wird, für mich nur ein Marketing-Gag.
Es sei denn ich habe noch irgend etwas in der praktischen Anwendung übersehen.
Nur daraus resultiert natürlich auch ein Workflow ... und letztlich auch Kamera- und Equipment- Entscheidungen.
Nur daraus resultiert natürlich auch, dass DNG, bis auf das Argument der Archivierung, auch nicht wirklich nützlich ist, zumal NLEs auch mittlerweile davon abgehen, kaskadiert zu rendern sondern dazu übergehen, (DNG ähnlich) die Metadaten bis zum Endprodukt zu sammeln und dann nur noch einmal zu rendern.
Also die SNR Verschlechterung spielt da auch schon keine Rolle mehr.
Die vermeintlichen RAW Vorteile lösen sich langsam in Luft auf. Es sei denn, man macht wirklich (analogen) Film.
Hmmm
Antwort von srone:
ich denke da folgenden workflow, bsp bmcc, resolve hätte 5 debayering algorithmen, die bmcc die entsprechenden 5 luts+5 freie für alternativen.
die idee von raw ist gut, jedoch brauche ich innerhalb des workflows kriterien hinsichtlich des endbildes, zb um licht zu setzen.
lg
srone
Antwort von Valentino:
@WoWu
Du siehst die Sache immer sehr technisch, was ich super finde aber verlierst dabei auch so ein Bischen den Blick fürs große Ganze.
Klar kann ich mit einem 10bit Monitor kein 12bit Bild beurteilen, es gibt aber genug Programme die auch mit 16bit pro Farbkanal umgehen können.
Nuke ist eines davon und das füttern wir öfters mit 16bit Tifs von 3D Renderings und RedRaw Dateien.
Gerade wenn man die Raw Dateien extrem verbiegt sind die 12bit oder 14bit recht Hilfreich und besser als ein 8bit/10bit Video.
Interessant wäre mal ein Vergleichstest zwischen ProRes444 LOG-C und Arri oder RedRAW.
Hatten mal ein Keyingtest vor Grün mit ProRes444 Log-C und ArriRAW.
Ergebnis: bei Keying ist RAW deutlich im Vorteil und sogar besser als unkomprimierte 10bit DPX Files.
Wir erstellen bei RedRaw Produktionen immer zwei De-Bayerings, ein grobes für den Schnitt in einem Proxy Codec. Das zweite wird nur aus den Dateien aus dem Endschnitt erstellt und meist als 10bit DPX in Red-Log oder gar 16bit Tif für das Compositing. Dabei werden extreme Farbverschiebungen, Rauschen und "Schärfe"noch in RedCine korrigiert.
Genau das ist für uns der Vorteil von RAW.
Antwort von WoWu:
@ Valentino
Das sind hilfreiche Tipps, die ich in Ruhe nachvollziehen muss.
Darüber hinaus muss ich das Ganze natürlich irgendwie in die eigene Infrastruktur bringen, weil wir z.B. nicht mit NUKE arbeiten.
Wir machen nicht so viel Compositing, wo wir es mit deutlich höherwertigen Grafiklayern zu tun hätten.
Insofern muss ich das Ganze so sehen, wie es zur pragmatischen Anwendung kommt, also keineswegs aus "nur" technischer Sicht.
Gerade weil ich den Blick für die Anwendung (und auf die Kosten) habe, bringt es nicht viel, dass Grafikprogramme mit diesen deutlich höheren Auflösungen umgehen können.
Für uns ist einzig von Interesse, was sich zwischen dem Objektiv der Kamera und der Projektionslinse im Bereich der Darstellungsmöglichkeiten tut.
Wie gesagt, ohne Compositing. Da sieht das schon wieder ganz anders aus.
Aber damit wären wir schon bei der Beurteilung.
Wir haben uns wirklich Mühe gegeben, auf 10Bit Monitoren den Unterschied zu sehen, den wir in 12 Bit Files messen konnten .... und erst, als wir den besagten "echten" 12 Bit Monitor daneben gestellt hatten, wurde es sichtbar.
Ich glaube es schlichtweg nicht mehr, wenn mir einer sagt, er könne auf 10 oder gar 8 Bit Monitoren die Unterschiede in der Bearbeitung eines 12 Bit Signals sehen.
Hier ist das jedenfalls keinem der Beteiligten gelungen.
Ebenso der Gegentest, 12 Bit Signale, runter auf 10 Bit sahen auf dem 12 Bit Monitor ebenso aus, wie auf dem 10 Bitter.
Seit diesen Sichttests wurde ziemlich deutlich, dass der Monitor das Bottelneck darstellt und es wenig Sinn macht, "im Trüben" zu "kurbeln".
Daher wird man auch einen solchen 10Bit LogC gegen ArriRAW Test nur auf 12 Bit Monitoren machen können.
Wobei der Test auch eigentlich gar nicht wirklich nötig ist, denn Du hast das Ergebnis ja eigentlich schon vorweg genommen.
RAW ist besser ... das wundert mich, in dieser Konstellation, nicht und ich sehe ja auch durchaus die Vorteile von RAW in einem Umfeld, in dem man sowohl alle Vorzüge von RAW nutzen kann, als auch das Zielmedium 12 Bit (in seinen Grenzen) verarbeiten kann.
Das machen wir ja such, wenn Film das Ziel ist.
Da gibt es also gar keine Diskussion.
Nur machen wir nicht jeden Tag Film (analog), sondern nur gelegentlich und meistens DPX.
Und genau hier stellt sich die RAW Frage.
Der Vergleich müsste also sein, inwieweit die Differenz zu RAW noch zum Tragen kommt (ohne Compositing), wenn das Ziel DXP ist.
Und den Vergleich könnet man auch gut in einer 10 Bit Infrastruktur machen.
Ergo:
Den Vorteil von RAW sehe ich, ebenso wie Du, allerdings nicht mehr für Zielproduktionen von 10 Bit, es sei denn, die Verarbeitungsvorgaben fordern das.
Übrigens bin ich kein Freund von REDRAW, weil die unsäglichen DC Koeffizienten das Bild derart weich waschen, dass man kaum anderes Material damit verarbeiten kann, ohne das andere Material genau so "soßig" zu machen.
Red hat einfach zu früh damit angefangen, als die Datenkanäle noch zu schmal waren. Heute holt sie das ein, weil sie weiter mit diesem Kompromiss leben müssen.
Bei mir sind die Zweifel am Erforderniss RAW noch nicht ausgeräumt und die Vorteile sehe ich im Videobetrieb bis DPX gar nicht sondern erst im Film-Betrieb.
Und da wird es nun wirklich spannend, ob AVC-U im Level 6.2 keine ebensolchen Ergebnisse in 12 Bit bringt.
Aber ich denk über Deine Anregungen im Verarbeitungsbetrieb nochmal in Ruhe nach.
Nochmals schönen Dank.
Antwort von Abercrombie:
Für mich RAW ein möglichst uninterpretiertes Sensorsignal, welches auch gerne komprimiert (am liebsten lossless) sein darf. Ich schätze es, bestimmte Entscheidungen in den Schnittraum zu verlegen und dort mit dem Coloristen zu besprechen.
Zudem empfinde ich es als unsinnig ein Signal in der Kamera zu verdreifachen und diese Mengen dann zu speichern und später auch zu archivieren. In Zukunft könnten neue Algorithmen oder neue Programme eine bessere "Entwicklung" des Raw-Signals führen. Wenn die Kamera mein Archivmaterial geprägt hat, dann bleibt das. Rechenleistung ist für mich kein Argument.
Zur Zeit ist eine Manipulierung des Debayerings nicht in meinem Fokus und ich glaube auch in Zkunft wird mich die wenigsten Kunden dafür bezahlen, die letzten 0,5% noch aus dem Material herauszuholen. Und ich denke die wenigsten hier litten bisher darunter. Und vielleicht gibt es ja auch irgendwann die Möglichkeit mehr Einfluss auf den Prozess zu nehmen. Wer weiß?
Für mich ist der RedRaw-Workflow keine nennenswerte Bremse. Im Vergleich zu den anderen Kameras, die ich benutze habe ich im RedRaw allerdings den größten Spielraum in der Post. F65raw, ArriRaw bzw. Arri ProRes Log mögen eben so gut oder auch besser sein, aber die Kameras werden von den wenigsten meiner Kunden gewünscht und damit bezahlt.
Ob RAW nun ein Marketingbegriff ist oder nicht interessiert mich persönlich nicht. Ich kann eh nix dran ändern. Kein Hersteller wird irgendetwas ändern. Meiner Meinung nach ist es ähnlich effektiv, wie die Namen unserer demokratischen Parteien zu diskutieren.
Antwort von WoWu:
Hallo Abercrombie
Ich verstehe das so, dass Dein Hauptargument für RAW die Archiverbarkeit eines möglichst originalen und möglichst kleinen Files ist.
Die technischen Verbesserungen (letzten 0,5%) spielen dabei für Dich keine (wenig) Rolle.
Das deckt sich einwenig mit meiner Einstellung, wobei mir eine hardwareorientierte Verarbeitung in der Kamera in dem Fall lieber ist als durch irgendeine externe Soft/Hardwarkonstellation.
Aber das ist persönliche Geschmackszache.
Botten line ist aber, dass die RAW (0,5%) Verarbeitung für Dich nicht wichtig ist und durchaus durch ein LOG ersetzbar wären, aber nicht sind, weil der Kunde die Kamera auswählt.
(Ich hoffe, ich hab das richtig zusammengefasst).
Antwort von Frank Glencairn:
Aber wo hört RAW bei Euch auf ?
Ab wann ist es kein RAW Signal mehr, sondern ein Videosignal ?
Für mich ist raw, wenn es nicht de-Bayert ist.
Sprich die "Entwicklung" des Materials findet später via Software statt und da will ich so viel Freiheit wie möglich.
Weißpunkt, verschiedene De-Bayer Algorithmen, Schärfe, Denoising.
Wenn auch nur eines irgendwie in der Kamera stattfindet, ist es kein richtiges raw mehr IMHO.
Antwort von WoWu:
Das wäre auch mein Verständnis, aber dann ist eben das, was BMD da macht nur bis zur Speicherung zwar reinstes RAW, ab Resolve dann aber nicht mehr, weil Resolve den Zugriff auf das de-bayering (nach meine Kenntnisstand) nicht zulässt.
Das würde bedeuten, dass man mit dem File entweder in ein anderes Programm zur Weiterverarbeitung muss, oder mit einem Proxy arbeitet.
Antwort von TheBubble:
Aber wo hört RAW bei Euch auf ?
Ab wann ist es kein RAW Signal mehr, sondern ein Videosignal ?
Der Übergang ist nicht festgelegt, die Abgrenzung ist zusätzlich noch dadurch verschwommen, dass RAW zu einem Marektingbegriff geworden ist, mit dem vermutlichen Ziel "high end", "viel Gestalltungsspielraum" und "bessere Ergebnisse" zu suggerieren.
Um den Begriff leichter einordnen zu können, könnte man auf einzelne Merkmale abheben:
- Oft ein herstellerspezifisches Format, manchmal sogar kameraspezifisch. Seltener mit offener Spezifikation für den herstellerübergreifenden Einsatz, teilweise bewusst nicht offenegelegt. Gegegentlich stark an den Erfordernissen bestimmter Sensoren/Kameras orientiert.
- Mindestens ein Teil an Nachbearbeitungsschritten wird von der Kamera auf eine externe Software ausgelagert, mit dem Ziel, für die weitere Verarbeitung erforderliche Entscheidungen auf einen späteren Zeitpunkt zu verlagern und/oder die Kameraelektronik/-software einfacher gestallten zu können. Dies kann, je nach Ausgestalltung, die Übertragung von mehr Informationen aus der Kamera heraus erfordern, als es bei einer vollständig kamerainternen Verarbeitung erforderlich wäre.
Ich denke, dies beschreibt RAW schon ganz gut, erlaubt aber, wenn man pendantisch ist, ebenfalls keine völlig klare Abgrenzung zu anderen Videodateiformaten, denn bis irgendwann die Pixel auf einem Display landen, müssen auch bei diesen noch weitere Verarbeitungsschritte erfolgen.
Antwort von Frank Glencairn:
Das wäre auch mein Verständnis, aber dann ist eben das, was BMD da macht nur bis zur Speicherung zwar reinstes RAW, ab Resolve dann aber nicht mehr, weil Resolve den Zugriff auf das de-bayering (nach meine Kenntnisstand) nicht zulässt.
Du kannst in Resolve verschiedene Algorithmen und Qualitätsstufen wählen und natürlich Belichtung und Weißpunkt - alles auf DNG Ebene - also abseits der normalen Korrekturmöglichkeiten. Soweit ich weis (da bin ich mir allerdings nicht mehr ganz sicher) arbeiten Schärfe und Denoising auch in diesem Modus.
Cineform ist da etwas flexibler und bietet glaub ich 8 oder 10 verschiedene Algorithmen an nur für das Debayering an und hat auch mehrere verschiedene Matrixen (Color Science).
DU solltest dir die kostenlose Resolve Light Version und ein Cineform Studio Premium Trial runter laden und das ausprobieren - ich bin immer wieder erstaunt, was verschiedene Programme aus dem selben DNG machen können.
Antwort von WoWu:
@ Bubble
Das war sicher in allen Einzelheiten eine korrekte Beschreibung.
Interessant aber wäre zu erfahren, welche Bearbeitungsschritte für Dich zwingend zur RAW Verarbeitung gehören und welche Schritte in Deinem Workflow noch geleistet werden können.
Knackpunkt hier ist wahrscheinlich auch das De- Bayering und wenn, wie würdest Du das Monitoring sicher stellen.
Denn einfach mal mit dem Originalmaterial zu arbeiten, ohne es korrekt beurteilen zu können, ist ja auch nicht im Sinn von RAW.
@ Frank
Das würde bedeuten, dass Resolve die Metadaten in das DNG File schreibt ... aber wie monitoren die das?
Was für ein File siehst Du ?
Ist das aus dem Originalmaterial gezogen ? Aber dann wird es nicht 12 Bit mehr sein. Wie wird also dieser Fehler korrigiert.
Das wäre ausserdem der "klassische" Workflow für die Benutzung des 12Bit Files in einer Film Umgebung.
Frage ist ja, wenn man in eine 10 Bit Umgebung hinein arbeitet, ob dann RAW überhaupt etwas bringt.
Genau da habe ich meine Zweifel. Insofern ist das DNG incl. RAW für Film unbestritten das angesagte Thema.
Aber wie sieht die Verwendung anderweitig aus ?
Resolve bringt uns übrigens nichts, weil wir nicht auf neue Systeme aufsetzen wollen.
Antwort von Frank Glencairn:
Wie genau das "unter der Haube" funktioniert, weiß ich auch nicht.
Ich schätze aber daß die Änderungen als eine Art "schwebender" Satz Metadaten, bis zum raus Rendern vorgehalten werden.
Bei Cineform funktioniert nicht nur das De-Baiering und die Color Science, sondern selbst die komplette Farbkorrektur samt Overlays nur auf Metadaten die man live zu und abschalten kann, da wird am original Material gar nix verändert. Den Ansatz finde ich extrem elegant.
Wenn du die BMC files in Resolve lädst, erscheinen sie als 16 bit.
Das gibt der Monitor natürlich nicht her, ist aber immer schön etwas "zusätzliches Fleisch" zu haben, auch wenn es zunächst nicht sichtbar ist.
Wenn du z.B. einen Qualifier auswählst, also ne Art Keying um - sagen wir mal - nur die Farbe des Himmels zu bearbeiten, macht sich das in der Präzission und Qualität der Auswahl schon bemerkbar.
Antwort von TheBubble:
Interessant aber wäre zu erfahren, welche Bearbeitungsschritte für Dich zwingend zur RAW Verarbeitung gehören
Ich möchte das mal indirekt ausdrücken, denn wie gesagt ist eine pauschale Abgrenzung schwierig: All jene Schritte sind nötig, die die Schnittstelle zum Ziel-Dateiformat erfordert.
All jene Schritte sind auf dem Weg von RAW zum Schnittstellen-Format zusätzlich möglich und sinnvoll, die aus den noch vorhandenen (zusätzlichen) RAW-Daten ein möglichst gutes Ergebnis im Ziel-Format erstellen. Was dabei ein gutes Ergebnis ist, hängt von den jeweiligen Anforderungen ab und kann sehr subjektiv sein.
In den meisten Fällen dürfte die Schnittstelle eine RGB-Bitmap erfordern, d.h. eine solche Bitmap muss zwingend erstellt werden, dafür ist dann auch ein De-Bayering durchzuführen. Wie die RGB-Bitmap aussieht, hängt vom De-Bayering-Algorithmus, den für eine Farbkorektur gewählten Parametern, usw. ab.
Bevor eine solche, für die Weiterverarbeitung mit gängiger Software geeignete, Bitmap nicht existiert und die dafür erforderlichen Entscheidungen bezüglich von Algorithmen und Parametern getroffen wurden, ist jede Frage nach der Beurteilung der Farben usw. eher sinnlos.
Die einzige Operation, die man IMO mit RAW praktisch unabhängig von einer weiteren Verarbeitung und der dafür nötigen Wahl von Parametern (s.o.) machen kann, sind harte Schnitte.
Antwort von axl*:
Jeder Hersteller wird sein eigenes Süppchen kochen. Es wird wie in der Fotografie werden. Grundsätzlich bietet, was für ein RAW auch immer mit unkomprimiertem 4:4:4 oder besser, faszinierende Optionen. In diesem Zusammenhang muss aber auch die Addressierung der Zielgruppe hinterfragt werden. Bei den meisten Produktionen ist das Hauptproblem nämlich Zeitmangel. Extensive Arbeitsvermehrung steht da sicher nicht auf Platz eins der Whishlist. Gedanken dazu machen eigentlich auch erst Sinn, wenn sich die meisten NLE"s dorthin übergreifend entwickelt haben, USB 5.0 etabliert ist und es die Terrabyte-SSD"s, die man alle paar Minuten nachlegen muss, im Vorratssack verkauft werden. ( Ironiemodus aus ) Aktuell gehört diese Thematik für die Meisten daher wohl eher in die Rubrik der verschwendeten Lebenszeit.
Antwort von Frank Glencairn:
Na ja, du bekommst einen abendfüllenden Spielfilm bequem auf eine 120 Euro Platte - das ist billiger als SR-Bänder, so gesehen ist es also kostengünstiger geworden, wobei Preise für Speicherplatz sowieso permanent sinken (wenn nicht gerade eine Flut dazwischen kommt).
Antwort von domain:
Wie genau das "unter der Haube" funktioniert, weiß ich auch nicht.
Ich schätze aber daß die Änderungen als eine Art "schwebender" Satz Metadaten, bis zum raus Rendern vorgehalten werden.
Ich kann mir schon vorstellen, dass die meist nicht viel mehr als Dutzend Nodes in den Metadaten eines jeden Clips gespeichert werden können. Aber wie sieht das bitte bei mehrere Cips übergreifenden Nodes aus? Z.B. bei einem Alphablending? Irgend etwas zumindest in Schwebe Gehaltenes, ähnlich einem Timelineprotokoll, muss es wohl zusätzlich noch geben.
Weniger Probleme sehe ich im Auseinanderklaffen von Monitorbild und final Rausgerendertem oder Ausbelichtetem. Schließlich kann Adobe z.B. auch CMYK auf 8-Bit-Monitoren simulieren, wichtiger ist vermutlich das noch vorhandene Fleisch bei RAW in all seinen Varianten.
Antwort von WoWu:
Na ja, du bekommst einen abendfüllenden Spielfilm bequem auf eine 120 Euro Platte - das ist billiger als SR-Bänder, so gesehen ist es also kostengünstiger geworden, wobei Preise für Speicherplatz sowieso permanent sinken (wenn nicht gerade eine Flut dazwischen kommt).
Da gebe ich Dir Recht.
Eingangsfrage war auch nicht, ob der RAW-Anwender macht, genügend Geld für Platten hat sondern wo die wesentlichen Unterscheidungsmerkmale zu LOG sind und (vor allen Dingen), wer sie nutzt.
Es war auch nicht Frage, ob die Datenkanäle breit genug sind.
Eher war die Frage, ob ein datenreduziertes Bildmaterial (kein ZIP) noch die ursprünglichen Anforderungen an RAW erfüllt.
@domain
Die Verarbeitung in DNG ist recht komfortable. Wir haben zwar erst eine Spielfilmlänge darauf gemacht, konnten aber keine wirklichen Limitierungen erkennen. Damals hatten wir auch den 12 Bit Monitor, um einmal die Unterschiede des KODAK LUTs zum Originalmaterial zu sehen, mussten aber feststellen, dass es gar nichts bringt, weil die, im LUT eingearbeitete Filmkorrektur einen direkten Vergleich gar nicht zulässt.
Hinterher sahen aber die beiden Projektionen (Licht gegen Monitor) ziemlich identisch aus.
Was man früher also mit Mustern gemacht hat, hat der LUT ziemlich gut aufgefangen.
Daher wäre bei der Anwendung für Film nach wie vor RAW der Favorit.
Frage ist nur, ob man für TV oder D-Cine nicht identische Ergebnisse bei weniger Aufwand durch LOG-Videoverfahren wirtschaftlicher gestalten
kann
nicht viel mehr als Dutzend Nodes
Über 150 verschiedene, mit einer quasi beliebigen Tiefe, wenn ich das richtig in Erinnerung habe.
Antwort von domain:
Frage ist nur, ob man für TV oder D-Cine nicht identische Ergebnisse bei weniger Aufwand durch LOG-Videoverfahren wirtschaftlicher gestalten
kann
Davon bin ich überzeugt. Speziell weil ich den Archivierungsvorteil eines unveränderten RAWs für ziemlich praxisfremd halte. Kein Schwein wird sich nach Jahren noch des Original-RAWs mit verbesserter Hard- und Software annehmen, speziell in Anbetracht der rasanten Fortschritte in der Sensorentwicklung. Letzten Endes zählt m.E. nur das heute optimierte Material in der endgültigen Fassung und das wars dann wohl auch.
Man sollte auch nicht vergessen, dass die Knee- und Blackgamma-Einstellungen von Profikameras im Grunde schon bisher minimalistische S-LOG-Einstellungen waren, die aber keiner Reversfunktion für die Beurteilung bedurften, weil für die jeweilige Anforderung bewusst ausgewählt.
Allerdings würde ich meinen, dass hierfür wirklich eine 10-Bitcodierung Voraussetzung ist.
Antwort von Abercrombie:
Die technischen Verbesserungen (letzten 0,5%) spielen dabei für Dich keine (wenig) Rolle.
Das deckt sich einwenig mit meiner Einstellung, wobei mir eine hardwareorientierte Verarbeitung in der Kamera in dem Fall lieber ist als durch irgendeine externe Soft/Hardwarkonstellation.
Aber das ist persönliche Geschmackszache.
Botten line ist aber, dass die RAW (0,5%) Verarbeitung für Dich nicht wichtig ist und durchaus durch ein LOG ersetzbar wären, aber nicht sind, weil der Kunde die Kamera auswählt.
(Ich hoffe, ich hab das richtig zusammengefasst).
Leider nein. Wenn du Interesse hast, kannst du mein Posting ja noch mal lesen.
Ich versetze mich manch mal zehn Jahre zurück und überlege, wovon ich damals nicht mal zu träumen wagte. Von den damaligen Vorstellungen werden etwa 90% mit meiner Technik heute erfüllt. Individuelles DeBayering mag mehr Qualität bringen, aber bisher fehlte mir diese noch nicht.
RAW hat Vor- und Nachteile. S-Log mag ähnlich gut (oder vielleicht sogar besser) sein. Zu bedenken ist: Wie viele Kameras gibt es, die S-Log im 10 oder besser 12 Bit aufzeichnen. Und wenn ich da noch deren Preise mit einbeziehe, dann bin ich zumindest nicht unglücklich mit meiner Scarlet. Vielleicht steige ich irgendwann auch mal um. Wer weiß.
Aber noch sehe ich im RAW Vorteile. Geringere Datenrate, hohe Bittiefe, Verarbeitung von Rechnern mit Stromanschluss, Weiterentwicklung der Algorithmen während die Kamera altert...
Antwort von WoWu:
@Abercrombie
Ich hab Deine Postings gelesen, sogar mehrfach und mir alle Mühe gegeben, sie richtig zu verstehen, weil ich ein ur-eigenstes Interesse an dem Thema habe und für jeden Denkanstoss dankbar bin.
Mag nun dennoch sein, dass ich Dich falsch verstanden habe, sorry.
Mir kommt es aber weniger darauf an zu erfahren, aus welchem Grund der Eine oder Andere RAW benutzt sondern vielmehr darum, in welcher Tiefe es genutzt wird, um mir ein Bild zu machen, ob die Möglichkeiten von RAW eigentlich allgemein so genutzt werden, wie sie zur Verfügung stehen. Anschliessend könnte man, wenn nötig nochmal über einen Workflow reden.
Bei uns sind nur Angesichts einer "Fehlinvestitinon" in die SCRATCH-Tool Workstation Zweifel aufgekommen, ob "das letzte Bisschen" wirklich den Aufwand lohnt. (Für Film kein Zweifel) aber für D-Cinema und speziellen Premiums sehr wohl.
Daher die Frage, wo für Euch RAW anfängt, aber eben auch, wo es aufhört und wenn ich sehe, dass ziemlich wenig mit Proxy und viel mit gewandeltem 12 nach 10 Bit gearbeitet wird und von den Möglichkeiten des individuellen De-Bayerings wenig Gebrauch gemacht wird, dann nährt das die Ansicht, dass LOG nicht die schlechteste aller Lösungen ist.
Valentinos Ansatz des verbesserten Keying muss ich nochmal nachvollziehen.
Aber noch sehe ich im RAW Vorteile. Geringere Datenrate, hohe Bittiefe, Verarbeitung von Rechnern mit Stromanschluss, Weiterentwicklung der Algorithmen während die Kamera altert.
Die Datenrate spielt für uns in diesem Umfels eigentlich wenig Rolle.
Die hohe Bittiefe nur insoweit, als man das File parallel zu einem Proxy benutzt, was wir für Film auch tun, aber wenn das Ziel ohnehin 10 Bit ist, sehe ich darin keinen Vorteil mehr, weil jede Kamera an der Stelle eine hohe Bittiefe hat, egal was man hinterher daraus macht.
Verarbeitung in fremden Rechnern sehe ich nicht wirklich als Vorteil, weil man dann sowohl an fremden Systemen, als auch an fremder Software "hängt", zumal es keinen Standard für RAW gibt.
Das ist eher ein grosser Nachteil.
Auch in der Weiterentwicklung der Algorithmen sehen wir nicht den grossen Vorteil, weil sich Video eigentlich ziemlich schnell "verbraucht".
(Anders als klassische Musik, z.B., wo man noch nach Jahrzehnten Orchestereinspielungen in besserer Qualität absetzen kann).
Insofern geht unsere Tendenz, für diese Produkte (keine Ausbelichtung), im Augenblick sehr stark zu LOG basierten 10 Bit Systemen.