Newsmeldung von slashCAM:Im Netz keimt immer wieder die Diskussion auf, welche Vorteile das Filmen in RAW eigentlich tatsächlich hat. Wir versuchen einmal den Stand der Dinge in grundsätzlicher Form zu diskutieren. <i>(Sponsored by SAE)</i>
Hier geht es zum slashCAM Artikel:
Grundlagen: Warum RAW?
Antwort von Darth Schneider:
Wieviel Speicherplatz braucht Raw Video, in Full HD ? Weiss das jemand ?
Antwort von CameraRick:
Wieviel Speicherplatz braucht Raw Video, in Full HD ? Weiss das jemand ?
Das kommt maßgeblich darauf an welches RAW Format (Kompression etc), auf die Bittiefe, etc
Wenn Du das leicht komprimierte RAW der BMD Pocket nimmst (12bit, 1080p), hast Du Pi mal Daumen 2,2MB/Frame, bei 25p also 55MB/s, das entspricht etwa 440Mbit.
Antwort von raketenforscher:
2160.
Antwort von enilnacs:
Kommt darauf an, von Arri bis Red, alle bieten Kompression, von 2:1 bis zu 20:1, je nach Hersteller.
Und diese Kompression ist auch oft zusätzlich inhaltsbasierend. Also locked auf SNR statt auf Datenrate. Je nach Codec/Hersteller.
Würde man RAW unkomprimiert nehmen, dann wäre das das gleiche wie unkomprimiertes Video plus 33% (RGGB) aber was am Ende rauskommt hängt von der Framerate und bittiefe ab welche man dann noch kalkulieren muss.
Ehrlich ? Es ist ein Dschungel :-) Es wäre nett eine Datenbank zu haben (rudi?) ;-) mit sämtlichen RAW Codecs, Bitraten, Vorteile, Nachteile, SNR, Qualität von der jeweiligen Kameragruppe(red,arri,bmd,aja,etc),vergleiche der Codecs,CMOSe,Umwandlung, etc... Ne Mammutarbeit, ich weiss, ich weiss. :-)
Antwort von Valentino:
Das RAW-Format von ARRI ist unkomprimiert!
Es werden nur ganz leichte , zip ähnliche und mathematisch verlustfreie Kompressionen eingesetzt.
Red und Sony komprimieren mit Hilfe einer Wavelet Komprimierung sehr stark im Verhältnis 3:1 bis fast 18:1. Bei der Red kann man das einstellen, bei Sony hat man außer bei der F65 keinen Einfluss auf die Komprimierung.
Bei Blackmagic gibt es von 1:1 bis glaube ich 5:1 alle möglichen Stufen, wobei nicht jede Komprimierung in jeder Kamera funktioniert.
Das RAW von Canon ist eigentlich gar keine RAW, da alle Werte fix sind und bei Cineform geht auch alles von 2:1 bis 8:1 mit Wavelet.
RAW Cineform hat nichts mit dem RGB/YUV Codec zu tun.
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
Antwort von CameraRick:
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
Da würde ich jetzt mal einhaken - so wie ich das im Kopf habe hat das "RAW" setting der GoPro keinen Einfluss auf die Kompression in jeglicher Hinsicht, und die flache Gammakurve (ggf mit weniger Kompression der Datei nachher?) ist Protune.
RAW meint bei GoPro den Weißabgleich.
Siehe s38 in diesem Dokument:
https://cbcdn2.gp-static.com/uploads/pr ... VD_WEB.pdf
Antwort von cantsin:
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
Nein, die "raw"-Menüeinstelling der GoPros bezieht sich nur auf den (sensornativen) Weißabgleich.
Antwort von Frank Glencairn:
Würde man RAW unkomprimiert nehmen, dann wäre das das gleiche wie unkomprimiertes Video plus 33% (RGGB)
Raw is schwarz/weiß und hat deshalb immer eine geringere Datenrate
Antwort von Valentino:
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
Nein, die "raw"-Menüeinstelling der GoPros bezieht sich nur auf den (sensornativen) Weißabgleich.
Das mit dem Weißabgleich ist mir auch klar.
Aber sind wir mal ehrlich, was soll das den für ein Quatsch den Weißabgleich mit "RAW" zu bezeichnen? Mit "Nativ" oder "Film" wäre GoPro deutlich näher an der Wahrheit, diese verkauft sich aber leider nicht so gut und so glauben recht viele Leihen, das ihre GoPro auch im RAW-Format aufzeichnet, was ja bekannter weise nicht der Fall ist.
Das ihr dann gleich so "aggressiv" widersprechen müsste verstehe ich auch nicht.
Antwort von CameraRick:
Das mit dem Weißabgleich ist mir auch klar, leider denken sehr viele das sie dann auch in RAW drehen, aber Hauptsache wiedersprochen ;-)
Aber Du sagtest
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
was faktisch Quatsch ist, weil die Einstellung mit dem Codec oder dem Gamma nichts zu tun hat, das ist Protune.
Antwort von Valentino:
Das mit dem Weißabgleich ist mir auch klar, leider denken sehr viele das sie dann auch in RAW drehen, aber Hauptsache wiedersprochen ;-)
Aber Du sagtest
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
was faktisch Quatsch ist, weil die Einstellung mit dem Codec oder dem Gamma nichts zu tun hat, das ist Protune.
Sorry das ist jetzt echt Erbsenzählerreih was du da machst, aber gut wenn es dich glücklich macht.
Der Begriff "RAW" steht im Artikel und allgemein für die Art der Aufzeichnung und ist sogar ganz frei von irgendwelchen Codecs.
Das Problem ist hier ganz klar GoPro die hier den Begriff "RAW" fälschlicherweise für das WB von PROTUNE verwenden, aber keine einzige Übereinstimmung mit der üblichen RAW-Aufzeichnung zu tun haben.
Ich gehe sogar davon aus, das das bei GoPro reines Marketingkalkül ist.
Antwort von CameraRick:
GoPro nennt es "Cam RAW" in ihrem Manual (wie oben schon verlinkt), und an keiner Stelle wird behauptet es habe irgendwas mit Codec oder sonst was zu tun.
Ob der Begriff dort falsch ist sei dahin gestellt, zu behaupten das Setting sorge für das, was Du da behauptest, ist halt einfach falsch und hat in diesem Zusammenhang nichts verloren.
Warum überhaupt so etwas anführen, wenn es Null mit der Sache hier zu tun hat, und behaupten es würde was ganz anderes machen, wenn Du doch wissen willst dass es damit nichts zu tun hat? Das ist Erbsenzählen wenn es um Linsen geht :)
Antwort von Valentino:
Es geht nicht darum was GoPro damit meint, sondern darum für was RAW in dem Slashcam Artikel steht.
Aus diesem Grund habe ich es erwähnt und daran kann ich beim besten Willen nichts falsches feststellen.
Nur weil GoPro die Bezeichnung "RAW" komplett ab absurdum führt sollte man das nicht noch unterstützen.
Wenn dir ein Kollege erzähl er war gestern wegen einem Kredit bei einer Bank, ist dir doch auch klar das er nicht in den Stadtgarten marschiert ist um sich bei einem Obdachlosen ein Darlehen zu bewilligen lassen ;-)
Wenn es um die Modemarke "G-Star RAW" geht ist ja klar das es keine Kameras sind die RAW aufzeichnen. Bei einer Kamera, die aber Videos aufzeichnen kann dann noch mit CAM-RAW zu werben, ist das doch schon sehr nahe an einer Irreführung!!!
Antwort von AD Tom:
Ich hab"vor einiger Zeit dieses Tutorial erstellt - da geht es u.a. darum:
https://www.youtube.com/watch?v=mMsGZbHaD7U
Grüsse
Thomas.
Antwort von CameraRick:
Weil es mit Gamma und Codec nichts zu tun hat, deswegen falsch.
ZIP ist nun auch keine Kompression mehr und ich bin der Erbsenzähler. Alles klar :)
Antwort von srone:
"G-Star RAW"
warum nicht, mit einer jeans raw aufzeichnen wäre doch geil, jungs kommt runter, ist doch klar, dass gopro sich hier marketingtechnisch etwas einverleibt, was nun überhaupt nichts mit rawaufzeichnung zu tun hat. ;-)
lg
srone
Antwort von Valentino:
Sorry aber jetzt wird es mir echt zu bunt hier.
Da will man jemanden mal etwas erklären und schon wird auf der Person herum gehackt. Dazu irgendwelche Fragmente aus dem Kontext reisen und diese der Person unter die Nase reiben.
Habe Zip nur als Beispiel genommen und erkläre noch im gleichen Satz was für eine Art von Kompression ich meine.
Diese ganze "Hey du liegst voll daneben bei der GoPro" Nummer ist einfach nur ein Witz. Ein einfacher Hinweis hätte da vollkommen gereicht, da braucht man keine Person direkt an zu greifen.
Wenn man es aber macht, dann sollte man auch mit dem Echo umgehen können.
Antwort von iasi:
@ Rudi
Daumen hoch
Antwort von WoWu:
Das ist ja ne komische Diskussion hier, um Formate und Codecs.
Vielleicht solltet Ihr auch mal den von Rudi verfassten Artikel lesen ... oder wenigstens die ersten Sätze ....
Der Vorteil von RAW sollte somit auch klar sein: Jede nur mögliche Entscheidung, wie das Sensor-Bild später aussehen soll, wird von der Kamera in die Nachbearbeitung ausgelagert. Denn wenn eine Kamera nicht in RAW filmt, muss sie viele, nachträglich nicht mehr zu ändernde Entscheidungen über das Aussehen des Bildes treffen: Das fängt beim Debayering an (also wie aus den RGGB-Senseln durch Interpolation RGB-Pixel werden). Und betrifft in der Regel auch, wie die 12-16 BitBit im Glossar erklärt Sensordynamik für die interne 8-10 BitBit im Glossar erklärt Speicherung zusammengefasst wird.
Da steht nämlich sehr deutlich, dass RAW vor dem De-Bayering endet.
Das, was Ihr da diskutiert ist demnach gar kein RAW mehr.
Antwort von srone:
@ Rudi
Daumen hoch
vor allem wohl für die letzten zwei sätze, sind ja quasi ein iasi zitat. ;-)
schlamperei als ausrede - na prima.
lg
srone
Antwort von WoWu:
Moin srone
...er spricht aber von RAW und nicht von RED-"RAW"
Antwort von klusterdegenerierung:
Danke slashcam für den tollen Artikel, hat mir gefallen!
Antwort von srone:
hallo wowu,
ob nun redraw oder raw, hier wird der boden für schlampige belichtung und beleuchtung geebnet (fix it in the post), was imho einfach nicht geht und da sind wir wieder beim zacuto shootout, was nützt mir dann raw, als absoluter gewinn, wenn ich es nicht (aus-)nutze?
lg
srone
Antwort von iasi:
@ Rudi
Daumen hoch
vor allem wohl für die letzten zwei sätze, sind ja quasi ein iasi zitat. ;-)
schlamperei als ausrede - na prima.
lg
srone
da zitiere ich doch den Red-Häuptling: Hehehe
Antwort von iasi:
Moin srone
...er spricht aber von RAW und nicht von RED-"RAW"
der Stichler musste ja kommen :)
Antwort von srone:
@ Rudi
Daumen hoch
vor allem wohl für die letzten zwei sätze, sind ja quasi ein iasi zitat. ;-)
schlamperei als ausrede - na prima.
lg
srone
da zitiere ich doch den Red-Häuptling: Hehehe
du meinst den ex-sonnenbrillen-hersteller. ;-)
lg
srone
Antwort von iasi:
hallo wowu,
ob nun redraw oder raw, hier wird der boden für schlampige belichtung und beleuchtung geebnet (fix it in the post), was imho einfach nicht geht und da sind wir wieder beim zacuto shootout, was nützt mir dann raw, als absoluter gewinn, wenn ich es nicht (aus-)nutze?
lg
srone
das ist doch Quatsch - Raw macht nur Sinn, wenn der DR optimal genutzt wird - und das bedeutet eben: optimale Belichtung
Ich kann mir dann eben das Gefrickel mit dem Aufheller hier und dem Lichtpunkt da beim Dreh sparen - und dadurch eben Zeit und Geld sparen.
Zudem steht mir dann auch nicht das ganze Set voll mit unzähligen Lampen und Lämpchen, die mir und den Darstellern Bewegungsfreiheit nehmen.
Man hat früher schon abgewedelt und nachbelichtet - nun geht das eben noch exakter und leichter - weshalb also diesen Vorteil nicht nutzen?
Antwort von iasi:
@ Rudi
Daumen hoch
vor allem wohl für die letzten zwei sätze, sind ja quasi ein iasi zitat. ;-)
schlamperei als ausrede - na prima.
lg
srone
da zitiere ich doch den Red-Häuptling: Hehehe
du meinst den ex-sonnenbrillen-hersteller. ;-)
lg
srone
ja - den Freund martialischer und oft unpassender Namensgebung ...
aber er hat immerhin eine nette Firma gegründet, die nette Kameras baut
Antwort von srone:
hallo wowu,
ob nun redraw oder raw, hier wird der boden für schlampige belichtung und beleuchtung geebnet (fix it in the post), was imho einfach nicht geht und da sind wir wieder beim zacuto shootout, was nützt mir dann raw, als absoluter gewinn, wenn ich es nicht (aus-)nutze?
lg
srone
das ist doch Quatsch - Raw macht nur Sinn, wenn der DR optimal genutzt wird - und das bedeutet eben: optimale Belichtung
ja, da bin ich doch bei dir, die frage ist diskutieren wir absolut, über bildqualität oder kosten/nutzen?
lg
srone
Antwort von Funless:
Auch von mir vielen Dank an die slasCAM Redaktion für den Artikel!
Ich fand' ihn äußerst informativ und (für einen Amateur wie mich) sehr verständlich geschrieben.
Antwort von iasi:
hallo wowu,
ob nun redraw oder raw, hier wird der boden für schlampige belichtung und beleuchtung geebnet (fix it in the post), was imho einfach nicht geht und da sind wir wieder beim zacuto shootout, was nützt mir dann raw, als absoluter gewinn, wenn ich es nicht (aus-)nutze?
lg
srone
das ist doch Quatsch - Raw macht nur Sinn, wenn der DR optimal genutzt wird - und das bedeutet eben: optimale Belichtung
ja, da bin ich doch bei dir, die frage ist diskutieren wir absolut, über bildqualität oder kosten/nutzen?
lg
srone
du gehst von unbegrenzter Drehzeit aus ... und du bedenkst nicht die Einschränkungen beim Dreh, die auch nur eine Lampe an ungünstigem Ort mit sich bringen kann.
Antwort von srone:
nicht immer im kreis herum, iasi, irgendeinen diskussionsansatz im sinne einer position zb bildqualität absolut, sollten wir finden. ;-)
lg
srone
Antwort von iasi:
nicht immer im kreis herum, iasi, irgendeinen diskussionsansatz im sinne einer position zb bildqualität absolut, sollten wir finden. ;-)
lg
srone
gut - dann so:
Beim Camerashootout hatten die nicht-Raw-Leute mehr Zeit und mehr Lichtmittel aufgewendet, aber einen Unterschied konnte bei der Bildqualität nicht festgestellt werden.
Absolut kannst du bei Raw eine bessere Bildqualität erzielen, da du das bestmöglihe Ausgangsmaterial hast, das die auch am meisten Gestaltungsspielraum bietet. Und dabei geht es eben nicht um Unter- oder Überbelichtung.
Nimm Raw und ProRes aus einer BMD-Cam - da hast du eben mehr "Fleisch" am Raw.
Und z.B. Licht auf die Augen zu legen, ist bei Raw eben problemloser.
Dann habe ich eben auch die bessere Bildqualität. Denn mach das mal bei einem Darsteller, der sich übers ganze Set bewegt, mit Leuchtmitteln.
Antwort von srone:
Und z.B. Licht auf die Augen zu legen, ist bei Raw eben problemloser.
Dann habe ich eben auch die bessere Bildqualität. Denn mach das mal bei einem Darsteller, der sich übers ganze Set bewegt, mit Leuchtmitteln.
geh auf den nachbarthread "benötigte lichtleistung...", wowu hat alles gesagt, wir sollten subtiler kommunizieren, was du beschreibst, bin ich ebenfalls bei dir, nur eben im amateurkontext, bitte nicht alles so pauschal, das missverständnis wird dadurch nur noch grösser. ;-)
lg
srone
Antwort von WoWu:
Licht wäre das Letzte, was mir bei RAW Vorzügen einfiele.
Antwort von enilnacs:
Das RAW-Format von ARRI ist unkomprimiert!
Es werden nur ganz leichte , zip ähnliche und mathematisch verlustfreie Kompressionen eingesetzt.
Red und Sony komprimieren mit Hilfe einer Wavelet Komprimierung sehr stark im Verhältnis 3:1 bis fast 18:1. Bei der Red kann man das einstellen, bei Sony hat man außer bei der F65 keinen Einfluss auf die Komprimierung.
Bei Blackmagic gibt es von 1:1 bis glaube ich 5:1 alle möglichen Stufen, wobei nicht jede Komprimierung in jeder Kamera funktioniert.
Das RAW von Canon ist eigentlich gar keine RAW, da alle Werte fix sind und bei Cineform geht auch alles von 2:1 bis 8:1 mit Wavelet.
RAW Cineform hat nichts mit dem RGB/YUV Codec zu tun.
Genau und das RAW der GoPros ist auch ein ganz normaler h264 4:2:0 Stream mit flacher Gammakurve.
Welchen Teil genau von "je nach Hersteller" hast du nicht verstanden ? ;-)
Hab es doch extra gesagt. Lossless oder nicht. Komprimieren tun alle.
Nichts für Ungut.
Antwort von srone:
Licht wäre das Letzte, was mir bei RAW Vorzügen einfiele.
;-))
lg
srone
Antwort von iasi:
Und z.B. Licht auf die Augen zu legen, ist bei Raw eben problemloser.
Dann habe ich eben auch die bessere Bildqualität. Denn mach das mal bei einem Darsteller, der sich übers ganze Set bewegt, mit Leuchtmitteln.
geh auf den nachbarthread "benötigte lichtleistung...", wowu hat alles gesagt, wir sollten subtiler kommunizieren, was du beschreibst, bin ich ebenfalls bei dir, nur eben im amateurkontext, bitte nicht alles so pauschal, das missverständnis wird dadurch nur noch grösser. ;-)
lg
srone
"im amateurkontext" ????
"benötigte lichtleistung..." ????
... und wieder verwechselst du scheinbar die geringere Anzahl von Lampen mit Unterbelichtung.
Wir haben heute Kameras, die lichtempfindlich sind, wie einst körniges High-Speed-Material und dabei die Bildqualität eines Negativ aus dem "normal"-Real bieten.
Ich hab mehr Probleme damit, die Lichtmenge mit Filterung in Zaum zu halten, damit ich nicht derart abblenden muss, dass die Weichzeichnung durchs Objektiv beginnt.
Antwort von srone:
iasi, die bandbreite, die wir hier bei slashcam diskutieren - ist enorm, soll ich einem to, der nicht im geringstem, weiss was er tut, mit raw kommen?
der nichtmal grundlicht, gegenlicht beherrscht?
das meinte ich mit subtil. ;-)
lg
srone
Antwort von Valentino:
Welchen Teil genau von "je nach Hersteller" hast du nicht verstanden ? ;-)Hab es doch extra gesagt. Lossless oder nicht. Komprimieren tun alle.Nichts für Ungut.
Habe ich schon verstanden, glaube aber nicht das die mit der mathematisch verlustfreien Komprimierung auf 2:1 kommen. Werden eher bei 1,2:1 bis 1,5:1 liegen wenn es der Bildinhalt her gibt. Dabei ist die Datenrate bei ARRI-RAW eigentlich fix, also dann doch keine Komprimierung?
Hier mal das Whitepaper, die 250MB/Sek sind doch sehr nahe an den echten 1:1 12bit@3k http://www.arri.com/?eID=registration&file_uid=10442
Antwort von iasi:
iasi, die bandbreite, die wir hier bei slashcam diskutieren - ist enorm, soll ich einem to, der nicht im geringstem, weiss was er tut, mit raw kommen?
der nichtmal grundlicht, gegenlicht beherrscht?
das meinte ich mit subtil. ;-)
lg
srone
ah - ok, dann lass uns einfach bei diesem Thread bleiben.
denn es gibt schließlich Profis, die z.B. völlig auf Leuchtmittel verzichten und nur das nutzen, das ihnen geboten wird ... oder Profis, die wie im Theater keine Technik um die Darsteller herum dulden ...
@WoWu
natürlich denke ich auch bei Raw immer an Licht ... auch in der Post ... wenn ich in der Post an einer Stelle aufhelle, dann wird daraus in der Projektion mehr Licht an dieser Stelle, das am Ende das Auge des Betrachters erreicht.
Antwort von enilnacs:
Welchen Teil genau von "je nach Hersteller" hast du nicht verstanden ? ;-)Hab es doch extra gesagt. Lossless oder nicht. Komprimieren tun alle.Nichts für Ungut.
Habe ich schon verstanden, glaube aber nicht das die mit der mathematisch verlustfreien Komprimierung auf 2:1 kommen. Werden eher bei 1,2:1 bis 1,5:1 liegen wenn es der Bildinhalt her gibt. Dabei ist die Datenrate bei ARRI-RAW eigentlich fix, also dann doch keine Komprimierung?
Hier mal das Whitepaper, die 250MB/Sek sind doch sehr nahe an den echten 1:1 12bit@3k http://www.arri.com/?eID=registration&file_uid=10442
Und schon fangen die (RAW)Probleme und -Umsetzungen an:
ARRIRAW (und nicht nur) wurde speziell entwickelt damit man es auch über SDI überträgt(12bit fürs Monitoring, LUT, etc.).
So gesehen ist das Signal per se unkomprimiert, sowie auch andere, Canon, Sony, AJA, etc.. Und Arri schmeisst dieses Signal auf ner SSD. Das sind dann die XR Capture Drives. Die in 19min voll sind. Da ist ARRI toll.
Aaaaaber, der Teufel liegt im Detail. ARRIRAW ist ein 12bit LOG Signal, die Kompression findet zwar nicht lossy statt, jedoch im LOG Bereich statt vom 16bit echtem RAW des Sensors.
Das mag zwar immer noch "RAW" sein, aber kein unverändertes RAW mehr vom Sensor, und wie, was intern dann vom 16bit Sensor auf 12 bit LOG gedrückt wird, weiss nur Arri selbst: Siehe Log C
So gesehen ist das sehr wohl eine Kompression, es ist ja 12bit LOG wenn auch mit einem G mehr, RGGB, gequetscht im A des SDI RGBA ob das nun den namen RAW verdient.. grenzwertig. ;-)
Also Rudi sollte echt mal ne Echtes Sensor RAW vs LOG "RAW" vs LOG Datenbank machen. :-)
Und noch was, echtes 12bit RAW ist NICHT 12bit LOG RAW. Auch wenn beide RGGB haben, echtes RAW ist UNVERÄNDERT und LINEAR direkt von den Senseln.
RAW Arten:
1. Reines RAW, linear, RGGB, 16/14/12bit direkt vom Sensor gespeicherr ADC Datenstrom unangetastet.
2. RAW, LOG, RGGB, von 16/14 auf 12 bit, Datenkomprimierung in 12bit LOG statt Codec > 3G-SDI Monitoring möglich zB
3. RAW, lossless Codec, RLE,ZIP, RGGB, Codecs
4. RAW, lossy Codec, linear, RGGB, Codecs
5. RAW, lossy Codec, LOG, RGGB, Codecs
3-5 Sagt rein gar Nichts über das RAW Signal VOR dem Codec, kann genauso gut ein schwacher 12bit LOG sein vom ASIC, bzw Sensor oder gar per LOG wieder aufgeblasen beim speichern und ebenfalls nicht ob Algorithmen verwendet werden. 3-5 ist einfach ein Codec das im Idealfall das "beste" bekommt und speichert.
Erinnert sich jemand an BMDs schwarze Sonne ? Das passiert wenn man das Signal durch das ASIC interpretiert, anstatt wirklich RAW zu speichern. nur vor dem Codec muss es ja vom ASIC aufbereitet werden. ;-)
Antwort von WoWu:
Das Problem ist eben wirklich, dass es keine Normierung für RAW gibt und dass jeder sein Signal benennen kann, wie er will.
Die meisten sogenannten RAWs sind nämlich tatsächlich nur irgendwelche komprimierten und gekappten OETFs.
Das zweite Problem besteht darin, dass es kaum Equipment gibt, mit dem man solche hohen Qualitäten sichtbar machen kann und daraus resultiert, dass solche "Tester" natürlich auch keinen Unterschoed auf ihrem 8/10 Bot Equipment sehen .... und dann sagen, es gäbe keinen Unterschied.
Insofern wird es Rudi da auch nicht leicht haben denn erst wenn man mal einen echten 12 Bit Workflow (Proxy und erst die Ausbelichtungen aus 12 Bit auf Film) vorgenommen hat, wird man im Vergleich zur konventionellen Bearbeitung (10Bit LOG) den Umterschied sehen.
Daraus folgt aber, dass man für alle Produktionen, die solche Ansprüche nicht stellen, sich 12 Bit RAW Material auch schenken kann, es sei denn, man will bewusst ins De-Bayering eingreifen.
Nur finde ich, sollte man dann solche Pseudo RAWs auch so nennen und nicht jedem hergelaufenen Marketingfuzzi das Feld überlassen.
Nach wie vor halte ich den ACES Ansatz für einen gesunden Kompromiss. Der behauptet wenigstens erst gar nicht, RAW zu sein hat ab wenigstens das Zeug, anständige Bilder bei einer weitgehenden Standardisierung abzuliefern.
Das was bei RAW bisher immer gefehlt hat (Standardisierung).
Es bleibt nur eben spannend, wieviele Hersteller mitmachen und wieviele lieber Ihre Märchen über ihre Werbeabteilungen verbreiten .... und wieviele Blogs (und ihre Leser) dann darauf reinfallen.
Antwort von Valentino:
Das mit den 12bit stimmt so weit, bei der Übertragung über SDI wird aus dem RAW-Daten keine LOG Videosignal. Es werden einfach nur die zweimal 1.5 bzw. 3Gbit Bandbreite genutzt um die Daten an den Codex Rekorder weiter zu geben.
Die neue Alexa XTs und Alexa Mini zeichnen dazu Onboard auf und brauchen kein SDI mehr.
Was mir auch klar ist das die 16bit vom Sensor Prozessing nicht 1:1 durch gereicht werden, es ist und bleibt aber weiter RAW, da ja kein DeBayering oder gar DeMosaicing statt findet.
Log und RAW sind ja laut Wolfgang auch kein Widerspruch.
Antwort von enilnacs:
Das mit den 12bit stimmt so weit, bei der Übertragung über SDI wird aus dem RAW-Daten keine LOG Videosignal. Es werden einfach nur die zweimal 1.5 bzw. 3Gbit Bandbreite genutzt um die Daten an den Codex Rekorder weiter zu geben.
Die neue Alexa XTs und Alexa Mini zeichnen dazu Onboard auf und brauchen kein SDI mehr.
Was mir auch klar ist das die 16bit vom Sensor Prozessing nicht 1:1 durch gereicht werden, es ist und bleibt aber weiter RAW, da ja kein DeBayering oder gar DeMosaicing statt findet.
Log und RAW sind ja laut Wolfgang auch kein Widerspruch.
Doch, ARRIRAW ist immer 12bit LOG RAW, der Stream wird nur intern auf der SSD gespeichert:
The camera packs the ARRIRAW data into a 12 bit log encoded RGBA HD video stream, which is sent over a standard SMPTE 424M or SMPTE 372M dual link HD-SDI connection.
Nur es um genauer zu sagen: von 65535 Werten (16bit) der bei der Alexa zB, komprimiert man das auf 4096 Werten pro Kanal runter, in LOG! Das ist 1/16 der Daten. Wenn das noch ROH ist... ;-)
Natürlich ist das Gemecker auf höchstem Niveau, aber, hey, wenn wir schon von sauberer und reiner Reinheit auf reinster Sauberkeit reden, dann...
Antwort von iasi:
Das Problem ist eben wirklich, dass es keine Normierung für RAW gibt und dass jeder sein Signal benennen kann, wie er will.
Die meisten sogenannten RAWs sind nämlich tatsächlich nur irgendwelche komprimierten und gekappten OETFs.
Das zweite Problem besteht darin, dass es kaum Equipment gibt, mit dem man solche hohen Qualitäten sichtbar machen kann und daraus resultiert, dass solche "Tester" natürlich auch keinen Unterschoed auf ihrem 8/10 Bot Equipment sehen .... und dann sagen, es gäbe keinen Unterschied.
Insofern wird es Rudi da auch nicht leicht haben denn erst wenn man mal einen echten 12 Bit Workflow (Proxy und erst die Ausbelichtungen aus 12 Bit auf Film) vorgenommen hat, wird man im Vergleich zur konventionellen Bearbeitung (10Bit LOG) den Umterschied sehen.
Daraus folgt aber, dass man für alle Produktionen, die solche Ansprüche nicht stellen, sich 12 Bit RAW Material auch schenken kann, es sei denn, man will bewusst ins De-Bayering eingreifen.
Nur finde ich, sollte man dann solche Pseudo RAWs auch so nennen und nicht jedem hergelaufenen Marketingfuzzi das Feld überlassen.
Nach wie vor halte ich den ACES Ansatz für einen gesunden Kompromiss. Der behauptet wenigstens erst gar nicht, RAW zu sein hat ab wenigstens das Zeug, anständige Bilder bei einer weitgehenden Standardisierung abzuliefern.
Das was bei RAW bisher immer gefehlt hat (Standardisierung).
Es bleibt nur eben spannend, wieviele Hersteller mitmachen und wieviele lieber Ihre Märchen über ihre Werbeabteilungen verbreiten .... und wieviele Blogs (und ihre Leser) dann darauf reinfallen.
na - RedRaw, ArriRaw ... die Benennung zeigt schon auch, dass es nicht DAS Raw ist.
DAS Raw scheint mir auch nicht sinnvoll, denn den universellen DeBayer, der besser ist, als die herstellerspezifischen, kann ich mir nur schwer vorstellen.
Red feilt ja z.B. permanent an seinem Debayer bzw. Redcine herum.
Faktisch kommt es wohl auch eher darauf an, wieviel Gestaltungsspielraum diese Raw-Formate in der Post bieten, um dann am Ende zu einem 8 oder 10bit Ergebnis zu gelangen.
Mag ja sein, dass z.B. RedRaw bei zu hoher Komprimierungsrate in machen Fällen zu problematischen Ergebnissen führt - übertreibt man es jedoch mit der Komprimierung nicht, lässt sich mit RedRaw so arbeiten, wie "echtes" Raw - und das zählt.
Es gibt vielleicht sogar ganz spezielle Fälle, bei denen 3:1 schon problematisch sind - ich bin noch keinem slchen Fall begegnet - aber eben nur dann muss man sich die Frage stellen, ob RedRaw nun "echtes" Raw ist oder eben nicht.
Antwort von WoWu:
Es geht gar nicht um RED oder ARRI, sondern darum, was noch RAW ist und was bereits ein Videostream mit lediglich flacher Ünertragungsfunktion ist und in dem Augenblick, in dem ein vIdeostream daraus wird, sind die Unterscheidungsmerkmale zu dem, was die Kameras als LOG anbieten nämlich nur noch geringfügig.
Und was das De-Bayering betrifft, so kann ich mir vorstellen, dass RED da noch dran rumreist, weil sie eine Einstellung für alle Bildvorlagen finden müssen, was zwangsläufig immer ein mehr oder weniger fauler Kompromiss ist.
Hat man das De Bayering aber in der Post in der Hand, muss man solche Kompromisse nicht mehr eingehen und stellt jeweils die Parameter ein, die für die gerade vorliegende Bildsequenz am Vorteilhaftesten sind und wählt die Parameter die dem Zielformate am besten bekommen.
Das hat wenig mit "sich vorstellen können" zu tun sondern mit hochwertiger Bildverarbeitung.
Wenn der Schnitt RAW oder nicht RAW tatsächlich vor dem De-Bayering gemacht wird, sind das nämlich alles lediglich Fläche Videosignale, egal, ob 10,12 oder 14 Bit, weil sehr viele Parameter bereits festgezurrt wurden.
Da gehe ich absolut mit enilacs conform.
Antwort von WoWu:
Das mit den 12bit stimmt so weit, bei der Übertragung über SDI wird aus dem RAW-Daten keine LOG Videosignal. Es werden einfach nur die zweimal 1.5 bzw. 3Gbit Bandbreite genutzt um die Daten an den Codex Rekorder weiter zu geben.
Die neue Alexa XTs und Alexa Mini zeichnen dazu Onboard auf und brauchen kein SDI mehr.
Was mir auch klar ist das die 16bit vom Sensor Prozessing nicht 1:1 durch gereicht werden, es ist und bleibt aber weiter RAW, da ja kein DeBayering oder gar DeMosaicing statt findet.
Log und RAW sind ja laut Wolfgang auch kein Widerspruch.
Nee, in der Tat, darin sehe ich keinen Widerspruch denn es kommt ja auf die Beschaffenheit des Pixels an und wenn ich aus einem 16Bit Ursprungsformat die einzelnen Werte in einen 12 Bit Datenstrom Mappe, verändere ich die einzelnen Pixels ja nicht sondern habe lediglich eine Auswahl der Originalpixels, was mir von einer linearen Sensorablage ja sehr entgegen kommt, denn warum sollte ich die unteren Bytes mit verrauschten Inhalten belegen.
Wenn das ARRI RAW kein De-Bayerin trifft, ist das auch kein Vodeostream.
ARRI spricht aber von einem Videostream. Das deutet darauf hin, dass nicht nur logarithmisch gemapped wird sondern bereits interpoliert wird.
Die Frage, die man eben klären muss ist: wird de-Bayern oder nicht ... wenn nein, warum ist dann die Rede von Videostream und nicht von Datastream.
Soviel Genauigkeit traue ich ARRi allemale zu.
Antwort von iasi:
ja - ich verstehe dich - kein Widerspruch.
Nur frage ich mich, wie es in der Praxis Vorteile bringen könnte, wenn ich wirklich die reinen Sensordaten bekomme, wo doch der Kamerahersteller für seine Geräte die bestmöglichen Debayer liefern dürfte.
Gibt es denn einen Debayer, der mir dann auch wirklich die Vorteile für alle Kameras liefern würde, wie du sie angedacht hast?
Das Bessere ist natürlich der Feind des Guten. Würde ein "echtes Raw" in der Praxis aber wirklich Vorteile bringen?
Bietet nicht die Sony F65 dieses echte Raw?
Antwort von WoWu:
Wie praktisch ist es, dass Du verschiedene Farbvorfilterumgen hast ?
Genauso ist es mit dem De Bayering. Derzeit sind 6 Algorithmen gängig, die unterschiedliche Ergebnisse bei unterschiedlichen Bildinhalten zeigen.
Dazu kommt, dass durch Parameterveränderung Einfluss auf Aliasingeffekte nehmen kannst, die temporär im Bild auftauchen.
Außerdem besteht ein großer Unterschied, wie man die Farbwerte gewinnt und aus welcher Kombination und welcher Richtung.
Was Dir im De Bayering als Effekt im Bild entsteht, bekommst Du nie wieder rausgerechnet.
Da haben sich die Urväter des RAW schon was bei gedacht.
Es ist nur eben nicht wirklich das, was man heute als 1-Knopf Bedienung im breiten Videosegment verlangt.
Da magst Du wohl Recht haben, dass solche Tools wirklich Choloristen vorbehalten sind.
Antwort von iasi:
Wie praktisch ist es, dass Du verschiedene Farbvorfilterumgen hast ?
Genauso ist es mit dem De Bayering. Derzeit sind 6 Algorithmen gängig, die unterschiedliche Ergebnisse bei unterschiedlichen Bildinhalten zeigen.
Dazu kommt, dass durch Parameterveränderung Einfluss auf Aliasingeffekte nehmen kannst, die temporär im Bild auftauchen.
Außerdem besteht ein großer Unterschied, wie man die Farbwerte gewinnt und aus welcher Kombination und welcher Richtung.
Was Dir im De Bayering als Effekt im Bild entsteht, bekommst Du nie wieder rausgerechnet.
Da haben sich die Urväter des RAW schon was bei gedacht.
Es ist nur eben nicht wirklich das, was man heute als 1-Knopf Bedienung im breiten Videosegment verlangt.
Da magst Du wohl Recht haben, dass solche Tools wirklich Choloristen vorbehalten sind.
Und du denkst nicht, dass die Hersteller die Stellschrauben fein genug drehen?
Coloristen haben also spezielle Raw-Tools?
Fragt sich nur wofür, denn viele "echte" Raw-Formate gibt es ja nicht.
Nachdem du auch hinter ArriRaw ein Fragezeichen gesetzt hast, wüßte ich jetzt gar nicht, welche Kameras nun eigentlich echtes Raw bieten.
Und eine Frage zum Verständnis der Codecs ala Red: Ist es denn nicht so, dass die Sensel-Signale zwar digitalisiert und dann auch komprimiert werden, das DeBayern, dann aber eben doch erst in der Post erfolgt?
Antwort von WoWu:
Du musst schon genau lesen.
Ich habe nicht gesagt, dass ARRI keine Sensordaten komprimiert, wundere mich nur, dass sie von Videostream und nicht von Datenstream reden.
Aber ich habe schon ein paarmal gesagt, dass RAW nirgendwo spezifiziert ist und streng genommen kann jeder Kamerahersteller jeden beliebigen Video- oder Datenstrom RAW nennen.
Nur darf man sich eben nicht wundern, dass es dann keine Unterschiede zu den üblichen LOG Ünertragungen gibt.
Und wer mit RAW Daten umgeht, sollte sich mal davon überzeugen, inwieweit seine RAWs sich eigentlich von LOG Videos unterscheiden, bevor er die Nase rümpft.
Aber auch die Fotofreunde sollten lieber mal genauer hinsehen, was ihre Entwicklungstools eigentlich veranstalten.
Meistens streifen die nämlich zunächst auch mal die beiden Endbits einfach ab und schon war es das mit 12 Bit, selbst wenn die Kamera sie noch rausgetan hat.
Antwort von iasi:
Du musst schon genau lesen.
Ich habe nicht gesagt, dass ARRI keine Sensordaten komprimiert, wundere mich nur, dass sie von Videostream und nicht von Datenstream reden.
Aber ich habe schon ein paarmal gesagt, dass RAW nirgendwo spezifiziert ist und streng genommen kann jeder Kamerahersteller jeden beliebigen Video- oder Datenstrom RAW nennen.
Nur darf man sich eben nicht wundern, dass es dann keine Unterschiede zu den üblichen LOG Ünertragungen gibt.
Und wer mit RAW Daten umgeht, sollte sich mal davon überzeugen, inwieweit seine RAWs sich eigentlich von LOG Videos unterscheiden, bevor er die Nase rümpft.
Aber auch die Fotofreunde sollten lieber mal genauer hinsehen, was ihre Entwicklungstools eigentlich veranstalten.
Meistens streifen die nämlich zunächst auch mal die beiden Endbits einfach ab und schon war es das mit 12 Bit, selbst wenn die Kamera sie noch rausgetan hat.
Deiner Schlussfolgerung kann ich nicht folgen:
Nur weil Hersteller keine reinen Sensordaten für die Post aufs Speichermedium schreiben, muss doch nicht gleich jeder Unterschied zu "den üblichen LOG Ünertragungen" dahin sein.
Was heißt zudem "Sensordaten" - die liegen ja auch nicht gleich digital vor.
Und wie du selbst sagst: Selbst im Fotobereich ist Raw nicht gleich Raw.
Und:
Wenn ich an meinen Foveon-Sensor denke, dann sind die Vorteile gegenüber Bayer in der Theorie zwar einleuchtend, aber in der Praxis sind sie nicht mehr wirklich zu erkennen.
Antwort von enilnacs:
Ich muss ein paar Sachen bezüglich RAW noch hinzufügen.
RAW ist... ähm wäre... (ob LOG oder nicht) gegenüber uncompressed RGB LOG Video:
Unkalibriertes RGGB + Metadaten! (Belichtung,Temp,etc..) pro FRAME!
Und genau hier liegt ein anderer Hund begraben: Metadaten pro FRAME!
Bei einem normalen PhotoRAW bekommt man JEDES Bild mit separaten Metadaten, DURCHGEHEND, da je nach Whitebalance man ja das bild in RAW nachher kalibrieren will/muss.
Dies ist aber bei VideoRAW nicht in allen Fällen so, zB:
Canon Raw is a 10-bit format with baked-in ISO and white balance. That’s right, unlike the other Raw formats, Canon is baking-in gain adjustments (ISO/white balance) before outputting the Raw data....
....These adjustments are also applying the Canon Log curve to the image, which maximizes the range of the final 10-bit file.
Also, nicht nur dass man keine Metadaten pro FRAME für echtes Post hat, es ist auch noch im Falle Canons schon fix gebacken, also kein RAW (wie denn auch). Das spätere "debayern" nur in 10 bit LOG sogar, ist ein Witz bei 1024 gebackenen(!) Werten. Das könnte man ruhig 10bit LOG + ein G Kanal nennen zum "debayern", aber in diesem fall in Wirklichkeit nur sampeln. ;-)
Und solche "RAW" Beispiele gibt es genug. zB die heilige Kuh 12bit RAW von Sony:
The equipment used was the Sony FS7 with the XDCA-FS7 RAW extension unit that is supposed to output a 12-bit RAW stream. I recorded that feed with the Odyssey 7Q+ recorder. In our test lab it turned out that there’s actually about 1/2 a stop of dynamic range missing in the RAW footage.
Zur Zeit ist professionelles Video RAW so weit von manch (sogar billigen) Photo RAW entfernt wie Himmel und Erde.
Kann man damit arbeiten ? Sicher, und die Qualität ist über jeden Zweifel erhaben. Aber ist es RAW ? Nunja... ähmm... ;-)
Antwort von WoWu:
Ja klar ist es RAW, weil jeder es so verstehen will, der sich entschieden hat, damit zu arbeiten und RAW nirgends wirklich definiert ist und damit jeder seinen Videostream so nennen kann.
Das ist wie mit 4K.
Übrigens ... die halb Blende verschwindet auch bei Foto-RAW.
Kommt ganz darauf an, welche Entwicklungssoftware Du benutzt.
@Iasi
muss doch nicht gleich jeder Unterschied zu "den üblichen LOG Ünertragungen" dahin sein.
Von welchen Unterschieden sprichst Du ?
Antwort von iasi:
" there’s actually about 1/2 a stop of dynamic range missing in the RAW footage"
Wie kommen die denn auf den Wert?
Von welcher Reverenz gehen sie aus?
Hatten sie in ihrem Labor die Kamera mal eben so umgestellt, dass sie die reinen Sensordaten ausgibt?
Ohne Reverenz ist dies doch nur schlichte Behauptung - zumal DR sowieso nicht auf eine halbe Blende eingegrenzt werden kann (es gibt ja reichlich DR-Angaben zu jeder Kamera - jeder kommt auf andere Werte)
Zu sagen, dieses Canon- oder Sony-Raw würde praktische keine Vorteile/Unterschiede zu anderem Material bieten, ist auch nur eine Behauptung - ebenso könnte man behaupten: Es gibt nur in der Theorie Unterschiede zwischen Sony-Raw und reinem Raw in der Praxis.
Ich würde mal gern ein Beispiel genannt bekommen, aus dem die Unterschiede zwischen den Raw-Formen der Hersteller und reinem Raw auch wirklich ersichtlich und deutlich wird. Wir bewegen uns immer nur in der Theorie, auch wenn hier einige Kameras und Formate genannt wurden.
http://pro.sony.com/bbsc/ssr/show-highe ... #/f65t1_10
"... 16-bit linear imagery for supple grayscale rendition that 10- and 12-bit systems cannot match
Choice of F65RAW-SQ mode with mild 3.6:1 compression or F65RAW-Lite mode with 6:1 compression ..."
Welche Kamera bietet denn nun reines Raw?
Wenn"s die eh nicht gibt, dann ...
Antwort von enilnacs:
" Welche Kamera bietet denn nun reines Raw?
Wenn"s die eh nicht gibt, dann ...
Dann sollte man eine bauen, ganz einfach. :-)
Nicht mal die F65 ist davon gefeilt (wage ich die f65 anzufasssen? ja! >:-), du bekommst das F65RAW, ist ein Wavelet Kompressor. Ja 16 bit linear, aber eben ein lossy Wavelet, kein 1:1 Sensel RAW. Asche über meinen Haupt, das ich bei sowas meckere! Ich fasse mich selbst nicht. :-D, aber es stimmt, es ist immer noch (sogar) verlustbehaftet komprimiert im vergleich zum vollen RAW Sensel. (oh Gott, ne f65 kritisieren... bin ich noch Alle?) :-D
Mir würde es genügen (LOL), ganz einfach die RAW Bilder als Bildsequenz in einem Folder zu speichern. Einzelne RAWs voll mit Metadaten, etc.. Die Dinger landen doch sowieso im Post nachher wie zB. DPX,EXR,etc.. Sequenz.
Man müsste doch nur ne Photokamera finden die halt 23.976,24,etc.. einfach RAWs schiesst. 1:1 zum Sensor, den Senseln. Das wäre reines RAW. Aber es müssen vollwertige Photos sein vom (ADC Wandler)
Meine Güte, ich würde es sogar ohne Tonaufnahme kaufen. :-) Wie beim guten alten Film.
@WoWu, ja stimmt, je nach software geht zB. 1/2 auch bei Photo verloren.
Antwort von WoWu:
@Iasi
Wie kommen die denn auf den Wert?
Ganz einfach, indem man die Werte miteinander vergleicht und feststellt, dass die Entwicklungssoftwere die höheren Auflösungen auf einem tiefen Niveau festklemmt.
Aber da sind wir doch genau bei dem diskutierten Punkt ....
Die Fotografie hat uns irgend wann mal das RAW Format präsentiert und uns Vorzüge in Qualität und Bearbeitungsmöglichkeit gegeben und in die Videotechnik hat sich dann zwar der Name gerettet, um zu suggerieren, man hätte diese hochqualitativen Mittel, aber in der Tat nur eine Mogelpackung, in der gar kein RAW drin steckt sondern lediglich eine LOG Bearbeitung mit anderem Etikett.
Das ist, wie 4K ... solche Bezeichnungen haben auch einmal die Menge der Bildpunkte angegeben .... bis es dann nur noch die menge der Pixels auf dem Sensor waren. Eine ähnliche Mogelpackung.
Antwort von iasi:
@Iasi
Wie kommen die denn auf den Wert?
Ganz einfach, indem man die Werte miteinander vergleicht und feststellt, dass die Entwicklungssoftwere die höheren Auflösungen auf einem tiefen Niveau festklemmt.
Die haben nur das Hersteller-RAW aus der Kamera - da gibt es keinen zweiten Wert, mit dem sie vergleichen können.
Wer sagt also, dass ein reines Raw 0,5 Stops mehr hat? Sie haben den Raw-Wert nicht.
Antwort von WoWu:
Kuckst du hier..
Antwort von mash_gh4:
Die Fotografie hat uns irgend wann mal das RAW Format präsentiert und uns Vorzüge in Qualität und Bearbeitungsmöglichkeit gegeben und in die Videotechnik hat sich dann zwar der Name gerettet, um zu suggerieren, man hätte diese hochqualitativen Mittel, aber in der Tat nur eine Mogelpackung, in der gar kein RAW drin steckt sondern lediglich eine LOG Bearbeitung mit anderem Etikett.
naja -- man muss auch sehen, welchen zweck man mit den betreffenden mitteln verfolgt. sich nur um bezeichnungen oder theoretisch idealisierungen zu streiten, führt meistens nicht zum ziel.
in der fotografie gab es zum bsp. das problem, dass die rechenleistung der verarbeitungshardware einfach nicht ausreichen wollte, um um auch nur JPGs in der selben qualität zu liefern, wie man sie ausgehend von den selben ursprungsdaten auf einem mittelmäßigen PC jederzeit zu berechnen konnte. den entsprechenden verarbeitungsprozess in nachträgliche externe bearbeitung auszulagern war also mehr als naheliegend. das wir heute tlw. ganz andere qualitative feinheiten damit verbinden, hat nur damit zu tun, dass der rest bereits so selbstverständlich geworden ist und die noch immer stattfindeden verbesserungen immer spitzfindiger werden und hoch spezialisierte detaillösungen betreffen.
im videobereich sind die grundsätzlichen vorgaben ein bisserl anders gelagert. hier geht's wirklich um datenmengen und auflösungen, die man vernünftiger weise anders behandeln muss (also bspw. ihre sequentielle natur in die kompression und rauschunterdrückung einbeziehen etc.)
natürlich macht's trotzdem sinn, die entsprechenden feinheiten und kompromisse zur abwechslung einmal wieder in erinnerung zu rufen und sauber herauszuarbeiten. trotzdem dürfte für die praxis eher relevant sein, wie gut die entsprechenden technischen kunstgriffe und bewusst gewählten abstriche mit den angestrebten resultaten harmonieren. für viele hier angesprochene nachträgliche bearbeitungsschritte braucht man einfach nur daten, die sich möglichst optimal in dafür geeignete rechenmodelle fügen. ober ob das nun log., lin. oder unentzerrte rohdaten in einem unkonventionell genutzen datencontainer ist, macht vielfach keinen entscheidenden unterschied. es ist oft eher ziemlich kurzsichtig, wenn man in diesem zusammenhang ausschließlich die wortbreite der entsprechenden daten blind miteinander vergleicht, statt das tatsächliche zusammenspiel verschiedener optimierungstechniken zu berücksichtigen, die letztlich zu ganz anderen konsequenzen führen mögen, als es auf den ersten blick wirkt. wenn man das nicht beachtet, wird auch auch das sture festklammern an technischen details und deren abweichung vom theoretischen ideal derart weltfremd, dass man schließlich selbst ganz ähnlichen täuschungen unterliegt, wie man sie jenen vorwirft, die sich nur auf höchst vereinfachte marketingsprüche verlassen, statt sich um irgend ein nützliches hintergrundwissen zu bemühen.
Antwort von WoWu:
Du verkennst den Fakt, dass RAW, wie es ursprünglich verbreitet wurde, in der Videotechnik von den meisten Firmen gar nicht geliefert wird.
Über die Gründe muss man nicht referieren, die sind hinlänglich allen bekannt.
(Aber schön, dass Du reflexartig mit Deiner Feuilletonistischen Kompetenz den relativ zielgerichteten Thread aufgelockert hast.)
Damit sind wir aber bei einer ganz anderen Diskussion, nämlich den Unterschieden, einzelner komprimierter (nicht RAW) Verfahren.
Aber wirf mal einen Blick in die Überschrift ...
Antwort von iasi:
Kuckst du hier..
Die Werte kommen ja wohl nicht aus einer Kamera.
Man müsste reines Raw aus der Sony-Cam mit Sony-Raw aus derselben Kamera vergleichen ... alles andere ist sonst nur eine unbestätigte Behauptung.
Es geht schließlich um die Behauptung, dass eine bestimmte Kamera mit reinem Raw einen um 0,5 stops höheren DR hätte.
Antwort von iasi:
Du verkennst den Fakt, dass RAW, wie es ursprünglich verbreitet wurde, in der Videotechnik von den meisten Firmen gar nicht geliefert wird.
Über die Gründe muss man nicht referieren, die sind hinlänglich allen bekannt.
(Aber schön, dass Du reflexartig mit Deiner Feuilletonistischen Kompetenz den relativ zielgerichteten Thread aufgelockert hast.)
Damit sind wir aber bei einer ganz anderen Diskussion, nämlich den Unterschieden, einzelner komprimierter (nicht RAW) Verfahren.
Aber wirf mal einen Blick in die Überschrift ...
Du gehst vom Idealfall aus, den es gar nicht gibt, und sprichst allen anderen Lösungen ja fast schon die Daseinsberechtigung ab.
Dabei ist gar nicht bewiesen, dass die Raw-Lösungen der Hersteller wirklich signifikante Nachteile mit sich bringen.
Antwort von enilnacs:
Ich glaube das der grösste Fehler den man denkerisch über RAW Video macht ist: "Es geht auch so wunderbar mit den technischen Einschränkungen"
Ja, es geht, aber so wie am Anfang das LOG besser wie 10bit Linear war, wird echtes RAW neue Möglichkeiten eröffnen.
All diese Probleme entstehen ja nur deswegen weil wir immer noch mit technischen Problemen kämpfen, sei es Bandbreite, Speicherplatz oder Geschwindigkeit.
Versucht mal ein 8 Layer EXR (Camera,Lidar,Beauty,Specular,Indirekt,Direct,ID,Normals) unkomprimiert (PIZ) mit 24 fps abzuspielen :-)
Das schaffen wir gerade noch für 1 Stream mit 2xLSI 8x PCIe + 24x SSDs RAID 6 auf 24 GB Quadro GPU und Xeon v5! Das sind 7.6 GB/sek (320mb/frame!).
Um den Camera layer in 32bit floar reinzubekommen bedarf es eines aufwändigen Prozesses bei der Alexa zB: ARRI LOG RAW > 12 zu 16bit Mapping > LOG zu Linear > Alexa Gamut zu ACES > und finally 16integer zu 32float EXR, um erst DANN ÜBERHAUPT in Nuke > Linsenverzerrung, Chromatische Aberrationen, usw bezüglich den VFX zu korrigieren (basierend auf den Cooke Linsenmetadaten pro Frame).
EIN Fehler bei all diesen Schritten und die VFX Abteilung kann einem Verfluchen.
Wenn im Produktionshaus eines Tages RGGB RAW Sequenzen mit 16 bit linear unkomprimiert bekommen würden samt ACES Farbraum, das wäre wie Gottes Segen. Das würde beim Ingest dann überhaupt nicht umkonvertiert, sondern direkt zu 16bit EXR raus gehen. 1:1, ein paar EXR Layer dazu, VFX, deep data, und dann raus zu Nuke, etc.. es wäre ungemein simpel und würde eine Tonne Arbeit mit Format-conforming sparen.
Bis dahin, Daumen hoch.
Antwort von iasi:
aber vielleicht bewegen wir uns schon so hoch, dass die Luft für signifikante Unterschiede schon so dünn ist, dass nur sehr wenige extreme Anwendungen davon noch profitieren können.
Antwort von mash_gh4:
Du verkennst den Falkt, dass RAW, wie es ursprünglich verbreitet wurde, in der Videotechnik von den meisten Firmen gar nicht geliefert wird.
Über die Gründe muss man nicht referieren, die sind hinlänglich allen bekannt.
nein -- so einfach ist das nicht!
mittlerweile kann man sich ja auch einfach eine apertus kamera kaufen, und sich selber irgendwas in dieser richtung zu basteln war ja immer schon möglich, trotzdem ist man damit nicht unbedingt gut beraten, wenn man dem vorgeblichen ziel, das auch hier wieder die diskussion beflügelt, tatsächlich näher kommen will. es gibt einfach derart viel technisch begründetes abwägen von vor- und nachteilen, das man auf den ersten blick nicht nachzuvollziehen vermag, das in die entwicklung wirklich guter kameras eingeflossen ist, so dass man lange damit beschäftigt sein wird, wenn man auf diesem weg, schritt für schritt, das rad neu zu erfinden versucht.
mich erinnert das an eine andere form des RAW processings, in der ich eigentlich ausgebildet wurde:
über 10 jahre hinweg haben wir in einem seminar auf der uni die drei 'substanzbücher', die zentralen abschnitte der aristotelischen "metaphysik", vom anfang bis zum ende durchgearbeitet. jeden mittwoch nachmittag, nie mehr als drei-vier interessierte teilnehmer von der philosophie oder klassischen philologie, und nicht mehr als ca. 20 zeilen text wurden jedesmal durchgearbeitet. vom leitenden professor natürlich frei aus dem griechischen original interpretiert, mit diversen verweisen auf irgendwelche bedeutsamen papyri, an hand deren man an manchen stellen sehr klar nachvollziehen kann, dass wieder irgendwo beim abschreiben eine ganz entscheidende verneinung übersehn wurde -- ein bit flipping stattgefunden hat --, und deshalb zwei völlig widersprüchliche varianten des satzes an die nachwelt überliefert wurden. aber auch für jene teilnehmer, die sich nur mit den gebräuchlichen und tlw. geradezu legendären übersetzungen zu helfen versuchten, war es nicht immer ganz so leicht, weil man die selbe stelle fast nicht mehr wiedererkennt, wenn sie vom jeweiligen übersetzter in seine ganz spezifische übertragung der komplexen begriffsschemata übertragen wurde. aber dieses penible arbeiten, möglichst nahe am ursprünglichen text, war gewissermaßen nur die äußere übung. das was uns der entsprechende meister eingebläut hat, war vielmehr etwas ganze anders. denn natürlich kennt jeder student spätestens nach dem zweiten semester diese paar erheiternden missgriffe, in den der berühmte gelehrte in seinen naturbetrachtungen irgendwelchen lebewesen eine falsche anzahl von beinen zugeschrieben hat. etwas, das heute jedes kleine kind mit buntstiften korrekter wiedergeben würde. oder die großartige erkenntnis, dass diverse insekten ohne zeugung aus unrat und schlam erwachsen. lauter dinge, über die man nur spötisch zu lächeln vermag. und solche abenteuerlichkeiten finden sich natürlich auch den theoretischen abhandlungen zu hauf. aber genau das war es, was wir dort wirklich gelernt haben und wofür ich dem betreffenden professor wirklich dankbar bin, dass es beim nachvollzug dieser spuren großer denker so überhaupt nicht darum geht, irgendwelche details zu finden, in den man sich selbstsicher über das betrachtetet werk zu erheben vermag, und das eigene wissen genüsslich glänzen lassen kann, sondern vielmehr um einen weit demütigeren prozess, der tatsächlich das größere ganze und die jeweiligen denkschritte großer meister ansatzweise zu erfassen versucht. wirklich glaubwürdig wird das erst, wo auch der lehrer draußen am pult, der den schüleren bereits meilenweit voraus ist, sich nicht einfach nur in der pracht seines wissens sonnt, sondern sich selbst auch nur als kleines würstel im angesicht der wirklich großen vorbilder begreift. ich glaube, dort habe ich wirklich einiges gelernt! -- aber, wenn man es so kurz und oberflächlich zusammenzufasssen versucht, bleibt natürlich nicht viel von der angedeuteten qualität übrig. im gegenteil: es verkehrt sich auch nur wieder geradezu ins gegenteil und wird selbst zum lächerlichen bespiel, wie man es eigentlich nicht handhaben sollte.
Antwort von WoWu:
aber vielleicht bewegen wir uns schon so hoch, dass die Luft für signifikante Unterschiede schon so dünn ist, dass nur sehr wenige extreme Anwendungen davon noch profitieren können.
Das mag ja alles sein, aber dann wäre die richtige Auskunft, dass LOG für jeden Normalo ausreicht.
Kann ja jeder mit leben, aber warum gaukeln uns die Firmen RAW vor und bieten mehr oder weniger ... aber über die Grundverarbeitung hinausgehendes prozesstes Material an.
Da liegt die Mogelpackung, weil jeder mit RAW die, aus der Vergangenheit bekannten Features verbindet, u.a. eben auch den Eingriff ins De-Bayering und mittlerweile scheint es da ja auch kein Verständnisproblem mehr damit zu geben, dass RAW vor dem De-Bayering aufhört.
Das ist doch schon ein Schritt vorwärts.
Und damit wären wir wieder bei der Frage, wieviel Kompression und welche Kompressionart verträgt ein Videosignal .... also weg von der Frage RAW, weil die meisten Kameras einfach kein RAW raustun.
Antwort von enilnacs:
aber vielleicht bewegen wir uns schon so hoch, dass die Luft für signifikante Unterschiede schon so dünn ist, dass nur sehr wenige extreme Anwendungen davon noch profitieren können.
Im normalen grading-only, broadcast, motion graphics, lowbudget FX usw. Bereich ja, stimme ich zu. Sprich 95% der Branche ist schon jetzt abgedeckt mit 10bit und Log.
Aber da nimmt man dann auch nicht RAW, abgesehen von ein paar OneManBands Vimeo die das Geld haben.
Denn RAW in einem Team/Produktionspipeline hat auch nur im Blockbuster/A-Moviebereich Sinn oder sehr teure Dokumentarfilme.
Die Pipeline die man für RAW als volles DI benötigt ist sauteuer und ist immer Teil von heavy-duty Post facilities. Angefangen von (für Normalsterbliche) sündteure (echte!) 12bit WideGamut Monitore bis Finishing/Grading mit 16bit LUTs auf noch teureren Projektoren. Ganz zu schweigen von Server, Fibrechannel, Client/server, etc.etc.etc...
Wer schon einmal in ECHTEN 12bit (16bit LUT) gearbeitet hat und die Farben GESEHEN hat, der versteht warum man gar nicht anders arbeiten kann, ausser sehr, sehr teuer, das spielt aber bei 20-30 Firmen pro Film keine Rolle.
Mit einer Alexa ARRIRAW aufzunehmen und dann auf rec709 in 10bit zu graden, ist genauso sinnlos wie zB. Grün als Grünblau sehen. Es ist ein anderes Universum.
Das ist auch Teilweise der Grund warum man zu Hause nicht das gleiche (Farb/Dynamik)Erlebnis hat wie im Kino (mit einem guten Barco/Cristie 4K). Das Bild ist im Vergleich zum Kino sehr mager auf rec709.
EDIT Noch ein Info dazu:
Viele fragen sich warum sie trotz 10bit und guter Kamera nicht das gleiche saubere Chroma-Keying hinbekommen wie zB Weta. Nein, es liegt nicht am Keyer, oder Talent, sondern an dem 12bit Chroma! Mehr Chroma Werte am (niedrigen!)ISO/SNR Wert = besserer Key! 8x-16x So gut wie 10 bit. Und sogar da muss man manchmal nachbessern. Das gilt auch für Tracking, Matchmoving Genauigkeit, Farboperationen, Optical Flow, etc.etc..
Antwort von iasi:
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab"s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Und:
Ich will ja nicht bezweifeln, dass echtes Raw theoretisch noch mehr Möglichkeiten bietet, aber wie mash_gh4 auchschon gesagt hat, kann es doch durchaus sein, dass das Feintuning der Hersteller an ihrer Hardware/Sotware-Lösung eben doch diese theoretischen Vorteile überwiegt.
Ich sag"s mal so:
Es wird wohl schwer werden, mit einem universellen Tool die Qualität zu übertreffen, die ein Hersteller aus seinem Produkt mit seiner speziellen Lösung herausgequetscht hat.
Kompromislos ist zwar immer gut, nur kann ab einem bestimmten Punkt der daraus folgende Aufwand alles überwiegen. Ich habe jedenfalls das Gefühl (ja - nur das Gefühl), dass die aktuellen Raw-Lösungen schon sehr gut sind - und eben doch auch noch besser, als andere Formate.
Antwort von WoWu:
Wenn es denn RAW Lösungen wären.
Was Du jetzt vornimmst, ist eine U,ettikettierung einer LOG Lösung in eine RAW Lösung.
Und... ja, natürlich hast Du Recht, dass die kleinen Herstellergeheimnisse auf der einen Seite das Produkt komplettieren, dafür ist ja bei RAW auch der Metadatenkanal angemacht, über den man diese Einstellungen und Signalverämdrumgen auf die Postproduktion übertragen kann und im DNG Container auch die entsprechende Struktur vorgehalten wird,
auf der Amdern Seite wird der Hersteller immer einen festen Parametersatz, speziell im De Bayering anbieten können und insofern keineswegs das Oprimum für unterschiedliche Bildinhalte liefern können sondern immer im Kompromissbereich damit bleiben.
Aber solange das Datenformat, das die Kamera verlässt nicht das monochrome Luminanzsignal repräsentiert, ist das auch nicht RAW sondern Fake-RAW.
Antwort von srone:
Es wird wohl schwer werden, mit einem universellen Tool die Qualität zu übertreffen, die ein Hersteller aus seinem Produkt mit seiner speziellen Lösung herausgequetscht hat.
aber eben auch eine frage der zur verfügung stehenden rechenleistung, kamerachip (zwingend echtzeit) vs hochleistungs gpu/cpu verbund (offline), ich denke mit komplexeren de-bayer algorithmen liesse sich die auflösung deutlich steigern.
lg
srone
Antwort von enilnacs:
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab"s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Antwort von iasi:
Wenn es denn RAW Lösungen wären.
Was Du jetzt vornimmst, ist eine U,ettikettierung einer LOG Lösung in eine RAW Lösung.
Und... ja, natürlich hast Du Recht, dass die kleinen Herstellergeheimnisse auf der einen Seite das Produkt komplettieren, dafür ist ja bei RAW auch der Metadatenkanal angemacht, über den man diese Einstellungen und Signalverämdrumgen auf die Postproduktion übertragen kann und im DNG Container auch die entsprechende Struktur vorgehalten wird,
auf der Amdern Seite wird der Hersteller immer einen festen Parametersatz, speziell im De Bayering anbieten können und insofern keineswegs das Oprimum für unterschiedliche Bildinhalte liefern können sondern immer im Kompromissbereich damit bleiben.
Aber solange das Datenformat, das die Kamera verlässt nicht das monochrome Luminanzsignal repräsentiert, ist das auch nicht RAW sondern Fake-RAW.
hmm - da hast du recht.
Antwort von iasi:
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab"s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
Antwort von srone:
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab"s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?
lg
srone
Antwort von WoWu:
Auf der andern Seite ist natürlich auch ein RAW Umstand gar nicht so richtig bewertet worden....
Bei RAW hast Du es mit der Anzahl an Luminanzwerten zu tun, die der Sensorauflösung entsprechen.
Hinter der Nachbearbeitung hast Du es aber mit der 3-fachen Menge an Werten zu tun.
Gemessen an der Breite der derzeit zur Verfügung stehenden Datenkanälen ist die Qualität eines RAW Signals schon perse um diesen Faktor größer, sei es in der Dynamik oder nachlaufenden Bearbeitung, wie srone auch schon angeführt hat.
Mir sind dezidierte Tools in der Nachbearbeitung allemale lieber als solche Kompromisse in den Kameras ... und wie Du selbst sagst ... RED verändert immernoch.
Dazu kommt natürlich der Aspekt der "Ursprünglichkeit" des Signals.
Wir nutzen noch heute Footage, den wir vor 10 Jahren in 10Bit aufgenommen haben. Das ist jetzt nicht mit RAW vergleichbar, sagt aber etwas aus über die Verwertungsdauer von Content und darüber, dass eine neutrale Archivierung durchaus eine Rolle spielen kann.
Hätten wir damals RAW gemacht, wäre auch der Schritt nach 2020 u.U. noch möglich, weil ich farbraumneutral bin.
Und, auf die höhere Datenmenge bei Videomaterial zurück zu kommen, ... die üBertragungskanäle sind ja nicht wesentlich breiter geworden, und in Videomaterial landet das höhere Datenaufkommen damit in der Kompression.
Es ist also nicht egal, ob ich 3 GBit RAW Daten oder 3 GBit Videodaten habe.
Denn das wären eigentlich qualitätsmässig nur 1 Gbit.
Das FÜR und WIDER ist also vielfältiger, als man im ersten Augenblick vermuten würde.
Mich stört nach wie vor das ganze proprietäre Gewurschtel der Hersteller am meisten bei RAW und daher halte ich sowas wie ACES auch für einen verwertbaren Kompromiss, auch wenn man viele Vorteile von RAW damit aufgibt.
Antwort von srone:
thats it, anstelle eines 48bit (3x16bit rgb) farbfiles, ein 48bit luminanzfile inclusive metadaten, sicherlich nicht echtzeitfähig im playback - im moment, aber jederzeit "entwickelbar" - back to the roots, für highend sicherlich der beste ansatz.
lg
srone
Antwort von iasi:
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab"s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?
lg
srone
hehehe ... da hast du mich in die Ecke gedrängt.
Aber: Ich hatte nie gesagt "keine" Leuchten am Set.
Licht braucht schließlich auch Raw. :)
Nur kann ich eben ein Gesicht in der Post auch "aufhellen", ohne dass ich dabei den DR zusammenstampfe.
Gute Belichtung bedeutet schließlich den DR optimal auszunutzen.
Antwort von iasi:
Auf der andern Seite ist natürlich auch ein RAW Umstand gar nicht so richtig bewertet worden....
Bei RAW hast Du es mit der Anzahl an Luminanzwerten zu tun, die der Sensorauflösung entsprechen.
Hinter der Nachbearbeitung hast Du es aber mit der 3-fachen Menge an Werten zu tun.
Gemessen an der Breite der derzeit zur Verfügung stehenden Datenkanälen ist die Qualität eines RAW Signals schon perse um diesen Faktor größer, sei es in der Dynamik oder nachlaufenden Bearbeitung, wie srone auch schon angeführt hat.
Mir sind dezidierte Tools in der Nachbearbeitung allemale lieber als solche Kompromisse in den Kameras ... und wie Du selbst sagst ... RED verändert immernoch.
Dazu kommt natürlich der Aspekt der "Ursprünglichkeit" des Signals.
Wir nutzen noch heute Footage, den wir vor 10 Jahren in 10Bit aufgenommen haben. Das ist jetzt nicht mit RAW vergleichbar, sagt aber etwas aus über die Verwertungsdauer von Content und darüber, dass eine neutrale Archivierung durchaus eine Rolle spielen kann.
Hätten wir damals RAW gemacht, wäre auch der Schritt nach 2020 u.U. noch möglich, weil ich farbraumneutral bin.
Und, auf die höhere Datenmenge bei Videomaterial zurück zu kommen, ... die üBertragungskanäle sind ja nicht wesentlich breiter geworden, und in Videomaterial landet das höhere Datenaufkommen damit in der Kompression.
Es ist also nicht egal, ob ich 3 GBit RAW Daten oder 3 GBit Videodaten habe.
Denn das wären eigentlich qualitätsmässig nur 1 Gbit.
Das FÜR und WIDER ist also vielfältiger, als man im ersten Augenblick vermuten würde.
Mich stört nach wie vor das ganze proprietäre Gewurschtel der Hersteller am meisten bei RAW und daher halte ich sowas wie ACES auch für einen verwertbaren Kompromiss, auch wenn man viele Vorteile von RAW damit aufgibt.
Gute Argumente.
Antwort von iasi:
@WoWu und srone
Das war eine gute Diskussion - hat mir viel gebracht - ich lass mich gern von guten Argumenten überzeugen.
Antwort von srone:
hey iasi,
das thema ist so komplex, so workflow/ergebnis abhängig :-), aber schön, dass wir mittlerweile auf solch einem level diskutieren können, ohne herstellerabhängige indoktrination oder persönlichen überzeugungen. ;-)))
lg
srone