Newsmeldung von slashCAM:RAW und Log bleiben ein spannendes Thema. Nicht nur weil es hier ein Menge Missverständnisse und ebendeshalb s...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Stu Maschwitz über RAW und Log
Antwort von Zedt:
Ihr habt anscheinend den gleichen Twitter-feed abonniert, hab ich auch gestern gelesen, er bricht eine Lanze für Log, sehr gut erklärt!
Antwort von Jott:
Gleich geht's los ...
Antwort von CameraRick:
ich zitiere mich mal selbst aus dem Topic, was kurz vorher zum selben Post eröffnet wurde -
Den Absatz über "Straight Out of the Camera” Raw is a Myth" find ich gut.
Geht mir immer etwas auf den Keks wenn so Vergleiche aufkommen, und man spricht von "raw vs graded", wenn es heißen sollte "LOG developed from raw, vs graded"
Find ich mal spannend, dass auch mal die andere Seite beleuchtet wird. Streiten kann man sich da schon, ich würde nicht unbedingt so weit gehen und sagen LOG sei besser (auch wenn es für manch einen sicher stimmt), aber erfrischend auch mal so eine Meinung zu finden... also von jemanden, der zumindest auch mal größer als Imagefilme und Lokal-TV gearbeitet hat, wenn überhaupt.
Aber mal schauen was der iasi zu sagen hat, dem schmeckt das sicher gar nicht.
Antwort von WoWu:
Da hat IASI auch durchaus Recht, denn der Artikel ist zwar sehr einfach geschrieben, aber leider auch entsprechend unvollständig.
Völlig ausgeblendet ist der Umstand, dass RAW den Eingriff in das De-Bayering in der Post zulässt und damit ganz wesentlich Einfluss auf Aliasing zulässt.
Dazu kommt, weil ein numerisches Signal vorliegt (ich gehe mal davon aus, dass es sich um ein RAW Signal und kein TIFF (o.ä.) Signal handelt), dass sehr wohl entlang einer Farbmatrix die Pixelwerte verändert werden können, bevor sie in der Post ins De-Bayering eintreten. Insofern hat er da in seinem Artikel nicht Recht oder geht von einem bereits de-bayerten Signal aus, das eigentlich bereits ein Vodeosignal und kein RAW mehr ist.
Wenn man von RAW spricht, sollte man auch RAW beschreiben, also das (also das
weitestgehend unveränderte Sensorsignalen).
Aber es gibt noch einen weiteren Vorteil. Anders als in Kamerasignalen, in denen aus 12 Bit häufig bei einem Übergang nach 10Bit lediglich das oberste und unterste Bit abgeschnitten wird, hat man in der Post die Möglichkeit eines Mappings aus 12 Bit. Dabei ist das LSB noch das kleinere Übel. Anders sieht es mit dem oberen Bit aus, dessen Inhalt für die Signalqualität von hoher Signifikanz ist.
Man muss sich also schon sehr genau anschauen, was die Kamera eigentlich genau mit dem RAW Signal anstellt und welche Möglichkeiten man in der Post nutzen kann/will, bevor man solche Vergleiche macht.
(Es gibt übrigens noch ein paar Punkte mehr, die für RAW sprechen und das gesamte Bild erst vollständig machen).
Wenn man natürlich von einem kamerainternen De-Bayering ausgeht und nur eine flache Videokurve mit einer LOG Lurve vergleicht, dann stimmt eigentlich schon die Überschrift nicht und der ganze Artikel verfehlt das Ziel.
Wenn man schon RAW schreibt, muss man auch RAW vergleichen.
Im Übrigen stellt sich natürlich auch noch die Frage, ob ich für meine Produktion die Farbraumneutralität des Signals brauche oder nicht, also an RAW hängen außer den qualitativen Unterschieden noch ein paar sehr praktische Fragen für die Produktionsverwendung.
Antwort von Peppermintpost:
ich finde den text gut, auch wenn ich nicht 100% damit übereinstimme. der part der mir sehr gut gefällt ist der wo er beschreibt das z.b. adobe natürlich auch unsichtbare slider in der gegend rum schiebt und ein pre-grading vornimmt. also raw wie es dann bei den meisten ankommt ist schon footage das von jemanden gegradet wurde der das footage niemals gesehen hat.
ansonnsten ist mir der text aber etwas zu sehr aus blickwinkel des schnellen workflows geschrieben. der autor hat zweifelsfrei recht, natürlich kann ich ein arri quicktime in 10 bit log direkt in jedes schnittprogramm schieben, und natürlich kann ich das in der farbkorrektur auch nach herzenslust verbiegen.
wer genau das möchte ist damit auch gut aufgestellt, ich mache das genau so, nur das mein aufnahme lut halt ein rec709 lut ist, weil sich mir der vorteil eines c-log lut nicht erschliesst.
der punkt hier ist nur, ich benutze 10bit rgb pixel wenn es um nichts geht ausser ein bissel die farben verdrehen zu können. und in den aller meisten fällen ist das ja auch genau so. raw als standart format zu benutzen ist für mich bei den meisten kameras totaler overkill. ich mache mir den workflow unnötig zäh, ohne einen echten vorteil zu generieren. aber das bedeutet ja nicht, das es für raw nicht auch die stunde gibt wo es strahlt. gerade für vfx shots, wo das bild maximal verbogen wird und wo maximale information gebraucht wird macht raw sinn.
das ist genau der punkt wo der text seine schwächen hat. er sagt durch die blume, raw muss man kritisch betrachten, was richtig ist und dann sagt er 10bit log ist gut genug. das suggeriert raw ist auch nicht besser. das ist aber leider kompletter unsinn. was er beschreibt ist, raw zu benutzen ohne zu wissen wie man es benutzt ist auch nicht besser als 10-bit-log. aber das ist ja eine aussage die immer richtig ist. wenn ein sternekoch zu viel salz in die suppe kippt, dann ist die suppe auch nicht besser als die von der hausfrau. ja, stimmt, aber was lernen wir daraus? nichts! daraus abzuleiten das die hausfrau genau so gut kocht wie der sternekoch ist schlicht augenwischerei. und genau das macht der text meiner meinung nach.
raw hat seinen einsatzbereich wo es sehr viel sinn macht. aber das handling von raw ist nunmal die pest, daher sollte man versuchen rgb da zu benutzen wo raw nicht notwendig ist. rgb in 10bit ist so gut das es für fast alle anwendungen alle wünsche befriedigt. das sollte man daraus lesen, tut man aber leider nicht weil der text subjektiv aus workflow sicht eingefärbt ist.
Antwort von WoWu:
Er hätte nur statt RAW ... DNG(TIFF) schreiben müssen .... dann hätte alles wieder gestimmt denn das ist ja nichts anderes, als eine flache Videokurve in 12 Bit, bei dem jedes gebräuchliche NLE nur die beiden äußeren Bits wegschmeißt und dann besteht wirklich kein großer Unterschied mehr zwischen einer 10Bit LOG Übertragung, bei der man eben nicht die mehr die Vorzüge eines echten RAWs hat.
Da hat er wohl Recht.
Antwort von CameraRick:
Da hat IASI auch durchaus Recht, denn der Artikel ist zwar sehr einfach geschrieben, aber leider auch entsprechend unvollständig.
Wir wissen beide ganz genau, wie das gemeint war ;)
Antwort von enilnacs:
Hmmm.. es geht nie X vs Y, man vergleicht hier Apfel mit Birnen.
Es gibt nichts "besseres". Besser ist relativ.
LOG und RAW sind so weit auseinander wie mindestens H264 und ProRES422.
Viele tun genauso in H264 10bit und andere in Prores422 HQ aufnehmen.
Ist nun ProRes besser ? H264 da komprimierter ?
Nein, natürlich nicht. Beide haben Vorzüge.
Wenn mich jemand fragen würde, was soll man für ENG/EFP nehmen, da wäre ich schwer dafür RAW zu nehmen, ach was, ich würd sogar auf AVC Intra 50mbit fahren. RAW wäre unnütz und Speicheroverkill.
Für ein VFX Spielfilm wäre das aber ein krasser Fehler, da würde ich in manchen Situationen auf LOG und in sämtlichen Wichtigen auf RAWs setzen, von EXR Deep Data (Lidar&Co) ganz zu schweigen.
Also.. was auch immer das Werk verlangt, nehmen. Ich würd sagen (und Ausnahmen bestätigen die Regel):
RAW 12/14/16bit>EXR16/32,etc.. (heavy-duty vfx, deep data, multigenerational)
LOG 10bit>PRes/Dnx/Cf/etc.: (light vfx, grading, high budget broadcast/EFP)
10/8Bit linear Intra(zB)> AVC/h264 (low budget broadcast, low budget ENG/EFP, etc..)
Ok. das ist es, IMHO, das zu vergleichen wäre zu schade und unnütz. Da kann man gleich 8bit GIFs mit Avid RAW vergleichen. ;-)
PS: Was vergleichbar wäre, wäre zB wie bildet Canon vs Alexa RAW Formate ab. Was machen die cams mit den ADCs, Bits, etc.. Also in der gleichen Liga.
Antwort von WoWu:
Wenn Rudi was Gutes tun will, sollte er erst einmal die Unterschiede der einzelnen "RAW" Formate und deren Auswirkung auf die Bildqualität darstellen, weil sonst zwangsläufig unter dem Label "RAW" immer Äpfel mit Birnen verglichen werden.
Die ganzen Missverständnisse entstehen doch nur, weil nur auf die Labels geschaut wird und nie darauf, was eigentlich in der Box steckt.
In dem verlinkten Artikel doch auch wieder.
Antwort von Peppermintpost:
das problem ist, das die meisten, auch die sog. "Pro" user immer noch auf genau dem niveau von BERG, BLUME, GESICHT rum eiern (siehe bild), weil keiner bock hat sich mal etwas intensiver mit der geschichte auseinander zu setzen. berg, blume, gesicht ist halt nur heute durch raw, log, video ersetzt worden, hört sich ja auch professioneller an. was das bedeutet wissen die meisten aber genau so wenig.
Antwort von WoWu:
Der Artikelschreiber aber leider auch.
Deswegen ja auch mein Vorschlag, dass Rudi da mal systematisch rangeht und nicht denselben Fehler macht, wie in dem verlinkten Artikel.
Antwort von domain:
Bei mir klemmt bei solchen Diskussionen so einiges, also z.B. schon der Begriff „lineare Aufzeichnung“
Linear verläuft ja nur der Exponent auf Basis von 2 also der Logarithmus. Die zugrunde liegenden Werte aber verdoppeln oder halbieren sich von Blende zu Blende. Was ist da linear? Das ist von Haus aus eine exponentielle Originalwertekurve mit ihrem typischen Aussehen. Und wenn bei 10 Bit höhere Werte als 1024 erfasst werden sollen, dann werden halt marketinggerecht nach einem bestimmten Algorithmus höhere Werte als die natürlichen hereingeholt.
Das ist nach meinem amateurhaften Kentnisstand ein Teil des „Geheimnisses“ von LOG-Aufzeichnungen.
Antwort von Peppermintpost:
Bei mir klemmt bei solchen Diskussionen so einiges, also z.B. schon der Begriff „lineare Aufzeichnung“
Linear verläuft ja nur der Exponent auf Basis von 2 also der Logarithmus. Die zugrunde liegenden Werte aber verdoppeln oder halbieren sich von Blende zu Blende. Was ist da linear? Das ist von Haus aus eine exponentielle Originalwertekurve mit ihrem typischen Aussehen. Und wenn bei 10 Bit höhere Werte als 1024 erfasst werden sollen, dann werden halt marketinggerecht nach einem bestimmten Algorithmus höhere Werte als die natürlichen hereingeholt.
Das ist nach meinem amateurhaften Kentnisstand ein Teil des „Geheimnisses“ von LOG-Aufzeichnungen.
ja, der text ist halt aus sicht eines editors der sich wünscht das ein system schneller läuft. auch die frage raw vs. prores (weil das ist ja der eigendliche vergleich den er da unternimmt) ist wie die frage
kohle (bzw atomkraft, bzw windenergie) vs strom. da klemmts halt an allen stellen. raw ist ja erstmal bei jeder digitalen kamera der grundstock. nur die einen dängeln ihr bild dann intern, frei nach kodak: "you push the button, we do the rest" und die anderen geben es so raus wie es aufgezeichnet wurde.
das ist halt alles wie zu zeiten als wir in der dunkelkammer unsere negative noch selbst entwickelt haben. wer das mal gemacht hat, der wird mit sicherheit auch den einen oder anderen film mal versaut haben. wer das 1000x gemacht hat wird aber eine bessere qualität erziehlen als bei photo porst, im durchschnitt ist photo porst aber mit sicherheit besser als wenn es jeder (auch der der keine ahnung hat) es selbst macht. der unterschied zu heute ist nur, wir haben keine chemie mehr an den fingern und der boden ist nicht eingesaut.
Antwort von iasi:
"forgiving of exposure errors"
"With raw, you’re far less likely to make a crucial mistake with setting up your camera that results in a catastrophic exposure mistake. "
Bei Raw muss man eigentlich nicht viel mehr machen, als so zu belichten, dass der DR bestmöglich genutzt wird - also korrekt belichten.
Natürlich sollte man bei der Belichtung auch auf die Farbtemperatur achten, damit es keine extreme Spreizung bei R und B gibt.
Aber ansonsten war"s das auch schon.
Neulich gab"s auf reduser auch den Fall, dass jemand mit hohem ISO vom Vortag (LowLight) die Belichtung einer Tageslichtaufnahme vorgenommen hatte - daraus resultiert dann eben Unterbelichtung.
Aber letztlich hat man das bei einer anderen Kamera ebenso: Hohes ISO führt zu knapper Belichtung.
Zu optimaler Belichtung gehört eben immer der optimale ISO-Wert.
War da zudem nicht auch mal die Rede von log und LowLight, die gar nicht harmonieren?
Eine weitere Sache:
Hab ich RAW-Material, dann profitiere ich auch in Zukunft an Verbesserungen der DeBayer-Software.
Ansonsten hat WoWu ja schon das Wichtigste genannt.
Antwort von iasi:
RAW 12/14/16bit>EXR16/32,etc.. (heavy-duty vfx, deep data, multigenerational)
.
und wenn mit vorhandenem Licht gearbeitet wird und in der Post auch noch die Beleuchtung gestaltet wird (z.B. "abwedeln") ... wie bei "Birdman"
Eigentlich ist Raw auch ideal für Low Budget.
Antwort von blickfeld:
RAW 12/14/16bit>EXR16/32,etc.. (heavy-duty vfx, deep data, multigenerational)
.
und wenn mit vorhandenem Licht gearbeitet wird und in der Post auch noch die Beleuchtung gestaltet wird (z.B. "abwedeln") ... wie bei "Birdman"
Eigentlich ist Raw auch ideal für Low Budget.
Das ist gerade bei Low Budget eben nicht der Fall, da sich dort meist kein Budget für CC vorhanden ist.
Antwort von srone:
Eigentlich ist Raw auch ideal für Low Budget.
ansichtssache, ich würde dazu tendieren, daß ein beleuchter+equipment günstiger zu haben ist, als alles in der post zu machen.
lg
srone
Antwort von WoWu:
Na ja, nicht, wenn Du gleich Proxy arbeitest. Dann hast Du nämlich ein relativ fest fixiertes Prozedere und beim Endprodukt die bestmögliche Qualität und bei Ausbelichtungen sogar aus 12 Bit, die Dir bei den ganzen LOG Verfahren schon weggeflogen sind und bei den TIFF Verfahren spätestens von den NLEs gekappt werden.
Es ist eben doch noch ein Unterschoed zwischen RAW und LOG, den der Gute Mann zugunsten eines schnellen Workflows einfach ignoriert hat.
Wenn das alles nix brächte, hätte die Academy auch nicht den Aufwand mit ACES betrieben, so zu sagen als RAW Kompromiss und Workflow Standardisierung.
Dann hätten wir nämlich nur noch LOG Kurven.
Antwort von srone:
an die admins,
mir fällt hier an dieser stelle auf, das es schön sein könnte, postings mit zitat ein wenig nach rechts einzurücken, um der gesamtpostingsliste mehr übersicht zu verleihen.
lg
srone
Antwort von iasi:
RAW 12/14/16bit>EXR16/32,etc.. (heavy-duty vfx, deep data, multigenerational)
.
und wenn mit vorhandenem Licht gearbeitet wird und in der Post auch noch die Beleuchtung gestaltet wird (z.B. "abwedeln") ... wie bei "Birdman"
Eigentlich ist Raw auch ideal für Low Budget.
Das ist gerade bei Low Budget eben nicht der Fall, da sich dort meist kein Budget für CC vorhanden ist.
Drehzeit kostet ein Vielfaches von dem, was Postzeit kostet.
Mit Raw kann man schneller drehen.
Einfache Rechnung.
Verlege ich die Feinarbeit in die Post, die mich viel weniger kostet, dann spare ich Geld.
Eigentlich sollte man wie mit Negativ drehen und sich nur auf den Bildausschnitt, die Schärfe und die Belichtung konzentrieren - "entwickelt" wird dann in der Post und um das Videovorschaubild muss man sich nicht kümmern.
Bei der Lichtsetzung kann man sich auf den generellen Look beschränken und die Feinarbeiten in der Post erledigen - das spart enorm Zeit und auch Material sowie Arbeit/Manpower/Logitik ...
Antwort von ennui:
Low Budget ist Lichtkoffer, nicht Baselight.
Antwort von srone:
iasi -spezifieren sie "low budget". ;-)
lg
srone
Antwort von iasi:
Eigentlich ist Raw auch ideal für Low Budget.
ansichtssache, ich würde dazu tendieren, daß ein beleuchter+equipment günstiger zu haben ist, als alles in der post zu machen.
lg
srone
das kannst du doch ausrechnen
transport, aufbau und einrichten kosten zeit - und drehzeit ist teuer und immer knapp
während dem dreh hast du die ganze truppe am drehort versammelt und das ganze material rumstehen.
in der post sitzen einige leute vor einem rechner.
Antwort von ennui:
Wozu dann überhaupt eine Kamera?
Antwort von Peppermintpost:
Eigentlich ist Raw auch ideal für Low Budget.
naja, ich finde das kommt so ein bissel auf die kamera an und wie sich die daten verarbeiten lassen.
wenn es um raw geht ist man mit einer red sicherlich ganz weit vorne, weil ich zzt kein raw format kenne was sich so schön verarbeiten lässt.
aber bei bmd raw könnte ich immer bröckchen kotzen weil das extrem verarbeitungs aufwendig ist. bei meiner canon 5d ist es dann noch schlimmer.
kommt sehr darauf an was man bekommt.
bei low budget muss man mMn in der post auch nicht jedes pixel gerade biegen, da erfüllt prores schon seinen zweck.
und wer nicht einmal richtig belichten kann, bzw wem 50 euro für einen belichtungsmesser zu viel sind, dem muss ich in der post sowieso nix mehr zurecht biegen, weil wenns ihn nicht interessiert, warum sollte es dann mich interessieren?
Antwort von iasi:
iasi -spezifieren sie "low budget". ;-)
lg
srone
alles, was die drehzeit knapp hält
nochmal: drehzeit kostet geld - den größten teil des budget
also ist zeit knapp - und wenn die ausleuchtung schneller geht, gewinnt man enorm ...
hingegen ist ein mann vor dem rechner vergleichsweise billig - der hält dann auch nicht die ganze truppe auf ...
besser man hat die zeit für einige takes mehr, weil man mit der kameraeinstellung und ausleuchtung schnell ist, und sitzt dann einige stunden mehr in der post.
es kostet ja z.b. auch zeit, eine lampe zum set zu bringen, aufzubauen, anzuschließen und einzurichten - abbauen und abtransportieren muss man sie dann auch ...
Antwort von srone:
bei low budget muss man mMn in der post auch nicht jedes pixel gerade biegen, da erfüllt prores schon seinen zweck.
und wer nicht einmal richtig belichten kann, bzw wem 50 euro für einen belichtungsmesser zu viel sind, dem muss ich in der post sowieso nix mehr zurecht biegen, weil wenns ihn nicht interessiert, warum sollte es dann mich interessieren?
da kommen wir uns sehr nahe. ;-)
@iasi welche drehzeit, mit wem, bei welchem budget?
der beleuchter trägt die lampe in 10 min ans set und braucht nochmal 5min sie einzurichten, der post mann sitzt 2h dran, das zu retten, über was reden wir?
lg
srone
Antwort von iasi:
Eigentlich ist Raw auch ideal für Low Budget.
naja, ich finde das kommt so ein bissel auf die kamera an und wie sich die daten verarbeiten lassen.
wenn es um raw geht ist man mit einer red sicherlich ganz weit vorne, weil ich zzt kein raw format kenne was sich so schön verarbeiten lässt.
aber bei bmd raw könnte ich immer bröckchen kotzen weil das extrem verarbeitungs aufwendig ist. bei meiner canon 5d ist es dann noch schlimmer.
kommt sehr darauf an was man bekommt.
bei low budget muss man mMn in der post auch nicht jedes pixel gerade biegen, da erfüllt prores schon seinen zweck.
und wer nicht einmal richtig belichten kann, bzw wem 50 euro für einen belichtungsmesser zu viel sind, dem muss ich in der post sowieso nix mehr zurecht biegen, weil wenns ihn nicht interessiert, warum sollte es dann mich interessieren?
es geht nicht um richtig belichten - das ist natürlich grundvoraussetzung.
aber es ist doch etwas anderes, wenn die ganze crew wartet, bis eine einstellung ausgeleuchtet ist, nachdem zuvor schon leute mit transport und aufbau beschäfigt waren, oder du am rechner etwas geduld aufbringen musst.
dieser kleine aufheller im gesicht, muss nicht am set gesetzt werden, sondern kann eben auch noch in der post erfolgen - das spart dann teure und knappe drehzeit
Antwort von srone:
ist aber auch als dop, ein wenig "your job" mitsamt der produktion, zeiten abzustimmen, in welchen der dreh "flutscht".
lg
srone
Antwort von iasi:
bei low budget muss man mMn in der post auch nicht jedes pixel gerade biegen, da erfüllt prores schon seinen zweck.
und wer nicht einmal richtig belichten kann, bzw wem 50 euro für einen belichtungsmesser zu viel sind, dem muss ich in der post sowieso nix mehr zurecht biegen, weil wenns ihn nicht interessiert, warum sollte es dann mich interessieren?
da kommen wir uns sehr nahe. ;-)
@iasi welche drehzeit, mit wem, bei welchem budget?
der beleuchter trägt die lampe in 10 min ans set und braucht nochmal 5min sie einzurichten, der post mann sitzt 2h dran, das zu retten, über was reden wir?
lg
srone
ja - und während den 5 minuten wartet die ganze truppe, dass weitergedreht werden kann. dein post mann sitzt im warmen, während die crew mit ansehen muss, wie die sonne langsam untergeht, während dein beleuchter beschäftigt ist.
nenn du mir doch mal eine produktion oder ein budget, bei dem die drehzeit nicht limitierend wirkt und knapp ist
Antwort von srone:
wie gesagt 5min für ein flag oder fill, im kontext zu 2h post, abhängig davon wer, wie teuer, am set warten muss, was also ist low budget?
lg
srone
Antwort von Peppermintpost:
ja - und während den 5 minuten wartet die ganze truppe, dass weitergedreht werden kann. dein post mann sitzt im warmen, während die crew mit ansehen muss, wie die sonne langsam untergeht, während dein beleuchter beschäftigt ist.
nenn du mir doch mal eine produktion oder ein budget, bei dem die drehzeit nicht limitierend wirkt und knapp ist
glücklicherweise hab ich meistens mit produktionen zu tuen die nicht 5min brauchen um einen belichtungsmesser abzulesen. aber du hast schon recht, wer nach dem motto filmt "sonne lacht, blende 8" für den ist raw dann auf jeden fall auch pflicht.
Antwort von iasi:
wie gesagt 5min für ein flag oder fill, im kontext zu 2h post, abhängig davon wer, wie teuer, am set warten muss, was also ist low budget?
lg
srone
wie gesagt:
der Aufwand mit Planung, Heranschaffen der Ausrüstung, Versammlung der Crew am Drehort übersteigt bei weitem die Kosten 2 Stunden mehr in der Post.
Je mehr Gerätschaft du einsetzt, desto mehr Leute und Zeit benötigst du eben auch.
Wenn du nur 5 Drehtage hast, dann sind 5 Minuten pro Einstellung eben enorm viel. Du sitzt ja allein schon 2h für die Planung des Drehs einer Einstellung da.
Die Tagesgagen von Crew und Darstellern liegen zudem aus gutem Grund auf hohem Niveau. Auch musst du eben die Anreise, Verpflegung etc eines Darstellers auch für einen Drehtag bezahlen, während die Post-Leute in ihren Büros sitzen.
Einfache Rechnung: Wieviel kosten Vorbereitung eines Drehtages und ein Drehtag? Wieviel kostet ein Tag in der Post?
Antwort von Jott:
Wie sieht eine Produktion ohne Licht (und ohne Schatten) aus?
Du schreibst ja oft lustige Sachen. Aber dass eine raw-Aufnahme Beleuchter überflüssig macht, ist eine der coolsten Thesen bisher.
Antwort von iasi:
Wie sieht eine Produktion ohne Licht (und ohne Schatten) aus?
Du schreibst ja oft lustige Sachen. Aber dass eine raw-Aufnahme Beleuchter überflüssig macht, ist eine der coolsten Thesen bisher.
The Revenant ... mal als Beispiel ...
Aber so extrem musst man gar nicht denken. Interessant fand ich beim Camerashootout 2012 vor allem die Unterschiede beim Einsatz von Leuchtmitteln und der Zeitverteilung zwischen Dreh und Post.
Bei Raw mussten die Darsteller eben weniger lang auf die Technik-Leute warten, denn die verlegten die Feinarbeit an den Rechner. Die anderen waren noch damit beschäftigt, weitere Lampen aufzustellen, während bei den Raw-Leuten die Kamera schon lief.
Am Ende konnte niemand den Unterschied sehen - aber in der Praxis bedeutet da eben, dass man eben Zeit für einige weitere Takes hat, was dem Film dann sehr hilft und bereichert, weil z.B. der Darsteller die Gelegenheit hat, etwas noch feiner auf den Punkt zu bringen.
Antwort von ennui:
Film ohne Licht - warum nicht. Film ohne Kamera geht heute ja auch, einfach alles rendern, nicht nur das Licht. Film ohne Ton - auch kein Problem, das wird dann auch nachträglich gebastelt. Am billigsten ist es doch, wenn einfach niemand zum Filmset fährt, nicht mal der Hausmeister zum Aufsperren. Dann kann aber die teure RED auch zu Ebay, oder? Kann man dafür noch mehr Postleute einstellen.
Antwort von CameraRick:
Wie ist eigentlich das Nachbelichten in der Post gemeint, iasi?
Licht richtig setzen kann es ja nicht sein, ein paar Masken hier und da ziehen um etwas aufzuhellen/abzudunkeln braucht kein raw. Wovon wird also gesprochen?
Wenn am Ende des Tages ein Artist zwei Tage an einem Shot sitzt, um 5min am Set zu retten, steht das auch ganz schnell mal nicht mehr im Verhältnis was die Kosten angeht. "Fix it in Post" ist nur so lange günstig, wie man das Risiko abschätzen kann, kann unerwartet auch gern mal a paar Tage mehr kosten.
Wenn es so richtig Low-Budget ist dass es niemand richtig bezahlt wird ist es ja egal, da geht dann auch kein Kapital drauf.
Antwort von Axel:
The Revenant ... mal als Beispiel ...
Aber so extrem musst man gar nicht denken. Interessant fand ich beim Camerashootout 2012 vor allem die Unterschiede beim Einsatz von Leuchtmitteln und der Zeitverteilung zwischen Dreh und Post.
Bei Raw mussten die Darsteller eben weniger lang auf die Technik-Leute warten, denn die verlegten die Feinarbeit an den Rechner. Die anderen waren noch damit beschäftigt, weitere Lampen aufzustellen, während bei den Raw-Leuten die Kamera schon lief.
Am Ende konnte niemand den Unterschied sehen - aber in der Praxis bedeutet da eben, dass man eben Zeit für einige weitere Takes hat, was dem Film dann sehr hilft und bereichert, weil z.B. der Darsteller die Gelegenheit hat, etwas noch feiner auf den Punkt zu bringen.
Schon. Bloß, dass, dem Maschwitz-Artikel folgend, Log exakt den gleichen Effekt gehabt hätte, da es kaum einen kleineren Spielraum im Vergleich zum Graden in Raw gibt. Aus eigener Anschauung würde ich sagen, es gibt bestimmte Situationen, in denen Raw trotzdem einen Vorteil bietet. Eine Situation mit
überhaupt willkürlich kontrollierbarem Licht, ganz gleich wie fein man einzelne Bildpartien vor der Kamera anpasst, gehört jedenfalls nicht dazu.
Bei dem Shootout kamen etliche Kameras zum Einsatz, die überhaupt kein Log erlaubten (iPhone4, FS100, 7D - diese immerhin mit "Technicolor"-Profil, GH2). Und, fast wichtiger, nur 8-bit.
Heute würde ich sagen, Leute, versucht, in-camera und vor der Kamera alles richtig zu machen, vor allem, wenn ihr nur 8-bit zur Verfügung habt.
Der größere Sprung ist der von 8-bit zu 10-bit Log. 8-bit sind einfach die absolute Untergrenze für eine glaubwürdige Repräsentation natürlicher Farbvielfalt. Aber, so meine Theorie, auch auflösungsabhängig. Ab und inklusive echtem HD und erst recht darüber hinaus werden die Unterschiede zu 10-bit sichtbar.
Inarritu und Lubetzki entschieden sich für Raw. Solche Entscheidungen werden nicht durch "Meinungen" gefällt, sondern nach gründlichen Tests. Gewiss jedenfalls nicht nach dem einen oder anderen Maschwitz-Artikel. Wer bin ich, sie in Frage zu stellen?
Antwort von enilnacs:
Also, abgesehen davon dass ich "die Ausnahmen bestätigen die Regel" geschrieben habe, das wären "reiche" EinMannBands mit zB. ner 4K BMD und ein Odyssey und Gimbal und 4K Workstation, hab ich ganz klar gesagt dass man das nimmt was man braucht.
Low Budget Definition zB
Wenn man versuchen würde (Gott bewahre) einen kleinen Broadcaster in ******* davon zu überzeugen 4x BMD zu kaufen für seinen lokalen ENG Newssender. Ich war da, da sind sogar 2000 Euro viel Investitionsgeld.
Das wäre komplett am Ziel vorbei und irrsinnig.
Also bevor man hier Über "Drehzeit", "Grading" in Post und "Lichter" im Lowbudget redet, sollte man wirklich verstehen was ich mit Lowbudget meine. Und davon gibt es 1000e Fernseh/Produktionsanstalten weltweit.
Die haben das "Post" in Premiere unter automatisches Weissabgleich. ;-)
Eine "günstige" GH4 relativiert sich schnell bei einer kompletten Produktionslösung die stehen muss da wird überall gespart. Grading in RAW ? LOL, Da sollte man froh sein wenn der Weissablgeich stimmt, damit das Video rechtzeitig ausgestrahlt wird bei 10-15 Mann Komplettbesetzung und 10 Projekte in der Woche.
Und da dominiert nunmal immer noch 8bit h264 (ja, nicht mal 10bit!) sehr sehr stark. Ja, sogar Editing in h264 bzw auch Adobe (weil günstiger Abo), aber denkt nicht dass die zeit für AfterEffects und EXR haben, auch wenn Fusion gratis ist. LOL
Es geht IMMER um die target audience. Und wenn es das erfüllt was es soll, dann gut.
Antwort von Funless:
Wie sieht eine Produktion ohne Licht (und ohne Schatten) aus?
Du schreibst ja oft lustige Sachen. Aber dass eine raw-Aufnahme Beleuchter überflüssig macht, ist eine der coolsten Thesen bisher.
The Revenant ... mal als Beispiel ...
Sorry aber
sehr schlechtes Beispiel! Vielleicht solltest Du mal
das Interview mit Inarritu lesen, welches im Nachbarthread von Skeptiker verlinkt wurde.
Darin erzählt Inarritu unter anderem ...
" Neun Monate lang haben wir jeden Tag nur zwei Stunden um die Mittagszeit herum gedreht. Genau dieses Licht zur richtigen Zeit festzuhalten war ein Privileg, ein großer Luxus. "
Also nix mit Ersparnis beim Dreh und dafür Gewinn in der Post.
Antwort von iasi:
Wie sieht eine Produktion ohne Licht (und ohne Schatten) aus?
Du schreibst ja oft lustige Sachen. Aber dass eine raw-Aufnahme Beleuchter überflüssig macht, ist eine der coolsten Thesen bisher.
The Revenant ... mal als Beispiel ...
Sorry aber sehr schlechtes Beispiel! Vielleicht solltest Du mal das Interview mit Inarritu lesen, welches im Nachbarthread von Skeptiker verlinkt wurde.
Darin erzählt Inarritu unter anderem ...
" Neun Monate lang haben wir jeden Tag nur zwei Stunden um die Mittagszeit herum gedreht. Genau dieses Licht zur richtigen Zeit festzuhalten war ein Privileg, ein großer Luxus. "
Also nix mit Ersparnis beim Dreh und dafür Gewinn in der Post.
nicht alles in einen Topf werfen ... wie bei Birdman wurden dann eben auch die Post-Möglichkeiten ausgenutzt ... sonst wären es nicht die Filme geworden, die wir gesehen haben ...
Antwort von rudi:
Wenn Rudi was Gutes tun will, sollte er erst einmal die Unterschiede der einzelnen "RAW" Formate und deren Auswirkung auf die Bildqualität darstellen, weil sonst zwangsläufig unter dem Label "RAW" immer Äpfel mit Birnen verglichen werden.
Die ganzen Missverständnisse entstehen doch nur, weil nur auf die Labels geschaut wird und nie darauf, was eigentlich in der Box steckt.
In dem verlinkten Artikel doch auch wieder.
Mein lieber WoWu, gerade sitze ich einem RAW Artikel, und wollte genau diese Problematik mit einer gewissen Unschärfe umschiffen, aber jetzt steht deine Forderung im Raum und der entkomme ich wohl nicht mehr ;)
Zumal ich mich auf diesem Parkett auch nicht hundertprozentig sicher bewege. Drum mal eine Frage, ob das andere hier auch so sehen.
Es gibt IMHO prinzipiell 3 RAW-Klassen:
1. Nenne ich mal lineares RAW. Hier werden sozusagen die Photonen (evtl noch verstärkt) linear gezählt und das dann "unverändert" (und somit auch linear) aufgezeichnet.
2. LogRAW. Beispielsweise bei ARRI. Hier gibt der Sensor (analog?) logarithmisch aus und dann wird (bei ARRI mit 12 Bit) aufgezeichnet.
3. CinemaDNG Hier wird der Sensor linear ausgelesen, dann digitalisiert und dann logarithmiert. Vorteil gegenüber (1): Man kann mit 12 Bit statt mit 14 oder 16 Bit speichern und kann dennoch mehr als 12 Blendenstufen speichern.
Sieht das hier irgendwer anders?
Antwort von CameraRick:
Schlüsseln sich da nicht unterkategorien auf?
Denn wie "raw" ist eine komprimierte Datei (nicht über ZIP oder so) noch, und wie "raw" ist eine C500 die keinen WB in der Post mehr zuließ?
nicht alles in einen Topf werfen ... wie bei Birdman wurden dann eben auch die Post-Möglichkeiten ausgenutzt ... sonst wären es nicht die Filme geworden, die wir gesehen haben ...
Ist das so? Eine Annahme oder wo liegt da Deine Quelle, dass da alles genutzt wurde (was ohne nicht drin gewesen wäre), und sie sonst sehr anders gewesen wären?
Und wie macht man nun das Nachbelichten in der Post Deiner Meinung nach so einfach+fix, was nur mit Raw geht?
Antwort von WoWu:
Moin Rudi.
Ich glaube, es ist, angesichts der Vielfalt des RAW Verständnisses eine gute Sache, da erst einmal Ordnung herein zu bringen.
Bevor ich aber in die Auffächerung gehen würde, würde ich mich mal völlig von den Bezeichnungen lösen und erst einmal zwei Gruppen aufmachen, nämlich das(die RAW) Formate, die hinter der Grundbearbeitung und vor dem eigentlichen Video Prozessing (de-Bayering) die Kamera verlassen und nach meiner persönlichen Meinung auch das Attribut RAW verdienen und der Kategorie, in der das RAW Format der Kamera zu einem Videostream verarbeitet wird und sämtliche Begrenzungen erfährt (Farbraumfestlegung, Farbinterpretationen, Gewichtung, Aliasing Maßnahmen usw.) und würde auch aufzeigen, welche Bearbeitungsmöglichkeiten nicht mehr drin sind und welchen Einfluss das auf das Bild, auch im Hinblick auf eine spätere, multiple Verwendung des Contents hat, aber auch auf die gestalterischen Sachbezüge, wie z.B. Farbinterpretationen.
Dann sieht man nämlich auch, dass die Unterschiede einzelner RAW Formate zu LOG Formaten verschwindend klein werden. (Speziell auch wenn man Kompressionen -auch in RAW Formaten- mit gewichtet- und dass auf so manchen einfachen flachen Videosignalen nur das Attribut RAW aufgeklebt wurde.
Spätestens dann wird man auch sehn, dass der ACES Workflow, sofern er von den Kameraherstellern unterstützt wird und und nicht aus einem externen Signal gebastelt wird, irgendwo dazwischen liegt.
Damit würden dann auch dem Anwender die Unterschiede (Auch im Workflow) deutlich und auch die Entscheidung, ob RAW oder LOG, deutlich vereinfacht.
Wichtig ist in diesem Zusammenhang auch das Verständnis, wo an welcher Stelle mit den Bits umgegangen wird und welche Bits nur im Orkus verschwinden und wo gemapped wird.
Nur daraus kann man nämlich bei den unterschiedlichen Formaten dann auch Rückschlüsse auf die Signalqualität ziehen.
Das ist das, was Maschwitz gemeint, aber nicht ausgeführt hat und dadurch zu dem Resultat gekommen ist, dass komprimierte 10Bit Codecs "von gleicher Güte" wie RAW sind. Was in Bezug auf die Signalqualität ziemlich abwegig ist.
Wenn ich mir das ganze, wie er das wohl getan hat, auf einem 10Bit Monitor anschaue, bei dem alle besseren Signale ihre range Bits bereits angestreift haben, dann kann auch nur so ein Ergebnis dabei herauskommen.
Signalqualität entscheidet sich aber erst beim Endverbraucher und wenn man z.B. 12 Bit ausbleichtet, sieht ein Kinofilm völlig anders aus, als einer aus einem 10Bit log.
In einem Vergleich geht es immer nur um Fakten und nicht um Unzulänglichkeiten in der Betrachtung.
Und so, finde ich, sollte auch so ein Forumbeitrag aussehen.
Frei von eigenen Impressionen und erst Recht frei von Fehlern, die aus Verfahren resultieren.
Auf einem Handy sieht man nämlich auch keinen Unterschied mehr.
Das heißt aber nicht, dass es keinen Unterschied gibt.
Nur so als Tipp. Im Übrigen finde ich es gut, dass Ihr solche Basisinformationen aufbereitet. Das löst viele Missverständnisse und schafft die Basis für qualifizierte, weiterreichende Diskussionen, die nicht mit beiden Füßen im Sumpf der Belanglosigkeit, wie in vielen andern Foren, stecken bleiben.
Antwort von rudi:
Guten Abend ;)
Grundsätzlich sehe ich da nur Canon problematisch, deren RAW Implementierung ich wirklich etwas "schräg" in Erinnerung habe.
CinemaDNG erlaubt ja beides: Einbacken oder "echtes" RAW:
http://wwwimages.adobe.com/content/dam/ ... .4.0.0.pdf
Sowie auch diverse Mischformen, was die Sache nicht übersichtlicher macht. Im Endeffekt müsste man dies also für jeden Hersteller einzeln betrachten, evtl. sogar nach Modell. Das wird über den Scope meines jetzigen Artikels aber deutlich hinausschießen.
Aber wir behalten es auf dem Schirm ....
Antwort von WoWu:
Das glaube ich eben nicht, wenn Du einmal die grundsätzliche Linie ziehst und die "Sortenunterschiede" zunächst mal klarstellst.
Geht Mann dann pro Sorte noch auf die Differenzen in der Bildauswirkung ein, dann erledigt sich der Rest eigentlich von selbst und jeder kann für das Format, das er nutzt, alles quasi ablesen.
Das DNG beides zulässt, stimmt übrigens so nicht.
Weil das Format immer JPEG codiert ist.
Lediglich der Container lässt es zu, ein originäres RAW Format einzubetten, um es durch den Workflow unbeschädigt mit zu schleppen.
Dabei handelt es sich aber immer um das, von der Kamer generierte Oroginalformat, was immer es auch ist.
Das DNG eigene Adobe Format hingegen ist immer interpretiert, solange der KAmerahersteller keine Metadaten zur Verfügung stellt, aus denen DNG das Bild regenerieren kann.
Daher ja der Zweifel daran, ob die Bezeichnunh RAW (im Sinne von unverändert), eigentlich noch Berechtigung hat.
Das ist es vermutlich auch, was Maschwitz mit seinem Adobe Hinweis gemeint hat. Und vermutlich auch noch, dass einige ADOBE Programme die Werte oben und unten einfach zusammenfassen, was auch nicht der Sinn einer Entwicklung des Bildes ist.
Insofern glaube ich, dass sich die Aufgabe, solche Formate begreifbar zu machen, auf wenige Schritte beschränken und gar nicht so kompliziert ist.
Und auf "Spezialitäten" einzelner Herstellerformate wäre ich nur mit Randnotiz eingehen, weil ich glaube, dass jeder Anwender, der die Grumdprinzipien versteht, auch solche Differenzen selbst erkennen wird.
Antwort von mash_gh4:
dieser thematik ist wirklich derart komplex, dass man gar nicht weiß, wo man anfangen soll.
ich verspüre ein bisserl bauchweh, wenn man die unterste ebene -- gewissermaßen "echtes RAW" -- sofort mit irgendwelchen photonenzählern oder bayer-pattern-daten in verbindung bringt. beides ist einfach nicht immer der fall. in multi-chip CCD kameras od. diversen telecines gibt es keine debayering, und vereinfachte erklärung zur sensor-funktionsweise, die nicht berücksichtigen, dass es sich dabei nicht ausschließlich nur um einen weitestgehend passiven prozess handeln muss, greifen auch zu kurz. was letzteres betrifft, muss man sich einfach auch vor augen führen, wie weit manche sensoren konfiguriert werden können. das betrifft längst nicht mehr nur globale shutter- oder verstärkungseinstellungen, sondern kann tlw. auch selektive masken und signal ent-/verzerrungsvorgaben betreffen. um ein derartiges resultat dann wieder im sinne des einfachen beschreibungsmodells zu deuten, müsste man gewissermaßen die einstellungsinformationen mit gleicher genauigkeit mitaufzeichen und berücksichtigen. das passiert natürlich nicht. es werden gerade einmal die wichtigsten metadaten in kryptischer und herstellerspezifischer weise an die nachfolgende schritte weitergeleitet. eine gar zu vereinfachte betrachtung, die derartige RAW daten in ein unmittelbares od. passives verhältnis zu optisch-physischen einwirkungen setzt, trifft daher die sache nicht immer vollständig.
natürlich gibt's ein paar unmittelbar daran anschließende verarbeitungsschritte -- debayering, dead pixel handling, highlight reconstruction, sensor specific noise reduction, linearisierung... --, die prinzipel auch später bzw. extern im sinne eines RAW-processings erfolgen können. ganz so einfach und klar kann man sie oft trotzdem nicht immer abtrennen oder von unveränderten rohdaten unterscheiden.
die ebene, die man gewöhnlich mit der weiteren aufbereitung der bilddaten in verbindung bringt, bezieht sich jedenfalls auf lineare helligkeitsrepräsentationen, so wie wie man sie in den vereinfachten betrachtungen gerne mit unmittelbarem sensor response in verbindung bringt. alleine die tatsache, dass es aber auch exotische HDR sensoren gibt, die von haus aus keine lineare opto-elektrische charakteristik besitzen, sondern bereits unmittelbar am sensor in der analogen signalaufbereitung eine logarithmische umwandlung vornehmen, relativiert diesen gemeinplatz.
im wesentlichen spielt es auch keine große rolle, ob daten in linearer oder logarithmischer beziehung zu lichtwerten stehen, da sich beide darstellungen problemlos ineinander übersetzen lassen, wenn man sie nur mit ausreichender genauigkeit behandelt. genau das will man aber bekanntlich in vielen fällen vermeiden. dabei geht es dann vielmehr darum, wie eine möglich nutzbringende verteilung von werten innerhalb einer vorgegebenen darstellungsgenauigkeit erhalten werden kann. in diesem sinne ist die log darstellung dann einfach auch als verlustbehaftete kompression zu verstehen.
die verschiedenen formen der datenkompression würde ich als den entscheidendsten punkt herausheben, wenn man wirklich treffende unterscheidungen diskutieren will. ich würde es sogar auf verlustbehaftete kompressionsvarianten einschränken, da verschiedene andere kunstgriffe, die mit einfachen technischen mitteln einen vollständig reversiblen effizienteren datentransport erlauben, nicht wirklich ins gewicht fallen. wenn aber dagegen wavelet basierende kompression zum einsatz kommen, man aber immer noch von RAW-daten spricht, erscheint mir das im hinblick auf die tatsächliche rekonstruierbarkeit der ausgangsdaten fast noch weniger angebracht, als der verlust an zwischenwerten in der angesprochenen log-darstellung von begrenzter auflösungsgenauigkeit.
ein punkt, wo ich in diesem zusammenhang WoWu ausdrücklich widersprechen möchte:
Spätestens dann wird man auch sehn, dass der ACES Workflow, sofern er von den Kameraherstellern unterstützt wird und und nicht aus einem externen Signal gebastelt wird, irgendwo dazwischen liegt.
meiner ansicht nach hat ACES mit der rohdatenverarbeitung überhaupt nichts am hut!
die ebene, auf der ACES aufbaut, ist behandlundng von bilddaten innerhalb eines scene referred linear light models. dass dabei tlw. auch log darstellung (speziell ingest-seitig) zur anwendfung kommen kann, spielt hier keine große rolle, weil durchgängig sehr hohe berechnungsgenauigkeit genutzt wird, und damit, wie oben bereits angesprochen, kein nennenswerter unterschied zwischen lin. und log. repräsentation zu erwarten ist. der wirklich paradigmatische gegensatz ist vielmehr in display referred models, also bspw. den gebräuchlichen rec709 bilddaten, zu sehen. dieser unterschied ist ausgesprochen bedeutsam, wenn man korrekturen und bildmanipulationen vornehmen will, die sich möglichst nah an die physikalischen gesetzte und erscheinung in der natur orientieren -- bspw. eine defocus filter, wo tatsächlich einzelne lichtquellen im bild in galubhafter weise sich so verhalten sollen, wie das auch mit einen realen objektiv in der wirklichkeit der fall wäre. mit rec709 ist das ohne vorhergehende umrechung in derartige mathematische bearbeitungsmodelle nicht möglich. auch für anspruchsvollere nachträgliche farbkorrekturen, kommt man daran fast nicht vorbei. natürlich ist es so, dass die umkehrung von display referred material, mit all seinen einschränkungen und verzerrungen, immer nur höchst ungenügend erfolgen kann. deshalb ist mehr als naheliegend, dass man ACES workflows im regelfall natürlich mit wesentlich unverstümmelteren RAW- oder log-daten zu füttern versucht. trotzdem darf man deshalb nicht gleich voreilig darauf schließen, dass ACES eine unmittelbare naturgesetzliche beziehung im hinblick auf die konkreten physikalischen gegebenheiten der datengewinnung einfordern oder berücksichtigen würde. das ist einfach nicht der fall. es ist vielmehr so, dass nur ein modell der bearbeitung herangezogen wird, das genauso gut synthetisch generierten CG content mit natürlichen aufnahmen kombinieren lässt, nachdem letztere durch empirisch ermittelte IDTs bzw. kamerainterne linearisierung in eine form gebracht wurden, die sich in die enstprechenden berechnungen fügt.
aber natürlich kann ich mich hier auch irren. in dem fall wäre ich sehr dankbar, wenn mir jemand entsprechende gegenteilige darstellungen in den ACES papieren zeigen könnte.
und zum abschluss noch ein kleiner anekdotischer exkurs:
vor etwa einem jahr haben wir rahmen eines kleineren symposiums, wo ansonsten eher fragen der filmpublizistik, -geschichte und produktionsbedingungen und filmkunst behandelt wurden, auch einen spannenden vertreter aus dem bereich der kameratechnik und -konstruktion zu gast gehabt. martin reinhard kann man in seiner bedeutung im hintergrund vielfältigster projekte gar nicht lobend genug herausheben. jedenfalls ist mir von seinem damaligen vortrag eine sache wirklich im kopf geblieben. während man nämlich gemeinhin RAW daten von filmkameras eher mit den global players, komplizierten dateiformaten und standards in verbindung bringt, hat er ein wenig über jene winzige kameraschmiede in wien erzählt, wo sie entsprechende verarbeitungstechniken entwickelt haben, noch bevor cinemaDNG und später auch die blackmagic kameras greifbar wurden. wenn man sich das vor augen führt, und auch die tatsache, wie sehr uns die hersteller noch immer von entsprechendem zugang fernzuhalten versuchen, wird einem ganz anders. aber, wie gesagt, zum glück gibt's immer auch ein paar engagierte einzelkämpfer, die entsprechende ideen bereits längst umsetzten od. für andere entwickeln, lange bevor der mainstream seine aufmerksamkeit darauf lenkt.
Antwort von WoWu:
ACES kommt für mich weniger aus der Sicht der Prozessverarbeitung ins Spiel, als vielmehr aus der Sicht eines "Kompromiss-"workflows.
Denn genau die oben angeführten Teile des Prozesses, die Kamerahersteller gern als Betriebsgeheimnisse bewahren und nicht als Metadaten bei RAW zur Nachbearbeitung zur Verfügung stellen, haben Verfahren wie DNG zum Scheitern gebracht.
Die Idee von DNG war ein Container/Schnittstelle, in dem RAW gemeinsam mit den Metadaten zu einer übergreifenden Verarbeitung geführt werden konnten.
Bei fehlenden Metadaten des Kameraherstellers musste daher eine Interpretation des RAW Signals entlang der Modelle geschehen, die ADOBE einstellen konnte.
Das war/ist zwangsläufig fehlerbehaftet.
Daher der Schritt der Hersteller, ihre Geheimnisse zu behalten, keine RAW mehr zur Verfügung zu stellen und Farbräume und andere Werte in Rahmen zu pressen, die marktüblich sind.
Hier setzt ACES ein, indem es IDTs als Schnittstelle zwischen Hersteller und Workflow anbietet. Hersteller können ihre Geheimnisse behalten und übergeben sie anonym in den IDEs. Damit werden RAW (ähnliche) Daten im Workflow verwendbar und die weitere Bearbeitung kann auf einer höheren Qualitätsebene stattfinden.
Da ist losgelöst von linearem Lichtraum oder nicht.
Dessen Verwendung hat noch andere Ursachen und ist völlig anderer Diskussionsstoff.
Daher meine Anmerkung, dass bei Verwendung herstellerspezifischer IDTs (und nur dann) ein "Mittelding" zwischen RAW und konventioneller (LOG) Verarbeitung entsteht, das meiner Ansicht nach -bis auf wenige Eingriffsmöglichkeiten in RAW- qualitativ identische Perspektiven bietet und den eigentlichen DNG Ansatz zu Ende denkt.
Antwort von enilnacs:
ich verspüre ein bisserl bauchweh, wenn man die unterste ebene -- gewissermaßen "echtes RAW" -- sofort mit irgendwelchen photonenzählern oder bayer-pattern-daten in verbindung bringt. beides ist einfach nicht immer der fall. in multi-chip CCD kameras od. diversen telecines gibt es keine debayering, und vereinfachte erklärung zur sensor-funktionsweise, die nicht berücksichtigen, dass es sich dabei nicht ausschließlich nur um einen weitestgehend passiven prozess handeln muss, greifen auch zu kurz. was letzteres betrifft, muss man sich einfach auch vor augen führen, wie weit manche sensoren konfiguriert werden können. das betrifft längst nicht mehr nur globale shutter- oder verstärkungseinstellungen, sondern kann tlw. auch selektive masken und signal ent-/verzerrungsvorgaben betreffen. um ein derartiges resultat dann wieder im sinne des einfachen beschreibungsmodells zu deuten, müsste man gewissermaßen die einstellungsinformationen mit gleicher genauigkeit mitaufzeichen und berücksichtigen. das passiert natürlich nicht. es werden gerade einmal die wichtigsten metadaten in kryptischer und herstellerspezifischer weise an die nachfolgende schritte weitergeleitet. eine gar zu vereinfachte betrachtung, die derartige RAW daten in ein unmittelbares od. passives verhältnis zu optisch-physischen einwirkungen setzt, trifft daher die sache nicht immer vollständig.
Ja, das trifft es gut. RAW ist mittlerweile so abstrahiert vom Sensor durch die ASIC/SOC OS Verarbeitung, dass man nicht weiss was nun wirklich als RGGB vom Sensor landet, da alles Herstellerspezifisch gesperrt ist, herrje nicht mal einen RAW Standardformat gibt es bei allen Herstellern. OS, ASIC, Sensor, etc.. alles gesperrt, kein Zugriff und das ASIC OS wird bei allen immer potenter, sprich, man kann immer mehr Tricks zwischen Sensor und Ausgabe machen.
Letztendlich bekommt man ein 12,14,16bit RGGB Bild mit eigenem Farbraum, und ein paar Metadaten in einem proprietären Format, meistens. Das war es dann aber auch. Ob, und was da getrickst wird, kann man nur durch aufwändige Referenztests erfahren, und auch dann nur zum Teil.
ACES stimmt, wurde nicht wegen RAW entwickelt, aber es ist die einzige Adresse (da CIE komplett) um egal welche WideGamut HDR RAW Farbraume (auch der Zukunft) in einem Modell zu vereinigen OHNE immer dazwischen zu konvertieren (ein Albtraum).
irgendwas Rein > ACES > alle Geräte *ever* Ausgabe.
Ich glaube das wird auch der Fall werden bei allen Lichtfeldkameras die in naher Zukunft kommen werden, da wird jeder Hersteller seine Suppe kochen. Und das interne OS wird zB sechs Lichtstrahlen aus zwei Interpolieren und es als 4 "RAW" speichern. etc etc...
Es ist zum Heulen, aber wenigstens können wir über potente Technik heulen, wenn ich mir vorstelle dass wir im 4K Zeitalter sind... ach du meine Güte, 96 hab ich noch SD gebastelt :-D
 |
Antwort von mash_gh4:
Hier setzt ACES ein, indem es IDTs als Schnittstelle zwischen Hersteller und Workflow anbietet. Hersteller können ihre Geheimnisse behalten und übergeben sie anonym in den IDEs. Damit werden RAW (ähnliche) Daten im Workflow verwendbar und die weitere Bearbeitung kann auf einer höheren Qualitätsebene stattfinden.
Da ist losgelöst von linearem Lichtraum oder nicht.
ja -- diese vorteile und recht vernünftigen gründe für ACES sehe ich auch. für ganz viele anwendungsfälle bedeutet es eine deutliche verbesserung bzw. einen ausgesprochen attraktiven kompromiss, der den praktischen anforderungen zum gegenwärtigen zeitpunkt ganz gut gerecht wird.
es beleibt trotzdem ein theoretisch fundiertes rahmenkonstrukt bzw. modell für berechnungen, das natürlich auch seine grenzen hat. andeuten kann man das vielleicht am beispiel der berücksichtigung von unterschiedlichen spektralchrakateristiken realer sensoren und den physiologischen vorgaben menschlicher wahrnehmung. dabei geht es um feinheiten, die momentan in der videobearbeitung noch kaum berücksichtigung finden, während sie bei der RAW aufbereitung im photographischen umfeld mittlerweile bereits recht verbreitet einbezogen werden. derartiges lässt sich auch in IDTs nicht befriedigenden abbilden. jene betrachtungsweise, auf die sich ACES stützt, ist in dieser hinsicht also auch wieder nur als vereinfachte annäherung zu verstehen, die manche details ausklammert oder zumindest nur in grober annäherung einbezieht. die eleganten linearen farbtransformationen wären sonst einfach nicht in diese effizienten und der praxis genügenden weise möglich.
noch einen kleinen weiteren punkt möchte ich kurz einwerfen, damit das hiesige brainstorming erweitert wird und rudi weitere anregungungen für seinen artikel hat:
für die meisten hier, dürften ja weniger irgendwelche technischen details von interesse sein, sondern greifbare orientierung, mit denen man die entsprechenden vor- und nachteile im hinblick auf praktische anforderungen gegeneinander abwägen und vernünftig vergleichen kann. ein punkt, den man dabei auf alle fälle immer im auge behalten muss, betrifft die frage, wie weit aufgezeichnete daten bzw. deren präzision auch tatsächlich mit dem benutzen arbeitsraum der bearbeitung und ausgabe in deckung gebracht werden können?
ganz konkret kann man also zum beispiel sagen, das 10bit farbtiefe nicht unbedingt gleich eine spürbare verbesserung gegenüber konventionellem 8bit rec709 bringen muss, wenn im gleichen schritt der bezugsfarbraum erheblich erweitert wird od. ein kontrastumfang berücksichtigung findet, der weit über die möglichkeiten der angestrebten ausgabe bzw. wiedergabe hinausgeht. leider sind aber genau diese parallelentwicklungen gegenwärtig zu beobachten. unter dem strich kommt dann leider bei HDR und rec2020 material in 10bit auflösung auch keine wirklich befriedigendere qualität heraus als mit heute gebräuchlichen konventionen.
im bezug auf die hier diskutierte problematik, muss man das vermutlich nicht ganz in dieser ernüchternden weise sehen, weil es natürlich sinn macht, wenn das ausgangsmaterial zusätzliche reserven enthält, die sich im rahmen der nachbearbeitung nutzbringend in die tasächlich relevanten farbräume und kontraste der ausgabe verschieben lassen; trotzdem muss man einfach berücksichtigen, dass man bei entsprechenden vergleichen auch diesen aspekt einbeziehen sollte. viele sensoren reichen in ihrer farbempfindlichkeit und helligkeitsabbildung mittlerweile weit über den rec709/sRGB bezugsraum hinaus. es ist es also ziemlich schwierig, wie man die entsprechenden farbtiefen bzw. auflösungsangeben wirklich vergleichen soll? 14-, 12-, 10- und 8bit sollten also vielleicht nicht immer ganz so simple nur gemäß dem motto: "größer = besser" verstanden und sinnvoll in relation zueinander gesetzt werden.
Antwort von WoWu:
Ich möchte hier auch nicht in eine ACES Diskussion abgleiten, weil es auch nicht Gegenstand des Threads ist.
Auf der andern Seite ist, sofern man mit Hersteller eigenen IDTs umgeht, sehr wohl dasselbe Resultat zu erreichen, wie in der Fotografie, denn der Hersteller kocht in der Kamera auch nur mit Wasser... Problem ist eben nur, dass er das nicht so gern aus der Hand gibt.
Aber prinzipiell besteht da kein Hemmnis.
Ich stimme mit Dir überein, wenn Du die Unterschiede zwischen RAW und (in diesem fall) LOG auf den Kompressionsfaktor reduzierst ... darauf läuft es vordergründig sicher hinaus und Rudi wird auch feststellen, dass, wenn er die Modelle einmal durchspielt, dass man es bei den meisten sogenannten RAWs eigentlich mit nichts wesentlich Anderem zu tun hat, als bei LOG (mit unterschiedlichen Auswirkungen aus den verschiedenen Bandbreiten des Übertragungskanals und geringfügigen herstellerspezifischen Besonderheiten.)
Aber darum ging es mir auch eingangs in meiner Kritik, dass in dem Artikel eigentlich die Unterschiede von RAW und LOG gar nicht behandelt wurden, sondern lediglich die Unterschiede derselben "Gattung" .... auch weil auf die (echten) RAW Vorteile mit keinem Wort eingegangen worden ist.
Also ... hau rein, Rudi.
:-)