Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Infoseite // Fragen zu Cinema DNG und Verarbeitung in CC



Frage von klusterdegenerierung:


Hallo erfahrenes Folk ;-)
Jetzt möchte ich mich doch mal mehr dem CDNG widmen, da ich jetzt die passende SSD für meinen Shogun habe.

Natürlich tauchen da sofort ein paar Fragen auf, da es wohl nicht eins zu eins wie in der Raw Fotografie zu sich geht.

Zb. frage ich mich warum, wenn ich mit 2000Iso in Slog2 filme, ich trotz ETTR Belichtung, relativ zu dunkle Raws habe?
Wenn ich die Blende zukneife wird das Bild wohl dunkler, aber heller macht kaum Sinn, da ich dann beim filmen schon nichts mehr erkennen würde.
Wie kommt das, ist das so wie bei der Red, das die Iso und Belichtung keine wirkliche Rolle spielen, oder ist das dem Vorschauprozessing geschuldet?

Wie habe ich also nun zu belichten, wenn man ja weiß, das ein unter belichten nicht gut für das blacknoise ist und woher weiß ich ob ich richtig belichte?

Dann habe ich diverse Probleme mit Premiere und dynamik Link.
Wenn ich das Material in AE importiere bekomme ich es neuerdings nicht mehr in Premiere und wenn ich es in PR importiere und in Ae bearbeiten möchte, habe ich trotz richtiger settings keine Filmsequenz sondern nur ein Standbild der Länge des original Clips.
Von Speedgrage möchte ich erst mal garnicht reden, denn das scheint ja garkein DynamikLink mehr zu unterstützen.
Resolve möchte ich an dieser Stelle erst mal ausblenden, ob wohl dies läuft ie geschnitten Brot, ich aber Probleme mit dem editing und dem export habe.

Momentan kann PR das DNG der Beta Firmware noch nicht wirklich korrekt bearbeiten, deswegen der weg über AE.
Aber warum diese Probleme, was mache ich verkehrt, stelle ich mit blöd an und warum kann man es in PR dann nicht previewen aber in Resolve läuft die Vorschau in voller Auflösung wie SD Material?

Das ganze nervt mich total, da ich dem CDNG Material, auch wenn es nur 12 Bit hat, wesentlich mehr abgewinnen kann.
Ich wäre über ein paar hilfreiche tipps wirklich dankbar! :-)
Danke schon mal!

Space


Antwort von klusterdegenerierung:

Habe gerade noch mal den Export in Resolve probiert und es stürzt beim render in h264 & 4K sofort ab. :-(

Space


Antwort von Frank Glencairn:

Das einfachste wäre wohl dich mit Resolve mehr anzufreunden, das ist von Haus aus auf raw Verarbeitung ausgelegt.

Wo sind denn deine Probleme beim Schnitt?

Space


Antwort von mash_gh4:

Habe gerade noch mal den Export in Resolve probiert und es stürzt beim render in h264 & 4K sofort ab. :-( schau dir einemal diese beiden threads/beiträge an:
https://forum.blackmagicdesign.com/view ... 53#p294979
https://forum.blackmagicdesign.com/view ... 57#p298964

derartige probleme scheint es mit verschiedenen älteren windows versionen zu geben.
lässt sich aber entweder durch ein betriebssystemupdate od. das einspielen eines microsoft patches fixen. (hab leider den link auf den betreffenden patch nicht bei der hand)

generell bekommst du aber deutlich bessere resultate, wenn du aus dem resolve heraus bspw. dnxhr exportierst und es dann erst mit ffmpeg/x264 für die abschließende weitergabe aufbereitest.

Space


Antwort von klusterdegenerierung:

Das einfachste wäre wohl dich mit Resolve mehr anzufreunden, das ist von Haus aus auf raw Verarbeitung ausgelegt.

Wo sind denn deine Probleme beim Schnitt? Meine 3Party Plugins werden nicht unterstützt und die Möglichkeiten sind limitiert durch die kostenlose Version.

Space


Antwort von klusterdegenerierung:

Habe gerade noch mal den Export in Resolve probiert und es stürzt beim render in h264 & 4K sofort ab. :-( schau dir einemal diese beiden threads/beiträge an:
https://forum.blackmagicdesign.com/view ... 53#p294979
https://forum.blackmagicdesign.com/view ... 57#p298964

derartige probleme scheint es mit verschiedenen älteren windows versionen zu geben.
lässt sich aber entweder durch ein betriebssystemupdate od. das einspielen eines microsoft patches fixen. (hab leider den link auf den betreffenden patch nicht bei der hand)

generell bekommst du aber deutlich bessere resultate, wenn du aus dem resolve heraus bspw. dnxhr exportierst und es dann erst mit ffmpeg/x264 für die abschließende weitergabe aufbereitest. Danke für den Tip.
Schade das dort nur die Rede von Win7 und nicht 8.1 ist, den Patch dafür kann ich nirgends finden und deswegen auf 10 updaten finde ich etwas fett, zumal ich 10 überhaupt nicht mag.

Space


Antwort von TomStg:

generell bekommst du aber deutlich bessere resultate, wenn du aus dem resolve heraus bspw. dnxhr exportierst und es dann erst mit ffmpeg/x264 für die abschließende weitergabe aufbereitest. Aha, 2x verlustbehaftet zu rendern soll also besser sein als 1x verlustbehaftet? Ist jetzt aber nicht Dein Ernst, oder?

Space


Antwort von klusterdegenerierung:

Kann denn keiner was zu den ganzen anderen Fragen, wie Belichtung sagen?

Space


Antwort von Frank Glencairn:

Normal ist die ISO bei raw nur Metadaten und damit bei der Aufnahme ohne Bedeutung. Deine Kamera hat nur ein ISO, das native deines Sensors.

Nehmen wir mal an, dein Sensor hat native 800 ISO, und du tust bei der Aufnahme so, als ob es 2000 wären, dann ist schon klar, warum deine Bilder dunkel sind.

Space



Space


Antwort von klusterdegenerierung:

Häh, wieso dunkel, dann müßte es doch ca. 2 Blenden überbelichtet sein!
Meine Cam macht nativ 2000Iso und die Belichtung ist wie gesagt eher drüber als drunter, warum wird dies nicht im ACR auch so gezeigt wie im Camdisplay?

Space


Antwort von Frank Glencairn:

Nö ACR macht was es will beim Import - welche ISO steht denn in den Metadaten?

Angenommen, deine Kamera hat 800 ISO (bist du eigentlich sicher, daß"die native 2000 hat) - und du belichtest sie, als ob es 2000 wären - dann müßtest du die Blende natürlich viel weiter zu haben als bei 800 - deshalb dunkler und nicht heller.

Von welcher Kamera sprechen wir eigentlich und wie wird das raw an den Recorder übergeben?

Kannst du mal einen DNG Frame irgendwo hochladen (als Datei) dann schau ich mir das mal an.

Space


Antwort von mash_gh4:

generell bekommst du aber deutlich bessere resultate, wenn du aus dem resolve heraus bspw. dnxhr exportierst und es dann erst mit ffmpeg/x264 für die abschließende weitergabe aufbereitest. Aha, 2x verlustbehaftet zu rendern soll also besser sein als 1x verlustbehaftet? Ist jetzt aber nicht Dein Ernst, oder? doch, leider!

im falle von resolve liefert das besser resulate als ein direkter h.264 export.

natürlich kann man den ersten schritt auch in einem ferlustfreien format abwicklen bzw. in dieser weise aus resolve heruasrendern. für ganz kleine/kurze geschichten kann das sinn machen. bei größeren projekten wird es aber schnell unbewältigbar.in der praxis schießt man damit in den meisten fällen weit über das ziel hinaus.

wichtiger sind die realistischen proportionen. in h264 delivery files strebt man gewöhnlich nach maximaler qualität trotz vorgegebenen engen größenvorgaben. diesem anspruch wird man mit extern encodierung mittels ffmpeg/x264 und entsprechenden -crf einstellungen viel besser gerecht als mit dem relativ unbefriedigenden internen exportmechanismen im resolve. die qualität, die man hier gewöhnlich anstrebt, liegt in einem bereich, wo die verluste durch die vorangegangen kompression mit prores hq od.ä. praktisch nicht ins gewicht fällt.

Space


Antwort von klusterdegenerierung:

Nö ACR macht was es will beim Import - welche ISO steht denn in den Metadaten?

Angenommen, deine Kamera hat 800 ISO (bist du eigentlich sicher, daß"die native 2000 hat) - und du belichtest sie, als ob es 2000 wären - dann müßtest du die Blende natürlich viel weiter zu haben als bei 800 - deshalb dunkler und nicht heller.

Von welcher Kamera sprechen wir eigentlich und wie wird das raw an den Recorder übergeben?

Kannst du mal einen DNG Frame irgendwo hochladen (als Datei) dann schau ich mir das mal an. http://www.filedropper.com/frm000483
Hat keine Metadaten, kommt aus dem Shogun, Cam ist FS700.

Space


Antwort von mash_gh4:

Normal ist die ISO bei raw nur Metadaten und damit bei der Aufnahme ohne Bedeutung. Deine Kamera hat nur ein ISO, das native deines Sensors. das ist nicht bei allen sensoren/kameras der fall!

Space


Antwort von dirkus:

Was die Belichtung angeht.

Schonmal in ACR die Voreinstellung gecheckt?

Premiere kann soweit ich weiss nicht mit Raw Daten umgehen. Man muss alles in AE soweit bearbeiten und "hinbiegen", bis es optimal aussieht. Wichtig: IN ACR keine Einstellungen verändern und Schatten/Lichter nur über Kurven verändern!

Dann als tiff Sequenz rendern und in Premiere als Einzelbilder-Serie importieren.

So erhalte ich jedenfalls die besten Ergebnisse mit DNGs.

Space


Antwort von CameraRick:

Hab das DNG bei mir mal in ACR aufgemacht.

Wirkt jetzt nicht übermäßig dunkel, aber vermutlich war es bei der Aufnahme heller?
Da sich zwischen "Image Settings" und "Camera RAW Defaults" nichts ändert, nehme ich mal an dass da herzlich wenige Metadaten gespeichert wurden, wenn überhaupt. Da ACR ja auch keine ISO Einstellung hat (und sich mEn generell nicht übermäßig für Video eignet) ists nun schwer festzustellen, was "richtig" (sprich: wie aufgenommen) ist.

Muss den Resolve grad updaten daher kann ich nicht flink nachschauen, wie es dort ist.

Space


Antwort von Frank Glencairn:

Habs mal schnell in RawTherapie geschmissen - scheint mir jetzt nicht übermäßig dunkel

Space


Antwort von CameraRick:

Das schon mal was heller als hier im ACR.
Auch im Resolve ists hier bei Default sehr dunkel.

Kein Wunder, wenn ISO2000 geschossen wurde aber die Software das nicht zu erkennen scheint und es dann bei 400/800/whatever fährt.

Um es so hell zu kriegen wie Frank muss ich im Resolve die Exposure auf 3 stellen, das entspricht dann wohl zwei Blenden? Wenn dem so ist, würde er es als (Pi mal Daumen) ISO500 erkennen

//edit
Gut, sind eher 2 bis 2,5 bei der Exposure in Resolve. Sah hier grad was anders aus :S

Space



Space


Antwort von klusterdegenerierung:

Premiere kann soweit ich weiss nicht mit Raw Daten umgehen. Doch kanns.

Space


Antwort von klusterdegenerierung:

So ungefähr habe ich es in Slog gefilmt.

Space


Antwort von Frank Glencairn:

ISO 500-800 entspricht auch mehr der FS700.

An die wundersame Umwandlung des Sensors, in einen ISO 2000 Sensor, nur durch Firmware hab ich noch nie so richtig geglaubt.

Space


Antwort von klusterdegenerierung:

Und wieso 800?
Das heißt Deine Theorie ist, das Raw Aufzeichnung und ACR Interpretation fast immer bei 800Iso läuft und deswegen ist es bei mir jetzt zu dunkel?

Wie soll ich dem denn entgegenwirken, denn die Cam läßt ja über SDI in Raw sowieso nur 2000Iso Slog zu?
Ich kann zwar das Profil von Slog auf Standard stellen, aber dann habe ich nur mehr Farbe und Kontrast drin, zumindest bei ProRes.

Space


Antwort von Frank Glencairn:

Kannst du nicht ne entsprechende LUT in deinen Recorder laden?

Space


Antwort von klusterdegenerierung:

Ja sicher, kann mir da ne 3 Blenden unter Lut basteln :-)

Space


Antwort von CameraRick:

Es ist doch RAW, entwickel es doch so wie Du willst. Zieh es doch einfach hoch?

Space


Antwort von klusterdegenerierung:

Schon klar, aber jeder weiß doch das ab einer gewissen Iso das Rauschen stark zunimmt wenn man es so hoch ziehen muß.
Dann wäre in dem Fall doch mein plus bei Raw gegenüber ProRes schon wieder futsch! Da kann ich ja besser das passend belichtete ProRes nehmen, ist ja unsinnig.

Space


Antwort von CameraRick:

Aber die Cam macht ja auch intern nichts anderes als das Signal zur Vorschau zu verstärken, die Aufnahme rauscht dann ja nicht weniger; nur die Vorschau ist dann etwas verbogen.
Eine Preview-LUT für 2,5 Blenden wäre also wirklich die Lösung, um die Vorschau besser zum Material zu biegen


Die Kombi aus Shogun und FS700 scheint ja richtig Spaß zu machen... :)

Space



Space


Antwort von cantsin:

Schon klar, aber jeder weiß doch das ab einer gewissen Iso das Rauschen stark zunimmt wenn man es so hoch ziehen muß.
Dann wäre in dem Fall doch mein plus bei Raw gegenüber ProRes schon wieder futsch! Da kann ich ja besser das passend belichtete ProRes nehmen, ist ja unsinnig. Auch das "passend belichtete ProRes" ist bei 2000 ISO nur ein gepushtes Raw-Signal, das debayered, ggfs. entrauscht und als 12bit-Signal aufgezeichnet wird. Nur dass Du bei Raw, Debayering und Entrauschung (z.B. mit Neat) in Resolve noch bessere Qualität aus dem Bild rausholen solltest.

Space


Antwort von Jost:

Hab das Bild mal in Lightroom eingeladen. Danach kann man 2,38 Blenden hochziehen, bevor die Lichter clippen.

An sich ist das Bild aber richtig belichtet, es gibt nur zwei ganz winzige Stellen an der Türschwelle, die tatsächlich unterbelichtet sind.

Das Rauschen ist aber bereits im Original vorhanden und zieht sich über das gesamte Bild: Man erkennt es gut auf dem orangen Container im Hintergrund und auf der Tür im Vordergrund. Es lässt sich sehr gut entfernen. Die Belichtung würde ich darum nicht anfassen: Die dunklen Mitteltöne müssen reingedreht werden, dann verschwindet auch das Rauschen.
Dann die Farbtemperatur ändern und bei Bedarf etwas Sättigung rein.

Ich bin mit der FS700 nicht so vertraut, mit der BMCC habe ich gute Erfahrungen gemacht, mit der Zebra-Einstellung zu arbeiten. Mit einer 70-Prozent-Einstellung funktioniert das sehr gut. Dann ist garantiert, dass keine Lichter ausbrennen und den Rest zergelt man sich in Davinci hin.

Das heißt natürlich, jeder Clip muss angefasst werden.
Weil es Hobby ist, macht das nichts. Bei Davinci gibt es zudem die Funktion, die Entwicklungseinstellungen eines Clips abzuspeichern und auf einzelne/alle Clips der Timeline zu übertragen. Dann hat man eine schicke Basis und kann sich den Feinheiten widmen.

Ob Dir ein Umstieg auf Davinci hilft, ist unklar. Ich hatte mal das 4,6K-DNG der Ursa Mini eingeladen. Mit einem 6700K wird der Schnitt schon zäh. Viel langsamer sollte der Prozessor nicht sein, wenn Du 4K-DNG unter Davinci schneiden willst. Und das ist für DNG optimiert.

Space


Antwort von klusterdegenerierung:

Ich weiß nicht wie Du darauf kommst das es richtig belichtet ist, denn es ist als ETTR in Slog gefilmt und es war Taghell, so wie Du es für gut befindest ist es schon eher Abend und so habe ich ies weder gefilmt, noch war es so dunkel, im Gegenteil.
Auf dem Shogun und im Display war es so schon eher am clippen und so hätte ich es auch als ProRes bekommen und gewollt, denn da hätte ich den Schatten es um 1 Blende runtergefahren und hätte keine Probleme mit dem Rauschen bekommen.

Auch verstehe ich nicht, das es trotz der dunklen Belichtung auf dem Stuhl schon anfängt zu clippen, das DNG ist viel zu Kontrastreich, im originalem raw ist es sehr flach.
Ich verstehe euch alle wohl, aber leider habe ich da was ganz anderes gesehen als ich es gefilmt habe.
Und für mich ergibt das ganze immer noch keinen Sinn, warum es zu ProRes so dunkel ist! So kann man doch nicht damit arbeiten.
Ich kann mir höchstens vorstellen das es noch am Betastatus der Firmware liegen könnte.

Space


Antwort von CameraRick:

"das DNG ist viel zu Kontrastreich, im originalem raw ist es sehr flach"

Was meinst Du damit? Das DNG ist doch das RAW. Das ist nicht zu kontrastreich, der Debayer ist im Zweifel zu kontrastreich. Und solang die Cam/der Rekorder keine (brauchbaren) Metadaten in die Files schreiben wird das Material vermutlich "irgendwie" debayert. Aber lass Dir das doch nicht vorschreiben, Du kannst es doch alles ändern.
Da clipped im Zweifelsfall auch nichts, sondern wird nur nach oben in nicht sichtbare Bereiche verschoben. Erst mal ist das alles noch da.

Stell Dir doch mal die Cam ein wie Du es willst, dann nimmst erst ein wenig RAW auf, und dann ein Prores bei gleichen Settings. Dann schauen wir mal nach dem Rauschen und gucken was da im Debayer falsch läuft.

Ist doch egal wie dunkel das ist, kannst doch einfach hoch ziehen. Ob Du es hochziehst oder die Kamera so in die Metadaten schreibt ist doch egal, kommt doch aufs Gleiche drauf raus

Space


Antwort von Jost:

Schlag mich tot - aber so sehen die Bilder aus meinen Clips auch aus. Wie soll es denn auch anders sein? DNG speichert keine Informationen über die Farbtemperatur.

Deshalb gibt es ja auch das große Jammern über den Weißabgleich unter DNG.

Was man machen kann: Du stellst eine Farbtafel mit ins Bild. Zum Beispiel einen SpyderCHECKR. Weil die Farben genormt sind, kann man die später unter Davinci optisch abgreifen und der DNG-Clip wird dann haargenau darauf abgestimmt.

Was Dir auf Deinem Monitor angezeigt wird, hat nichts damit zutun, was als DNG aufgezeichnet wird. Im Shogun müsstest Du auch eine Einstellung finden, um Dir anzeigen zu lassen, wie es in DNG aussieht.

Wenn Du WYSIWYG filmen willst, darfst Du in der Regel kein DNG wählen.


Und der Sitzbezug clippt nicht. Auch der ist korrekt belichtet.


Das riecht nach einem bloßen Bedienfehler. Du hast Dich bei der Belichtung am Log der Camera orientiert. Das ist nicht richtig.
Richtig ist, wie Du das DNG im Shogun belichtest. Schalt Dir im Shogun das Zebra zu oder orientier Dich dort am Histogramm und verändere danach die Belichtungseinstellung am FS700.
Dann klappt das auch.

Space


Antwort von klusterdegenerierung:

Aber dann wäre es doch noch dunkler, da ich ja ETTR filme und wenn das jetzt schon so dunkel im Raw ist, würde es ja unter wysiwyg noch dunkler sein, denn dafür müßte ich 2-3 Blenden zukneifen.

Space


Antwort von Jost:

Aber dann wäre es doch noch dunkler, da ich ja ETTR filme und wenn das jetzt schon so dunkel im Raw ist, würde es ja unter wysiwyg noch dunkler sein, denn dafür müßte ich 2-3 Blenden zukneifen. Nein. Ein Videostrom wird Dir auf der FS700 angezeigt. Der andere auf dem Shogun. Aber Du kannst nur einmal die Blende, ISO oder Zeit einstellen.
Von den Veränderungen sind jedoch beide Videoströme betroffen.

Wenn Du Log zum Maßstab der Belichtung machst, dann ist das Log 1a belichtet.
Das willst Du aber nicht, Du willst ja DNG mit den von Dir festgelegten Vorgaben. ETTR zB.

Darum ist es völlig unerheblich, was Dir auf dem Monitor der Kamera unter Log als Histogramm angezeigt wird. Das Histogramm gilt für Log, aber nicht für DNG.


Geh so vor:
Stell den Shogun auf die DNG-Vorschau. Bei BM heißt die Funktion "Film".

Ruf dann Histogramm und/oder Zebra im Shogun auf und verändere danach die Belichtung an der FS700. Steig mit 70 Prozent Zebra am Shogun ein.

Ein rohes DNG sieht dann bei mir so aus:


zum Bild


Space


Antwort von WoWu:

Wer kommt denn auf solche Ideen, dass das ISO Setting keine Wirkung bei RAW hat ?
Natürlich wirkt ISO bei RAW, ganz besonders im Blaukanal, weil die Verstärkungskurve des ersten Verstärkers (und der sitzt noch vor dem Readout) in den unterschiedlichen ISO Setings abweichend behandelt werden muss, denn die Kurven laufen zu den niedrigen ISO Werten hin auseinander.

MAn geht also mit dem ISO Setting bei RAW ebenso um, wie bei nicht RAW Signalen und mit dem nativen ISO des Sensors ist der Sweet Spot auf der Verstärkungskurve gemeint, der den größten Störabstand darstellt.
Wer also sein ISO Setting auf ISO 100 stellt (weil ja unwichtig), der wird sich das Bild ganz schön versemmelt, auch im RAW Format.
Außerdem ist SNG kein RAW Format, sondern die Interpretation, auf der Basis von ADOBE Farbmodellen, in einem TIFF Bildformat.
SNG ist lediglich der Container, der, sofern zur Verfügung steht, auch Metas und weiterhin das original RAW eingebettet werden kann, sodass die Interpretation lediglich als Proxy dient.

Erst wenn die Belichtung (einschließlich Weißabgleich in dr Kamera) richtig stimmt, kann man auch mit technisch einwandfreien Signalen rechnen.
Man kann das alles natürlich auch versuchen, in der Post hinzubiegen.
Ergebnis sind dann Bilder, die man erst mal enttäuschen muss und in denen die Farbabstimmung mit der Realität nichts mehr zu tun hat.

Space


Antwort von Jost:

Und wenn das alles passt, muss noch das Schnittprogramm mitspielen.

Vom Cinema-DNG im Shogun sagt Atomos:
Images will have a green color shift in Adobe Premiere (known issue in beta)

Space



Space


Antwort von Frank Glencairn:

Keine Ahnung wie das bei der FS700 ist, als ich das Vorserienmodell von Sony zum testen bekommen habe, gabs noch kein raw und der sweetspot lag bei500 wenn ich mich richtig erinnere. Aber bei den BM Kammeras spielt die iso Einstellung keine Rolle. Ob ich jetzt mit ISO 1600 drehe, oder mit 800 un das beim Debaiern hoch hole, das Ergebnis ist völlig identisch - wurde ausgiebig getestet, weil viele das nicht wahr haben wollten.

Space


Antwort von WoWu:

Der einzige Unterschied bei BMG besteht darin, dass die Kamera mit dual chain arbeitet, also mit zwei unterschiedlichen Verstärkerwegen die gemeinsam eine Comparatorspannung erzeugt, die dann zum AD Wandler geht.
Die Gaineinstellung (Iso) erfolgt also auf beide Verstärker, mit einem Offset.
(Daher auch die Black sun, weil beide Chains bei starkem Licht in den Clip gehen und die Differenzspannung Null wird, also Schwarz)
Das der sichtbare Unterschied bei RAW geringer ist als bei 1Chain Sensoren liegt daran, dass für jeden ISO Bereich der dafür günstigste Punkt auf der jeweiligen Arbeitskurve genutzt wird.
Aber die Abhängigkeit vom ISO setting besteht auch hier, nur dass die Verstärker im unteren ISO Bereich sauberer arbeiten.
Nicht umsonst nimmt auch ARRI das Verfahren.
Nur grundsätzlich müssen an irgend einer Stelle die auftreffenden Photonen auch bei RAW vervielfältigt werden, sonst könnte man bei RAW mit einem Photo pro Pixel in der Nachbearbeitung ein sauber belichtetes Bild herstellen und wäre völlig losgelöst vom Sensorrauschen.
Geht aber nicht.
Die Abhängigkeit des Sensorsignals vom ISO Setting besteht also auch bei BMD.
Verstärkung muss nun mal sein und die macht man immer da, wo der Störabstand am größten ist und das ist so dicht wie möglich am Sensor und vor jeder Digitalisierung, auch bei BMD.
Oder reicht Dir 1 photon pro Pixel für ein sauberes Bild?
Du kannst es drehen und wenden, aber Du musst den Sensor so weit wie möglich in die Belichtung bringen. Dabei ist es egal, ob das mit Licht, der Blende, dem Shutter oder dem Iso geschieht.
Es sei denn, Du bist mit grauer Soße und wenig Dynamik zufrieden.
Soll's ja auch geben.

Space


Antwort von klusterdegenerierung:

Danke für die Erläuterungen WoWu, aber was läuft denn dann unterm Strich falsch?
Liegt es wirklich an den fehlenden Metadaten die aus meinem DNG das machen was ich vorher in der Cam gesehen habe?

Es ist ja so, das wenn ich es so mache wie Jost es an sich ja richtig beschrieben hat, ich noch dunklere DNGs bekomme, denn ich bin ja eh schon leicht über der richtigen Belichtung. Ich habe es ja in genau diesem Stream probiert, da habe ich die Blende zu gekniffen bis das Zebra weg ist und ich ein völlig normales Bild habe, bloß dann habe ich das DNG nahezu Schwarz und hat mit der Realität garnichts mehr zu tun.

Das mit dem Grünshift in PR ist ja nicht relevant, bezieht sich ja nur auf die Farbe.
Aber wer weiß, vielleicht kommen ja bei der finalen Firmware entsprechende Metadaten mit ins DNG und alles ist wysiwyg!?

Space


Antwort von TomStg:

Und wenn das alles passt, muss noch das Schnittprogramm mitspielen.

Vom Cinema-DNG im Shogun sagt Atomos:
Images will have a green color shift in Adobe Premiere (known issue in beta) Shogun halt...
Premiere CC kommt mit DNG der Black Magic Cinema, Pocket und des Odyssey 7Q problemlos klar.
https://helpx.adobe.com/de/premiere-pro ... eraformate

Space


Antwort von klusterdegenerierung:

Shogun halt... Tom, ist doch eine Betafirmware die Atomos nur released hat wegen der ewigen betelleien um das CNDG, mit der finalen wird das dann ja wohl weg sein ;-)

Space


Antwort von Jost:

In der Theorie wolltest Du eigentlich nur auf DNG mitschneiden, was Du unter Log filmst.
Es ist ganz offenbar so, dass die Belichtungswerte für Log zu einer, Deiner Meinung nach, "Unterbelichtung" in DNG führen.

Passt Du die Belichtungswerte an DNG an, wird Log überbelichtet.

Wie Wolfgang es schon richtig beschrieb: Selbst wenn Du perfektes DNG-Ausgangsmaterial hast, muss eine Bearbeitung erfolgen. Es gibt kein Out-of-the-Box wie unter H.264. Im allerbesten Fall reicht es, einfach eine Lut drüberzulegen - fertig.

In der Praxis muss immer händisch etwas nachgearbeitet werden. Das sollte hier aber auch kein Problem sein, denn das Beispiel-Bild lässt sich ja relativ einfach optimieren.

Space


Antwort von TomStg:

Denke auch, dass die Belichtungskontrolle der FS700 mit Slog nur am Shogun anhand dessen LUT richtige Ergebnisse liefert, da die FS700 keine Monitor-Luts wie zB die FS7 hat. Der Shogun darf aber seine LUT nicht "einbacken".

Space


Antwort von Frank Glencairn:

Der einzige Unterschied bei BMG besteht darin, dass die Kamera mit dual chain arbeitet, also mit zwei unterschiedlichen Verstärkerwegen die gemeinsam eine Comparatorspannung erzeugt, die dann zum AD Wandler geht.... Das ist alles gut und recht, aber der Punkt ist, das die BM das ISO nur in die Metadaten schreibt, das Bild aber letztendlich immer das selbe ist, egal was du an der Kamera einstellst (Es gibt ne Ausnahme bei 1600, wo die bits etwas anders gewichtet werden) - wie schon gesagt, ne Menge Leute (inklusive ich) haben das alles schon vor Jahren ausgiebig getestet.

ISO macht bei BM nur einen Unterschied, wenn du nicht raw drehst.

Space


Antwort von Jost:

Na dann - adieu ND-Filter. Für mich war die ISO-Einstellung der BMCC immer verbotene Zone, und ISO 800 der Heilige Gral, der nicht berührt werden durfte.

Jetzt muss natürlich noch einmal getestet werden.

Gab es denn beim Shogun-DNG einen Fortschritt?

Space



Space


Antwort von klusterdegenerierung:

Natürlich schaue ich mir das Preview nicht nur auf dem Display, sondern auch auf dem Shogun an, da gibt es aber, bis auf das ganze HDR Theater, keinen wirklichen Unterschied zum Display.

Leider husche ich gerade von einem zum anderen Job, aber ich werde das ganze am WE noch mal gegenüberstellen, denn wenn ich jetzt eine -3Blenden Lut auf das Shogun Preview lege, würde das ja da zu führen, das ich die Iso hochdrehen müßte um das Bild heller zu bekommen, denn Blende und Zeit sind fix.
Das hiese aber auch gleichzeitig, das ich mit einer höheren Iso am Ende genau da wäre, wie wenn ich das nicht so helle Material hoch ziehen würde.

Der Unterschied ist aber immernoch der, das ich bei 2000Iso eigenlich eine überbelichtete ProRes Aufnahme hätte, die ich im gesamten runterdrehen könnte und weniger Rauschen hätte als das original, was bedeutet, das ich zum DNG doppelt weniger Rauschen hätte!

Das macht so alles überhaupt keinen Sinn, haltet mich für unfahig, aber irgendwas stimmt da nicht!
Dann letzendlich würde das nichts anderes heißen, wie wenn ich in der Fotografie gleichzeitig eine Raw+jpg Aufnahme schiesen würde und das Raw wäre 3 Blenden dunkler als das jpg und wenn ich es im ACR so hell drehen würde wie das jpg, hätte das jpg am Ende weniger Rauschen und sähe qualitativ besser aus, das kanns ja wohl nicht sein!

Space


Antwort von WoWu:

Na dann - adieu ND-Filter. Für mich war die ISO-Einstellung der BMCC immer verbotene Zone, und ISO 800 der Heilige Gral, der nicht berührt werden durfte.

Jetzt muss natürlich noch einmal getestet werden.

Gab es denn beim Shogun-DNG einen Fortschritt? Machen kann man alles, auch ein ISO Setting z.B. auf dem Sweetspot fixieren. Dann spart man sich die relativ komplizierte Einstellung der Regelspannung für den Abgleich der unterschiedlichen Farbkanäle und die Software wird deutlich günstiger.
Und wenn man davon ausgeht, dass das Kameraprozessing in andern ISO Einstellung u.U. unverhältnismässig viel Noise dem Signal hinzufügt und man damit rechnet, dass Nachbearbeitungsprozesse besser und rauschfreier arbeiten, als die kameraeigenen Prozesse, dann macht das sogar Sinn, auch wenn der Anwender dadurch eine gestalterische Komponente verliert

@Kluster
Was mit so einem fixen ISO Wert passiert, ist, dass die Bilddynamik, also die Menge der Übertragungswerte ausschliesslich durch Licht, Shutter oder Blende bestimmt werden kann.
Gibt man also ein solches Signal, das vielleicht nur 40% der Übertragungswerte belegt, auf einen Bearbeitungsweg, wird der Bildpegel, aber auch der Rauschanteil entsprechend hochgezogen.
Ist die Nachbearbeitung technisch besser, hat man einen Vorteil, das ist aber in der Regel nicht der Fall, weil man all den Noise aus der Digitalisierung usw. jetzte mit im Bild hat, weil der Verstärkungspunkt weiter nach hinten verlegt wird und diese Werte mit verstärkt werden.
Aber für den Hersteller ist sowas natürlich einfach und billiger zu realisieren.
Aber im Prinzip würde man sowieso den Sweet Spot nahmen, muss dann nur richtig ausleuchten, sodass auch für das RAW Signal wieder Vollpegel entsteht.
Mit wenig Licht ist das eher ein Nachteil.

Space


Antwort von Jost:

Dann letzendlich würde das nichts anderes heißen, wie wenn ich in der Fotografie gleichzeitig eine Raw+jpg Aufnahme schiesen würde und das Raw wäre 3 Blenden dunkler als das jpg und wenn ich es im ACR so hell drehen würde wie das jpg, hätte das jpg am Ende weniger Rauschen und sähe qualitativ besser aus, das kanns ja wohl nicht sein! Der Vergleich hinkt etwas, das Jpeg ist nur eine nachträglich Interpretation vom RAW.

Du nimmt hingegen zwei voneinander unabhängige Videostreams auf. Einmal unter Log, einmal als DNG.

Mein Bild auf Seite 1 wurde übrigens mit 70 Prozent Zebra aufgenommen, damit das Weißwasser nicht clippt.

Lightroom zeigt mir dann im Histogramm das an.



zum Bild


In der Bearbeitung muss man dann die Belichtung um drei Blendenstufen zurücknehmen.

Unter DNG kein Problem, Log scheint nicht so komfortabel zu sein.

Vergleich doch bei der Aufnahme mal, wie die beiden Histogramme aussehen. Sie müssten sich eigentlich auf der Sony und dem Shogun unterscheiden.

Space


Antwort von klusterdegenerierung:

So habe mir mal die Mühe gemacht die Unterschiede zu visualisieren.
Den Unterschied sieht man deutlich, an den Grundsettings wurde nichts verändert.

Jetzt sollte ich vielleicht noch mal testen, ob das hochziehen des dunklen Slogs zu einem höherem Rauschen führt, als das runterziehen des ProRes.

Was meint Ihr?

Space


Antwort von WoWu:

So ganz verstehe ich den Workflow noch nicht, denn wenn RAW, wie Frank sagt, festgeklemmt ist, wo -und womit- hast Du die Konversionen gemacht ?
Sorry, wenn ich da nochmal nachfrage, aber so richtig klar ist mir das noch nicht.

@Jost
Kannst Du dies gigantisch große Bild mal auf ein Normalformat bringen, das zerhaut die ganze Thread Formatierung und auf Auflösung kam es dabei ja auch nicht an.

Space


Antwort von klusterdegenerierung:

Die DNGs habe ich einfach mit ACR geöffnet und so ohne Einstellungen abgespeichert. Diese Darstellung war bis jetzt in allen Rawegines gleich.
Die beiden anderen sind Frames aus dem Footage.

Für mich stellt sich jetzt halt die Frage, wenn ich das Slog2 DNG so hell haben wollen würde wie das ProRes, was müßte ich dann machen, wenn das 500Iso DNG schon so dunkel ist und das 2000er Slog DNG noch dunkler?

Da müsste ich ja rein physikalisch das Standardgamma auf ca. 2400 Iso und das Slog auf ca. 5000Iso pushen, oder ist es garnicht wirklich viel heller, sondern nur Kontrastlos und blass?

Space


Antwort von WoWu:

Du hast in den beiden DNG Bildern schon eine ziemlich derbe JPEG Verarbeitung, die, wenn das die Wiedergabe der Originalbilder ist, für mich allein schon nicht tragbar wäre, mal unabhängig von der Tonwertverteilung.
Zieh mal den Flaschendeckel größer und schau Dir den Rand an.
Was die Tonwertverteilung betrifft, muss ich warten, bis ich an einem andern Rechner bin.
I.A. bin ich auf dem Pad, aber ich schau das mal in Ruhe an.
Aber wenn das die RAW Qualität sein sollte, dann ist das für die Tonne und eben kein RAW, sondern JPEG.
Frage ist, ob sich dann überhaupt noch die Frage nach den Gammwerten stellt, weil, wie ich Dich verstanden habe, die Gradation so aussehen sollte wie in Bildern 3 u. 4.

Space


Antwort von klusterdegenerierung:

WoWu, das waren nur screenshots, ich kann Dir gerne ein Raw anhängen?
Hier mal eine Bearbeitung via Resolve, bei denen beide auf ungefähr selbem Level liegen sollten.
Farbe bei ProRes gefällt mir besser.

Aber denke dran, ist ne Betafirmware, wer weiß ;-=

Hier der Link zu einem original DNG mit Standard Gamma bei 500Iso:
http://www.filedropper.com/frm000004

Space


Antwort von WoWu:

Ja, da ist jetzt statt der JPEG Effekte Mosquitonoise, auch nicht viel schöner.
Aber was mir nicht so ganz klar ist .... wo willst Du eigentlich mit der Farbe hin denn graden lassen sich alle Bilder, nur eben mit unterschiedlichen Ansätzen.
Noise kannst Du fast vergessen, nur wenn das RAW deine Originalwidergabe ist, dir aber die Tonwertverteilung von 3 und 4 besser gefällt, ist es doch letztlich erst eine Frage, welches Ausgangsmaterial besser ist, wenn Du mit allen Samples da bist, wo Du hin willst.
Problematisch wird das, so wie ich das im ersten Ansatz sehe, bei keinem der vier Bilder.

Ist denn das, was Du jetzt verlinkt hast, das Ziel?
Farben finde ich übrigens vom DNG besser, ist auch weniger Wolkigkeit drin. Sind das beides 10 Bit ?
Aber das ist reine Geschmachssache.

Space



Space


Antwort von klusterdegenerierung:

Ja kann man so sagen, aber anfäglich ging es mir ja darum einen Mehrwert durch das jetzt gewonnene CDNG Material zu ermitteln, womit ich mich wirklich schwer tue!

Für extrem gradings ist das DNG sicherlich ne Ecke besser als das ProRes, allerdings komme ich auch schon sehr gut mit dem internen 8Bit Material klar,
wenn man nicht in dem Bereich der 8Bit vs 10Bit Darstellung/Ausfransungen kommt.

Sicherlich ist das DNG Material dann mehr vorne,
wenn ich mal eine Belichtung bei ProRes oder AVCHD versemmel und ich sie bei dem CDNG durch die ISo flexibilität wieder auffangen könnte.
Da wäre das AVCHD bestimmt schnell an der Grenze, aber solange man richtig und gezielt belichtet, scheint es kaum Unterschiede zu geben.

Ich hatte am Anfang halt nur gedacht, das mein CDNG genauso aussehen muß wie mein Raw to ProRes SLog,
weil ja beides aus dem SDI Raw Stream gewonnen wird, aber dem ist wohl nicht so!

Space


Antwort von WoWu:

Schau Dir das mal auf dem Waveform an, da siehst Du schnell, wie Dir die Logs die Dynamik einengen.
Dann würde ich immer auf das Raw zurückgreifen, auch wenn da im DNG Noise entsteht. Immer wenn Du die Dynamik wieder ziehen musst, steht Du vor der realen Bandingproblematik, es sei denn, Dein Bildinhalt gibt das nicht her.
Übrigens würde ich aus den stehenden Beispielen auch nicht unbedingt auf die Codecs schließen denn bei Bewegung werden die Karten neu gemischt und das was jetzt noch gilt, gilt dann nicht mehr.

Was meintest Du mit "Iso Flexibilität" ?
Spätestens, wenn Du mit Blende, Shutter und Filter arbeitest, wird da schnell das Gegenteil raus denn dann kann man auch rasch mal in der Unterbelichtung landen, weil man sich auf den Codec eingependelt hat und dann wird's auch eng.
Ich würde immer versuchen, auf das RAW Format zu belichten und die Codecs als Proxys mitlaufen lassen. Dann bist Du auf der ganz sicheren Seite.

Space


Antwort von klusterdegenerierung:

Stimmt, das hatte ich ganz vergessen!
Aber WoWu, wie kommt es denn jetzt nu auf dem Punkt gebracht,
das mein CDNG bei gleicher Belichtung nicht identisch mit dem Raw to ProRes oder AVCHD aussieht, oder muß das garnicht gleich aussehen?
Denn das macht das normale Belichten via Display nicht gerade einfach, zumal der Shogun ja fasst das identische Preview zeigt.
Doch wieder den alten Gossen auspacken? ;-)

Space


Antwort von Frank Glencairn:

Aaaaaalso....

ich hab den Frame mal in Resolve geschmissen.

So wie es aussieht kommt überhaupt keine ISO Flag mit, deshalb ist es auch so dunkel, weil ungefähr ISO 800 angenommen wird.

Wenn man Resolve erklärt, daß es mit ISO 2000 geschossen wurde, dann sieht das schon halbwegs so aus, wie du es erwartest.

Das erste Bild ist 709, das zweite im BM Farbraum.

Space


Antwort von klusterdegenerierung:

Und wo genau hast Du das Resolve verklickert?

Space


Antwort von WoWu:

@Frank
Ich hätte Dich oben so verstanden, dass es der BMD völlig egal ist, welchen ISO Wert Du einstellst, weil die Kamera das ISO Detting ohnehin auf einen Wert festklemmt.
Welcher ISo Wert wird denn da übertragen, wenn das Setting für die Kamera sich ohnehin nicht ändert ?
Wenn Du in der Kamera immer ISO 400 oder 800 hast, dann ist es doch in der Post völlig egal, worauf der Regler in der Kamera steht, weil er doch ohnehin keinen Einfluss auf das RAW setting hat ?
Oder wird ihm da nur signalisiert, welche Einstellung der Monitor-bzw. Messwerte hätte ... wenn ja, wozu ?

Space


Antwort von Frank Glencairn:

Normal machst du das in den Raw Einstellungen mit dem ISO Button, der ist aber bei deinem File ausgegraut, also hab ich in den Raw Einstellungen die Belichtung auf 2.5 gestellt.

Nur noch mal zum Verständnis, das sind die raw Einstellungen, das ist was anderes als die normale Lift/Gamma/Gain Drehregler, die greifen auf das bereits debayerte RGB Bild zurück, während die raw Einstellungen quasi einen Level tiefer ansetzen, beim Debayering.

Space


Antwort von klusterdegenerierung:

Ja genau das Gefühl habe ich eben auch, egal welche Iso, es ändert sich kaum.

Space


Antwort von klusterdegenerierung:

Frank meinst Du so wie auf meinem Screenshot?
Und das hieße das Bild wäre mit den settings quasi noch wie tausfrisch und unbearbeitet?

Space



Space


Antwort von WoWu:

Also hat die Kamera für RAW doch einen ISO Regler (?)

Space


Antwort von Frank Glencairn:

@Frank
Ich hätte Dich oben so verstanden, dass es der BMD völlig egal ist, welchen ISO Wert Du einstellst, weil die Kamera das ISO Detting ohnehin auf einen Wert festklemmt.
Welcher ISo Wert wird denn da übertragen, wenn das Setting für die Kamera sich ohnehin nicht ändert ?
Wenn Du in der Kamera immer ISO 400 oder 800 hast, dann ist es doch in der Post völlig egal, worauf der Regler in der Kamera steht, weil er doch ohnehin keinen Einfluss auf das RAW setting hat ?
Oder wird ihm da nur signalisiert, welche Einstellung der Monitor-bzw. Messwerte hätte ... wenn ja, wozu ? ISO und Whitebalance kommen bei der BM nur als Metadaten mit, quasi als "Empfehlung" für Resolve.

Wenn du da ein DNG rein lädst, dann steht das standardmäßig erst mal auf "as shot" - d.h Resolve nimmt erst mal die selben Einstellungen die du in der Kamera auch hattest.

Kann man natürlich jederzeit ändern.

Ja, die BM Kameras haben ISO und WB Regler, weil man ja auch ProRes/DNX schießen kann, und zwar auch in 709, und nicht nur in LOG. Weil dabei in der Kamera Debayert wird, muß man ja auch irgendwas einstellen können.

Space


Antwort von Frank Glencairn:

Frank meinst Du so wie auf meinem Screenshot?
Und das hieße das Bild wäre mit den settings quasi noch wie tausfrisch und unbearbeitet? Ja genau

Space


Antwort von klusterdegenerierung:

Super Frank, damit klappt das sehr gut!
Wenn ich wie hier im Waveform zu sehen ist, bis in den möglichen bereich gehe, ist die Darstellung und die ausbeute, genauso wie ich mir es vorgestellt habe und die Visuelle Quallität ohne nachträgliche WB korrektur nahezu perfekt und der Realität entsprechend! Danke!

Hier Screenshot!

Space


Antwort von Frank Glencairn:

Na also - freut mich, daß es jetzt klappt.

Space


Antwort von klusterdegenerierung:

Danke, habe den Screenshot noch mal eben korrigiert, denn mir ist aufgefallen, dass das Windows snipping Tool das Grau um einige Werte nach Rot zieht!

Space


Antwort von klusterdegenerierung:

Frank, eine Frage habe ich allerdings doch noch, die ich selber noch nicht so richtig ermitteln konnte.
Trotz des Vergleichs mit Standard Gamma bei 500Iso und Slog bei 2000Iso, kann ich keinen Rauschunterschied ausmachen, auch nicht nach dem graden, meinst Du es ist ohne Belang ob ich beim filmen Slog oder sonstwas nehme?
Denn laut Aussage von Atomos ist ja das Raw das Slog2 und ohne Slog kein Raw.

Space


Antwort von Frank Glencairn:

Schwer zu sagen, kommt auf deinen Workflow und deine Arbeitsweise an.

Persönlich drehe ich seit Jahren nur noch raw, und möchte das nicht mehr missen. Jedesmal wen ich ProRes auf den Tisch bekomme, wird mir wieder klar, warum ich auch weiterhin raw drehen möchte.

Probier einfach mal ne Weile damit rum, und schau wie du zurecht kommst.
Ich hab auch mit dem Atomos keine Erfahrung, hab nur den allerersten (Samurai glaub ich) damals für meine FS100 gekauft.

Space


Antwort von Jost:

Wenn du (in Resolve) ein DNG rein lädst, dann steht das standardmäßig erst mal auf "as shot" - d.h Resolve nimmt erst mal die selben Einstellungen die du in der Kamera auch hattest. Das macht Lightroom auch. Die große Frage ist aber: Wenn das Sony-Log an der Grenze zur Überbelichtung liegt, warum liegt dann das CDNG-Material - wie in dem Bild auf Seite 1 - an der Grenze zur Unterbelichtung?

Zumal auch ich glaubte: Man hängt einfach einen Shogun dran - und schon erhalt ich automatisch identisches Rohmaterial.

Woher kommt dieser gewaltige Unterschied?

Der normale CDNG-Workflow ist ja auch nicht, dass hochgezogen, sondern die Belichtung rausgenommen wird.

Space



Space


Antwort von Frank Glencairn:

Da wird nix hochgezogen sondern der fehlende ISO Wert korrekt eingesetzt. Aus irgendeinem Grund kommt der bei dem Rekorder nicht in den Metadaten mit, das Feld ist einfach leer, worauf hin Resolve halt einen zunächst mal Standardwert annimmt.

Space


Antwort von WoWu:

Aber das heißt letztlich, dass der Sensor nur im unteren Füllbereich (bis zum festgeklemmten iso wert) arbeitet und im Messweg für die Anzeige mit der Iso Einstellung ein Bild gemacht wird, das nicht dem entspricht, was als Raw abgespeichert wird und dass nur die Messeinstellung als Empfehlung mitgegeben wird und die Verstärkung dann im PC gemacht wird.
Das bedeutet, dass der Sensor auch nur in einem Bereich arbeitet, der nicht der vollen Dynamk des Sensors entspricht, weil FW im Sensor (und damit der maximale Störabstand) gar nicht erreicht wird.
Über die Gründe kann man nun spekulieren. Vermutlich ist der Prozessweg in der Kamera nicht mehr so toll, anderer Grund fällt mir für so einen Bremsklotz im Augenblick nicht ein.

Space


Antwort von iasi:

Der einzige Unterschied bei BMG besteht darin, dass die Kamera mit dual chain arbeitet, also mit zwei unterschiedlichen Verstärkerwegen die gemeinsam eine Comparatorspannung erzeugt, die dann zum AD Wandler geht.
Die Gaineinstellung (Iso) erfolgt also auf beide Verstärker, mit einem Offset.
(Daher auch die Black sun, weil beide Chains bei starkem Licht in den Clip gehen und die Differenzspannung Null wird, also Schwarz)
Das der sichtbare Unterschied bei RAW geringer ist als bei 1Chain Sensoren liegt daran, dass für jeden ISO Bereich der dafür günstigste Punkt auf der jeweiligen Arbeitskurve genutzt wird.
Aber die Abhängigkeit vom ISO setting besteht auch hier, nur dass die Verstärker im unteren ISO Bereich sauberer arbeiten.
Nicht umsonst nimmt auch ARRI das Verfahren.
Nur grundsätzlich müssen an irgend einer Stelle die auftreffenden Photonen auch bei RAW vervielfältigt werden, sonst könnte man bei RAW mit einem Photo pro Pixel in der Nachbearbeitung ein sauber belichtetes Bild herstellen und wäre völlig losgelöst vom Sensorrauschen.
Geht aber nicht.
Die Abhängigkeit des Sensorsignals vom ISO Setting besteht also auch bei BMD.
Verstärkung muss nun mal sein und die macht man immer da, wo der Störabstand am größten ist und das ist so dicht wie möglich am Sensor und vor jeder Digitalisierung, auch bei BMD.
Oder reicht Dir 1 photon pro Pixel für ein sauberes Bild?
Du kannst es drehen und wenden, aber Du musst den Sensor so weit wie möglich in die Belichtung bringen. Dabei ist es egal, ob das mit Licht, der Blende, dem Shutter oder dem Iso geschieht.
Es sei denn, Du bist mit grauer Soße und wenig Dynamik zufrieden.
Soll's ja auch geben. ISO wirkt sich bei RAW nicht auf die Belichtung aus - nur auf den User, der dann eben zu gering belichtet, weil ihm die Messgeräte ETTR suggerieren, wo eigentlich unterbelichtet wird.
Und dann hat der User, was du beschreibst: den DR des Sensors nicht optimal genutzt.

Ich bin da auch bei Frank: Basis für die Belichtung sollte der native ISO-Wert des Sensors sein - eben der Wert, den du beschreibst.

Wenn das Licht dann wirklich zu knapp ist und man unterbelichten muss, erhöht man den ISO-Wert. Optimal ist das dann aber nicht mehr.

Space


Antwort von klusterdegenerierung:

Da wird nix hochgezogen sondern der fehlende ISO Wert korrekt eingesetzt. Aus irgendeinem Grund kommt der bei dem Rekorder nicht in den Metadaten mit, das Feld ist einfach leer, worauf hin Resolve halt einen zunächst mal Standardwert annimmt. Ich denke das Jost es so meint, das selbst wenn ich in 800Iso aufnähme, die Helligkeit trotzdem weit weg vom ProRes ist und ob das mit einem intergrierten Isotag anders würde wäre mal die Frage.

Aber wie gesagt, es ist eine Betafirmware und und ich denke das die fehlenden Metadaten in der finalen Version vorhanden sein werden.

Space


Antwort von klusterdegenerierung:

ISO wirkt sich bei RAW nicht auf die Belichtung aus - nur auf den User, der dann eben zu gering belichtet,
weil ihm die Messgeräte ETTR suggerieren, wo eigentlich unterbelichtet wird.
Und dann hat der User, was du beschreibst: den DR des Sensors nicht optimal genutzt.

Ich bin da auch bei Frank: Basis für die Belichtung sollte der native ISO-Wert des Sensors sein - eben der Wert, den du beschreibst.

Wenn das Licht dann wirklich zu knapp ist und man unterbelichten muss, erhöht man den ISO-Wert. Optimal ist das dann aber nicht mehr. Die Annahme ist ja logisch, aber dies kann man ja mit einem Belichtungsmesser und auch mit der internen Aufnahme wiederlegen!
Warum sollte der Shogun, das Kameradisplay und ein Gossen eine Überbelichtung messen, wo garkeine ist, nur weil das CDNG sie nicht anzeigt?

Wie gesagt, es ist eine Betafirmware die Atomos wegens des mitlerweile Jahrelangen drängelns und meckerns der User zum rumprobieren freigegeben hat.
Ich kann mich aber auch noch daran erinnern, dass das ACR das Raw meiner damaligen BMC"s auch immer zu dunkel wahrgenommen hat.

Auf der anderen Seite bin ich da mehr bei Frank, denn mit den settings in Resolve,
sehen die Aufnahmen Top aus und nicht schlechter als das ProRes, was ja dann die Konsequenz sein müßte.

Space


Antwort von klusterdegenerierung:

Lustigerweise gibt es gerade einen Thread auf 4kshooters über den Unterschied zwischen Raw und intern bei der FS5 und wo das Video dazu mal wieder ganz toll dokumentiert, das der jenige anscheinend überhaupt nicht weiß wozu man eigentlich in raw dreht, wenn ich nur unkomplizierte und perfekt belichtete Aufnahmen nebeneinander stelle!
Was für ein Unsinn! :-)

http://www.4kshooters.net/2016/09/27/so ... ug-jensen/

Space


Antwort von iasi:

ISO wirkt sich bei RAW nicht auf die Belichtung aus - nur auf den User, der dann eben zu gering belichtet,
weil ihm die Messgeräte ETTR suggerieren, wo eigentlich unterbelichtet wird.
Und dann hat der User, was du beschreibst: den DR des Sensors nicht optimal genutzt.

Ich bin da auch bei Frank: Basis für die Belichtung sollte der native ISO-Wert des Sensors sein - eben der Wert, den du beschreibst.

Wenn das Licht dann wirklich zu knapp ist und man unterbelichten muss, erhöht man den ISO-Wert. Optimal ist das dann aber nicht mehr. Die Annahme ist ja logisch, aber dies kann man ja mit einem Belichtungsmesser und auch mit der internen Aufnahme wiederlegen!
Warum sollte der Shogun, das Kameradisplay und ein Gossen eine Überbelichtung messen, wo garkeine ist, nur weil das CDNG sie nicht anzeigt?
Wenn du bei Kamera und Gossen ISO2000 eingestellt hast, wirst du einen ISO800-Sensor unterbelichten. Ähnliches ist auch schon einem Red-User passiert, der nach einem Low-Light-Shot versäumt hatte, den ISO-Wert wieder auf den nativen Wert zurückzustellen.

Was der Shogun dann aufzeichnet, ist entweder optimal- oder unterbelichtet - je nachdem, was die Kamera liefert. Daran ändert der Shogun doch (hoffentlich) nichts mehr.

Space


Antwort von klusterdegenerierung:

Das wäre ja so auch richtig, aber die FS700 macht native 2000Iso, dann ist doch eine Messung auf diesen Wert perfekt.
800Iso ist ja nur das was die meißten NLEs annehmen wenn sie es nicht besser wissen.

Space


Antwort von Frank Glencairn:

Aber das heißt letztlich, dass der Sensor nur im unteren Füllbereich (bis zum festgeklemmten iso wert) arbeitet und im Messweg für die Anzeige mit der Iso Einstellung ein Bild gemacht wird, das nicht dem entspricht, was als Raw abgespeichert wird und dass nur die Messeinstellung als Empfehlung mitgegeben wird und die Verstärkung dann im PC gemacht wird.
Das bedeutet, dass der Sensor auch nur in einem Bereich arbeitet, der nicht der vollen Dynamk des Sensors entspricht, weil FW im Sensor (und damit der maximale Störabstand) gar nicht erreicht wird.
Über die Gründe kann man nun spekulieren. Vermutlich ist der Prozessweg in der Kamera nicht mehr so toll, anderer Grund fällt mir für so einen Bremsklotz im Augenblick nicht ein. Nein, das bedeutet (im Fall von Kluster) daß die Resolve keine Ahnung hat, mit welcher ISO das Material geschossen wurde, weil die Information nicht in den Metadaten ist, und das Material deshalb zunächst falsch interpretiert.

Bei einer BM Kamera hast du das Problem nicht.
Da sieht das Material in Resolve genau so aus, wie auf dem Kamera Display.

Space



Space


Antwort von dienstag_01:

Hier mal zwei Ausschnitte aus RAW Material (Foto, Canon). Einiges spricht dafür, dass die ISO Werte bei der Belichtung ein Faktor für das Ergebnis sind.
Oder anders ausgedrückt, dass sie im Bild *eingebacken* sind.
Siehe Rauschen, aber vor allem das Histogramm mit Abrissen.

Mag bei anderen Cameras anders sein, dass aber allgemein der ISO-Wert keine Rolle für das RAW-Ergebnis spielt, scheidet damit aus ;)

Space


Antwort von Bergspetzl:

Nein, das bedeutet (im Fall von Kluster) daß die Resolve keine Ahnung hat, mit welcher ISO das Material geschossen wurde, weil die Information nicht in den Metadaten ist, und das Material deshalb zunächst falsch interpretiert. und wo ändere ich das? ist das der "Belichtungsregler" im Resolve? oder gibt es wirklich irgendwo die Möglichkeit, die Metadaten anzugreifen und sich so durchzutesten bzw. alles hinzubiegen. Würde ja einen Unterschied machen.

Ich glaube das Problem liegt darin, dass der Datenstrom der das Raw-Signal transportiert unabhängig von dem "normalen" Kamerabild ist. Wenn die Kamera auf Slog eingestellt ist wird sie wahrscheinlich erst einmal 'unterbelichten', um eben die Höhen zu retten und im internen processing ein Bild daraus erstellen. Das würde heißen dass sie im Display nicht anzeigt was sie "Raw" debayert, sondern das die Settings von dir so übersetzt werden dass du ein schönes wysiwyg im Display hast, auf dass du einen LUT setzten kannst. Das wäre aber unabhängig von dem, was die Kamera wirklich anstellt, und wenn man dann ein Slog mit LUT im Display hat und danach belichtet ist es für das DNG vielleicht daneben, einfach weil der Datenstrom aka RAW keine Priorität hat. Sie versucht ja primär ein schönes Log zu generieren, der RAW Strom ist ja nur das "Abfall-Produkt".

Anders herum wäre dann aber die Frage wie schaue ich den Datenstrom dann am besten an? In Rec709? Oder ist es am Ende wie beim "Film", ich muss wissen was ich mache. Kein DoP könnte früher sehen was er macht, er musste es wissen und das Kopierwerk hatte nur ganz wenig Spielraum zur Korrektur. Das klingt cool und pathetisch, wird aber heute nicht mehr so sein, sonst würde nicht durch die Bank weg so viel in Raw gefilmt, im "unteren" Segment...

Space


Antwort von Frank Glencairn:

Normal machst du das mit dem ISO Regler, der ist aber bei Clusters Datei ausgegraut, deshalb hab ich den Belichtungsregler genommen, um das Material zurückzusetzen.

Wie genau der Signalweg bei dieser Sony/Atomos Kombi ist, und was genau da wie übertragen wird, weiß ich leider auch nicht.
Wie schon gesagt ist das bei den BM/Red/Arri Kameras mit denen ich hauptsächlich arbeite, alles viel leichter. Da siehst du schon bei der Aufnahme was du bekommst.

Space


Antwort von klusterdegenerierung:

Nein, das bedeutet (im Fall von Kluster) daß die Resolve keine Ahnung hat, mit welcher ISO das Material geschossen wurde, weil die Information nicht in den Metadaten ist, und das Material deshalb zunächst falsch interpretiert. und wo ändere ich das? ist das der "Belichtungsregler" im Resolve? oder gibt es wirklich irgendwo die Möglichkeit, die Metadaten anzugreifen und sich so durchzutesten bzw. alles hinzubiegen. Würde ja einen Unterschied machen.

Ich glaube das Problem liegt darin, dass der Datenstrom der das Raw-Signal transportiert unabhängig von dem "normalen" Kamerabild ist. Wenn die Kamera auf Slog eingestellt ist wird sie wahrscheinlich erst einmal 'unterbelichten', um eben die Höhen zu retten und im internen processing ein Bild daraus erstellen. Das würde heißen dass sie im Display nicht anzeigt was sie "Raw" debayert, sondern das die Settings von dir so übersetzt werden dass du ein schönes wysiwyg im Display hast, auf dass du einen LUT setzten kannst. Das wäre aber unabhängig von dem, was die Kamera wirklich anstellt, und wenn man dann ein Slog mit LUT im Display hat und danach belichtet ist es für das DNG vielleicht daneben, einfach weil der Datenstrom aka RAW keine Priorität hat. Sie versucht ja primär ein schönes Log zu generieren, der RAW Strom ist ja nur das "Abfall-Produkt".

Anders herum wäre dann aber die Frage wie schaue ich den Datenstrom dann am besten an? In Rec709? Oder ist es am Ende wie beim "Film", ich muss wissen was ich mache. Kein DoP könnte früher sehen was er macht, er musste es wissen und das Kopierwerk hatte nur ganz wenig Spielraum zur Korrektur. Das klingt cool und pathetisch, wird aber heute nicht mehr so sein, sonst würde nicht durch die Bank weg so viel in Raw gefilmt, im "unteren" Segment... Uiyuiui, das hört sich so an, als würdest Du eine frische Pizza zubereiten und bevor Du sie in den Offen schiebst, frierst Du sie vorher ein! :-))

Space


Antwort von WoWu:

Hallo Kluster,

mach doch einfach mal 3 Bilder (RAW) (selbes Licht), eines mit dem niedrigsten ISO Setting, eins mit einem mittleren und eins mit dem höchsten ISO Setting und gib die mal in ein NLE ( ohne Metadaten und ohne was am NLE zu verändern).
Wenn nämlich nichts am NLE verändert wird, sind die Bilder entweder alle identisch oder alle unterschiedlich.
Daran kann man dann sehen, was in der Kamera eigentlich vor sich geht.
Der Rest ist doch jetzt Spekulation.

Space


Antwort von klusterdegenerierung:

Hallo WoWu,
ja machnmal muß man auch einfache Wege gehen! :-)))

Hier ein Vergleich aus ACR unbearbeitet:

Space


Antwort von WoWu:

Na also, alles klar, ISO wirkt auf RAW, also auf die Verstärkungseinstellung des Sensors.
Wenn Du jetzt noch einen Abgleich mit Deinem Belichtungsmesser machst, dann gibt das auch gut belichtete Aufnahmen.
So einen Abgleich macht man einmal und dann ist das die Referenz für RAW, ohne dass man ein Bild im Messweg haben muss.

Space


Antwort von klusterdegenerierung:

Interessant ist, das beide Reihen Sinn machen, denn das Frame mit 8000Iso sind ja geraden mal 2-3 Blenden über 2000Iso, aber bei 500Iso bis 8000Iso sind es ja ímmerhin 4-5!

Dann hat Frank doch Recht mit der Annahme, dass das native Iso zumindest vom Gamma her gesehen bei 500Iso liegt, es aber fürs Slog sich Reserven bis 2000Iso einkassiert.

Space


Antwort von dienstag_01:

Mit so einer Belichtungsreihe bekommt man noch nicht raus, ob das ISO im Bild oder als Metadaten übergeben wird.

Ich habe weiter oben einen Test gemacht, der funktioniert ;)

Space


Antwort von klusterdegenerierung:

Inzwischen denke ich ja, das Frank Glencairn der einzige ist, wo das nicht so ist ;)
:-)) Hahaha, tätä tätä tätä :-) +1

Space


Antwort von WoWu:

Du musst die Übertragungskurve und das, was das NLE macht, individuell betrachten.
Wenn sich beispielsweise RESOLVE an Metadaten orientiert, dann berechnet es daraus VEränderungen, die ausschließlich für Resolve gelten.
Das lässt aber keinen Rückschluss auf ein allgemeines Verhalten zu denn bei Premiere oder einem andern NLE kann das wieder ganz anders aussehen.

Primäres Ziel ist es, ein ausbelichtetes RAW signal herzustellen, denn nur so erreichtest Du einen bestmöglichen Störabstand.

Was immer man dann im NLE damit macht.
Hast Du aber schon im RAW einen miserablen Störabstand, kann auch das NLE nichts verbessern, es sei denn, du schmierst Rauschunterdrückung drüber.

Space


Antwort von dienstag_01:

Ich hatte meinen Text nochmal geändert. Hat sich überschnitten.

Also, ob die ISO auf den Sensor wirken oder nicht (und damit im Bild idt oder nicht), ist mit der Bildreihe oben (Wasserflasche) nicht zu ermitteln. Dazu braucht es einen anderen Test, siehe meinen weiter oben.

Space


Antwort von klusterdegenerierung:

WoWu, das Du aber Recht hast, zeigt es mir,
wenn ich das 8000Iso Frame in Resolve lade und es aber nicht unter Raw settings via Exposure so zurück drehen kann, als wäre es ein 500Iso Frame.

So gesehen, müßte ich auch wie sonst den niedrigsten Isowert nehmen, wenn ich wenig Rauschen haben möchte.

Könnte sich das ganze Isoverhalten denn mit einer finalen Firmware ändern?

Space


Antwort von WoWu:

Das mit dem niedrigsten ISO wert stimmt leider nicht.
Schau Dir oben nochmal die Grafuk an, da ist so ein typischer Iso Verlauf incl. aller vorkommenden Rauscharten abgebildet.
Du siehst, dass Du bei 100 ISO ziemlich tief im Sensprrauschen liegst und erst mit steigenden ISO Werten im SNR besser wirst.
Irgendwo auf der Kurve liegt dann Dein SweetSpot, bei dem Du den größten Störabstand hast, sofern Du das Kameraprozessong benutzt, das ja mehrer Störwerte enthält.
Bei RAW sieht das etwas anders aus, weil ein großteil der zusätzlichen Störwerte wegfällt. (kommt jetzt einwenig darauf an, wie das RAW Signal die Kamera verlässt, ob es als in Wirklichkeit nur ein flaches VSignal ist oder echte RAW Date).
Beir RAW wäre dein Ziel die Spitzlichter an FullWell zu führen (auch für HDR wichtig).
Dazu gehört also eine wirklich exakte Belichtung, woraus sich dann automatisch der ISO Wert ergibt.
Ergo: Bei internem Prozessing würde ich mich am sweet spot als Richtwert orientieren und bei RAW ausschließlich an meinem Belichtungsmesser und den ISO wert nehmen, der sich ergibt und möglichst hoch liegt, um auch die Sensordynamik möglichst maximal auszunutzen und bei Bedarf lieber in der Post runterziehen, was dann den Störabstand weiter verbessert.
Außerdem Weißabgleich IMMER in der Kamera machen.

Space


Antwort von klusterdegenerierung:

WoWu, ich weiß nicht ob ich das schon mal gefragt habe, aber hast Du eine Ahnung wie man bei einem Lunasix F die Isowerte in die heutige Digitaltechnik überträgt?

Denn das passt ja alles garnicht mehr so wie damals bei Film, denn wenn ich diese Situation richtig in den Griff bekommen möchte, komme ich ja um ein adäquates Messen nicht drum rum.
Aber wenn jetzt schon bei unterschiedlicher Codecwahl eine andere Helligkeit entsteht, wie soll ich das dann angehen?

Oder nicht so kompliziert und mal ne a6300 bei 800Iso auf Grau messen lassen und gucken was der Gossen anzeigt und die Differenz über den LW/EV Wert kompensieren damit der Isowert bleibt? Oder hast Du oder jemand anderes, bis auf Neukauf eine bessere Idee?

Danke!

Space


Antwort von Frank Glencairn:

Messen tust du nur die Ratios, nicht die Helligkeit.

Geht aber mit Falschfarben mittlerweile viel effizienter, ich hab meinen Belichtungsmesser seit zig Jahren nicht mehr angefasst.

Bei raw solltest du immer versuchen den Sensor soweit wie möglich zu sättigen - sprich ETTR. Eine Belichtung im klassischen Sinn kannst du also quasi vergesen, deine Ratios müssen deshalb aber trotzdem stimmen, sonst funktionierts nicht.

In der Praxis sieht das so aus: Szene nach ästhetischen Gesichtspunkten ausleuchten. Zebras auf 100%, und dann so die Helligkeit so anpassen (egal ob ND, Blende, Beleuchtung/Lichtstärke) daß die Zebras gerade so verschwinden - dann nochmal einen Tick dunkler, um ein bisschen Luft für das Highlight roll-off zu bekommen.

Space


Antwort von WoWu:

@Kluster

Wenn Deine Kamera über einen Auto-Iris-Modus verfügt, der die Blenden direkt anzeigt, erleichtert das die Messung.
Wenn die Blende nicht im Auto-Modus angezeigt wird, brauchst Du einen Waveform-Monitor, um den ISO-Wert zu finden.
Mit Auto-Iris, gehst Du wie folgt vor:
 
1 . Kamera "nullen", also alle Filter raus kein Gain. Bildfrequenz wählen, Shutter 180. normale Gamma-Einstellungen und keine „Look“ Einstellungen. Linearer Aufnahmemodus, REC 709 Keine ND-Filter oder andere Filter eingesetzt.
2 . Gleichmäßiges Licht auf die Graukarte ausrichten.
3 . Kamera exakt an der Graukarte ausrichten und zoomen , bis die Karte das Bildfenster füllt.
 
4. Kamera mit Blendenautomatik so einstellen, dass durch Lichtveränderung nicht die Verschlusszeit und auch nicht die ISO-Einstellung verändert wird. Blendenwert ablesen.
5 . Mit dem Belichtungsmesser jetzt ein Messung am "Ping- Pong"- Ball der Karte vornehmen. Mit Spotmetet, Kartenmitte messen.
6 . Jetzt ISO Einstellung des Belichtungsmessers ändern, bis der abgelesene Blendenwert der Kamera erreicht ist.
Der sich daraus anzeigende ISO Wert des Belichtungsmessers entspricht in der Annäherung der Kameraempfindlichkeit.
Wenn die Kamera die Blende nicht zeigen, muss die Kamera an einen Wellenform-Monitor sichtbar sein.
Schritte 1-3 bleiben an der Kamera die Blende so einstellen,und dass der Wellenform-Monitor 50-55 IRE anzeigt und dann die Blende ablesen.
Damit ist der Basiswert der Kamera festgelegt.
Willst Du mit EL statt OSO arbeiten, muss der Waveform statt 50-55% lediglich noch 40% anzeigen.
ISO-Empfindlichkeit ist aber noch kein wirkliches Maß dafür, wie stark ein Bildsensor auf Licht reagiert. Vielmehr ist es ein Mass dafür, wie stark eine Kamera darauf reagiert. Je höher die Verstärkung, desto weniger Licht ist (für den gesamten Kamerazug) erforderlich, um ein helleres Bild zu erzeugen.
Leider gibt es eine Reihe von Maßnahmen die die Empfindlichkeit nicht konsistent halten.
Weil ISO eine Verstärkungskennlinie repräsentiert, der Sensor aber durch die Filterung mit einem Bayer-Mosaikfilter unterschiedlich stark entlang der Farbfilter mit Photonen versorgt wird (Stichwort: Quanteneffizienz), müssen die jeweiligen Farbkanäle im Kameraprocessing unterschiedlich verstärkt werden.
Das bedeutet, dass jede der einzelnen Farben, streng genommen seinen eigenen ISO-Wert hat.
Das wiederum hat zur Folge, dass ganz bestimmte Farben entlang der ISO-Einstellung der Kamera, bevorzugt oder benachteiligt werden.
Betrachtet man den Tonwertumfang am Ausgangssignal, wird das Phänomen deutlich, siehe oben die kleine Grafik.
Du wirst also um einen Weißabgleich in der Kamera nicht herum kommen, um dem entgegen zu wirken denn die Sensorkennlinoe ist Sättigungsbasiert.
Für jedes ISO Setting solltest Du also einen Weißabgleich machen (im unteren Bereich vornehmlich) und die Werte Deiner Messungen am Belichtungsmesser einmal mit dem Waveform Ergebnis abgleichen.
Danach hast Du einen Belichtungsmesser, der entlang der Sensorempfindlichkeit Dir verlässlich die Blenden und Verschlusszeitwirkung anzeigt.
Wie gesagt, das war unsere vorgehensweise, die verlässlich funktioniert hat.
Denk dran, NDs (und sonstige Filter) funktionieren dann nur noch über Umrechnung des Dämpfungsfaktors.

Auf die Art kannst Du übrigens auch dein Zebra überprüfen, weil der Zebraweg immer auf 8Bit runtergezogen ist und nur wenig Messgenauigkeit hat.

Space


Antwort von klusterdegenerierung:

Wow, danke euch beiden, tja ob ich das jetzt so auf die Reihe kriege? ;-))
Danke für die vielen Tips!

Space


Antwort von klusterdegenerierung:

Frank,
ich hatte mich bislang noch nicht wirklich mit False Color beschäftigt und deswegen danke für den Tip.
Ich habe mal was passendes gesucht und was passabeles von Shane gefunden,
dort erklärt er zwar den Flanders Moni, aber man erfährt sehr viel über die ganze Prozedur und das ist denke ich das was Du meinst?

Werde ich auf jeden Fall ausprobieren, sieht sehr viel versprechend aus!
Danke für den Tip!



Space


Antwort von WoWu:

Aber für die Bildbelichtung setzt das voraus, das entweder die Kamera False Color kann oder der Kontrollmonitor, denn es ist ja nichts Anderes, als die Töne, die man schwer differenzieren kann, in einer Farbstufe sichtbar zu machen, die man deutlicher unterscheiden kann.
Zum Anderen sind solche FC Messwege meistens in 8Bit und setzen immer eine lineare Kurve voraus.
Wenn Du also RAW oder LOG arbeitest, hast Du die Kumulation der Messfehler in Deiner Darstellung, die sich aus Wandlung, reverse und/oder LUT ergeben.
Aber die meisten Waveform Monitorwege oder Zebras sind auch nur 8Bit und enthalten dieselben Fehler, wobei man es da meistens auf BLACK, GRAY UND WHITE beschränkt. Histogramme sind da eigentlich eher geeignet.
Da ist FC aber natürlich angenehmer, wenn man die Farben mal irgendwann im Kopf hat und nicht ständig abgleichen muss und wenn man es bei der Aufnahme zur Belichtung zur Verfügung hat.
Ansonsten ist das mehr ein Gradingtool.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Antworten zu ähnlichen Fragen //


Luminar NEO DNG Probleme
Neue AJA ColorBox bietet Farbraumkonvertierungen und LUT Verarbeitung
automatische Lut-Verarbeitung
mSata SSD Fragen
Canon 1DX MIII Fragen
Mein neuer Osmo Pocket und Fragen
Sony DCR-SR35 HDD Hybrid - ein paar weiterführende Fragen
Fragen zur Restaurierung alter Schellackaufnahmen...
Fragen zu SanDisk microSD Karten
Sony FS700 + Shogun Inferno diverse Fragen
Fragen zum DJI RSC 2 mit Sigma Objektiv
Sammelthread Fragen // Sony Creative Pro Night - powered by slashCAM
Fragen zur Website Vimeo.com...
Fragen zu diesem Effekt...
Panasonic G9 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
Fragen zum guten Ton
S1 4k50 Fragen an S1 User mit VLOG Upgrade
Fragen zum Workflow & Datenspeicherung




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash