Newsmeldung von slashCAM:
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Arri Alexa vs Blackmagic Cinema Camera vs Red Epic Lowlight
Antwort von nanook:
Thema Schärfe: die C300 ist so ein Beispiele: sehr scharf und detailreich, aber wenig filmisch - finde ich ...
Ich lasse mich aber gern vom Gegenteil überzeugen. Vielleicht gibt entsprechende Settings?
Antwort von deti:
Wer bestimmt eigentlich was filmisch aussieht? Ich halte diese ganzen Geschmacksdiskussionen im Kontext einer technischen Bewertung für unangemessen.
Auch wenn es bis vor Kurzem klar war, dass nur echter 35mm Film richtiges Kino sei, sieht die von der Mehrheit akzeptierte Realität bei Kameras und Kinos heute ganz anders aus. Noch gibt es ein paar 48FPS-Skeptiker, aber auch das wird mittelfristig zum Standard werden. Also wollen wir jetzt echt freiwillig weniger Schärfe, nur weil ein paar Gestrige das Matschbild aus vergangenen Zeiten für den wahren Kinolook halten?
Wer Unschärfe haben will, der soll sich den Schärferegler am Fernseher herunter drehen oder sich eine unpassende Brille kaufen.
Deti
Antwort von freezer:
Bez. der extremen Schärfe der BMCC mangels OLPF:
Das lässt sich in der RAW-Entwicklung leicht unterdrücken - zumindest wenn man die DNGs in After Effects via ACR importiert - dreht man dort die Schärfe komplett auf 0 so wirkt die BMCC sehr viel stärker in Richtung RED/ALEXA.
Antwort von thsbln:
Also ich bin froh, wenn ich, auch Dank meiner genialen Fähigkeiten, nach all meinen unscharfen 7D-Aufnahmen auch mal etwas Scharfes produziere ;-)
Antwort von srone:
Wer bestimmt eigentlich was filmisch aussieht? Ich halte diese ganzen Geschmacksdiskussionen im Kontext einer technischen Bewertung für unangemessen.
Auch wenn es bis vor Kurzem klar war, dass nur echter 35mm Film richtiges Kino sei, sieht die von der Mehrheit akzeptierte Realität bei Kameras und Kinos heute ganz anders aus. Noch gibt es ein paar 48FPS-Skeptiker, aber auch das wird mittelfristig zum Standard werden. Also wollen wir jetzt echt freiwillig weniger Schärfe, nur weil ein paar Gestrige das Matschbild aus vergangenen Zeiten für den wahren Kinolook halten?
Wer Unschärfe haben will, der soll sich den Schärferegler am Fernseher herunter drehen oder sich eine unpassende Brille kaufen.
Deti
ich denke, all diese digitalen (künstlichen) überschärfungen der letzten jahre, man denke zb auch an die gh2, haben dazu geführt schärfe anders zu beurteilen und eher durch auflösung zu ersetzen, was imho das gewollte besser beschreibt.
lg
srone
Antwort von Paralkar:
Schärfe kann man runterdrehen, ich weiß nicht wo das Problem ist und wenn ich ein leichten Blur auf das Bild anwende,
Lieber (zu) scharf, und runterdrehen als 7d, 5d Matsch
Die Frage die man wegen dem OLPF stellen muss ist, Moire', und soweit man gesehen hat is das jetzt nicht so schlecht, eher bei sehr feinen Strukturen entsteht welcher, das man auch mit nem leichten Blur bekämpfen könnte
Antwort von glnf:
Schärfe kann man runterdrehen, ich weiß nicht wo das Problem ist und wenn ich ein leichten Blur auf das Bild anwende
Das ist ein Irrtum. Schärfe lässt sich nicht aus einem Bild herausfiltern. Ein Blur Effekt kann das auch nicht, er macht alles ein wenig unschärfer aber die aufgesteilten Kanten und allfällige Morés bleiben erhalten. Wer es nicht glaubt soll einfach mal in Fotoshop ein Bild schärfen und dann versuchen das ursprüngliche Bild wieder herzustellen. Das geht nicht.
Also: In der Postproduktion nachschärfen geht problemlos, ein Bild das aber bereits geschärft wurde lässt sich nicht mehr weicher machen. Da gibt es keinen Weg zurück.
Antwort von Paralkar:
Ja aber mit Blur kann ich die wahrgenommene Schärfe subjektiv reduzieren, auch wenn es nicht wirkllich die Schärfe reduziert, sondern der Effekt anders funktioniert, das Endergebnis zählt.
Die Frage der Nachschärfung in der Kamera, ist ja nur bei ProRes und DNXHD wichtig, da bei cinema DNG, sowas ja garnicht passieren sollte
Antwort von glnf:
Die Frage der Nachschärfung in der Kamera, ist ja nur bei ProRes und DNXHD wichtig, da bei cinema DNG, sowas ja garnicht passieren sollte
Da hast du natürlich recht. Nur führt das Fehlen eines optischen Lowpassfilter zu einem ähnlichen Effekt wie "elektronisches Nachschärfen". Die Kamera nimmt Details auf die nur scheinbar existieren und leider nicht mehr entfernt werden können. Im Extremfall äussert sich das als Moiré und Aliasing. Im milderen Fall als unnatürlich hohe Kontraste bei feinen Details. Auch die lassen sich nicht mehr wegfiltern.
Antwort von srone:
inspiriert durch wowu, habe ich an meiner gh2 hervorragende ergebnisse durch verwendung des tiffen ultra contrast filters erzielen können, welcher zu harte kanten und eben nur diese aufweicht, bei überscharfen objektiven in verbindung mit ungefilterterten (digital uberschärften) sensoren, motivabhängig immer einen versuch wert. ;-)
lg
srone
Antwort von freezer:
@ glnf
klar lassen die sich wegfiltern.
Ein gaußscher Blur ist nichts anderes als ein Lowpassfilter.
Der Radius sollte allerdings <=1 px bleiben.
Antwort von Predator:
Mosaic Engineering entwickelt ja gerade einen OLPF, der dürfte fertig sein bevor die meisten überhaupt ihre Kamera haben.
Was ist denn mit dem guten alten Digital Diffusion Filter?
http://www.tiffen.com/pressreleasedigitalfx.html
Würde der nicht dazu beitragen, das Bild etwas weicher zu machen?
Antwort von srone:
ich fürchte im gegensatz zum ultra contrast wird der das ganze bild aufweichen und nicht nur die kanten.
lg
srone
Antwort von iasi:
Interessanter Test.
Der Red MX-Sensor mag Unterbelichtung gepaart mit niedriger Frabtemperatur nicht sonderlich.
Bei höhere Farbtemperatur kann man schon etwas mehr herausholen - aber dennoch verlangt der Sensor nach 5000 Kelvin und ausreichender Lichtmenge.
Die hohe Auflösung lässt das Rauschen zumindest schrumpfen.
Antwort von Abercrombie:
Hey Iasi!
Du arbeitest doch mit Farbkonversionsfiltern, oder?
Mich würde mal der Unterschied bei wenig Licht interessieren. Könntest du vielleicht den Filter im On rausziehen und einen kurzen RAW Clip irgendwo hochladen? Mich würde der Unterschied im Rauschen und in der Helligkeit interessieren.
Beste Grüße,
Cromb
Antwort von tolean:
Mosaic Engineering entwickelt ja gerade einen OLPF, der dürfte fertig sein bevor die meisten überhaupt ihre Kamera haben.
Das wird für professionelle Anwendungen notwendig sein. Hab gerade Testaufnahmen gehabt mit Ziegelmauern. Das sah ähnlich schlimm aus wie bei der 5DmkII (buntes Aliasing). Auch die Dynamik hat mich jetzt nicht umgehauen-müsste man mal Side-by-Side mit anderen Cams sehen-vielleicht etwas besser als die DSLRs aber weit weg von der Alexa. Aber sie ist halt sehr günstig.
Antwort von iasi:
Hey Iasi!
Du arbeitest doch mit Farbkonversionsfiltern, oder?
Mich würde mal der Unterschied bei wenig Licht interessieren. Könntest du vielleicht den Filter im On rausziehen und einen kurzen RAW Clip irgendwo hochladen? Mich würde der Unterschied im Rauschen und in der Helligkeit interessieren.
Beste Grüße,
Cromb
low light ist leider ein Grenzbereich - Korrekturfilter schlucken dann auch noch 1 bis 2 Blenden - so wird alles dann ganz schnell zum Kompromis:
Wenn ich ohne Filter schon bei f2 bin, muss ich mit Filter auf f1.4 gehen und zusätzlich die Empfindlichkeit und somit das Rauschen anheben.
Beides ist dem Bild nicht zuträglich.
Wer denkt, er müsse bei Kunstlicht mit ISO800 drehen, wird nicht glücklich mit der Ergebnis - da stimmt der Test hier durchaus.
Antwort von Ska_Ska_Ska:
kla ist es keine Alexa, aber die Dynamik ist schon nicht schlecht
Antwort von WoWu:
Mosaic Engineering entwickelt ja gerade einen OLPF, der dürfte fertig sein bevor die meisten überhaupt ihre Kamera haben.
Was ist denn mit dem guten alten Digital Diffusion Filter?
http://www.tiffen.com/pressreleasedigitalfx.html
Würde der nicht dazu beitragen, das Bild etwas weicher zu machen?
Ein "handgemachtes" Debayering, z.B. mit dem Hamilyon-Adams Algorithmus würde helfen und das Farbmoire fast gänzlich beseitigen.
Ich hatte hier schon mal Beispiel gepostet.
Warum also filtern, wenn man RAW bearbeitet.
Antwort von Abercrombie:
low light ist leider ein Grenzbereich - Korrekturfilter schlucken dann auch noch 1 bis 2 Blenden - so wird alles dann ganz schnell zum Kompromis:
Wenn ich ohne Filter schon bei f2 bin, muss ich mit Filter auf f1.4 gehen und zusätzlich die Empfindlichkeit und somit das Rauschen anheben.
Beides ist dem Bild nicht zuträglich.
Gerade das würde ich gerne mal sehen. Habe keine Farbkorrekturfilter und bin gerade neugierig. Also wenn du gerade die Kamera zur Hand hast: Einfach den Filter rein, in irgendeine Richtung filmen und den Filter im On rausziehen. Cool wäre ein Grauverlauf im Bild oder zumindest ein neutralgrau. Muss aber nicht sein.
Danke!
Antwort von iasi:
low light ist leider ein Grenzbereich - Korrekturfilter schlucken dann auch noch 1 bis 2 Blenden - so wird alles dann ganz schnell zum Kompromis:
Wenn ich ohne Filter schon bei f2 bin, muss ich mit Filter auf f1.4 gehen und zusätzlich die Empfindlichkeit und somit das Rauschen anheben.
Beides ist dem Bild nicht zuträglich.
Gerade das würde ich gerne mal sehen. Habe keine Farbkorrekturfilter und bin gerade neugierig. Also wenn du gerade die Kamera zur Hand hast: Einfach den Filter rein, in irgendeine Richtung filmen und den Filter im On rausziehen. Cool wäre ein Grauverlauf im Bild oder zumindest ein neutralgrau. Muss aber nicht sein.
Danke!
ich steh ein wenig auf dem Schlauch - einfach nur den Filter weg, bedeutet verschiedene Belichtung ... dann wird das Grau entweder über- oder unterbelichtet ... worauf kommt es dir denn an?
Antwort von Paralkar:
Der DR bisschen besser als DSLR, sorry, ohne jetzt anmaßend zu klingen, aber dann hast du nicht kapiert wie man mit der Kamera arbeitet, selbst das ProRes hat eine Dynamik, die sehr an an die Alexa kommt (nicht ganz zugegeben), und dem Red MX das Wasser reichen kann
Das Ding falsch zu belichten is ja wirklich nicht einfach, okay manche schaffen wie man so manchen User-Videos sieht trotzdem, die Schärfe und die Belichtung nicht richtig zu stellen und das ganze zu graden, als hät man auf den Bildschirm übergeben
Aber den leuten sollte man vielleicht auch eher ein Camcorder für 200 Euro aus dem Mediamarkt in die Hand geben
Prinzipiell kann man das BMCC Footage (Raw oder ProRes) besser mit Alexa ProRes mischen als Red Raw, is angenehmer anzugleichen, schaut harmonischer aus.
Antwort von Abercrombie:
ich steh ein wenig auf dem Schlauch - einfach nur den Filter weg, bedeutet verschiedene Belichtung ... dann wird das Grau entweder über- oder unterbelichtet ... worauf kommt es dir denn an?
Ich würde gerne das Bild einmal mit und einmal ohne Filter entwickeln und mir die verlorene Lichmenge und die Änderungen im Rauschen anschauen. Wenn es keine Möglichkeit gibt das Licht zu ändern, wäre das ja eine realistische Situation. Entweder ich nehme den Filter und ziehe alle Werte im Raw hoch oder ich nehme keinen, habe mehr Rot aufm Sensor und ziehe vor allem Blau hoch. Würde mich einfach mal interessieren, wie der Untershied aussieht.
Antwort von iasi:
ich steh ein wenig auf dem Schlauch - einfach nur den Filter weg, bedeutet verschiedene Belichtung ... dann wird das Grau entweder über- oder unterbelichtet ... worauf kommt es dir denn an?
Ich würde gerne das Bild einmal mit und einmal ohne Filter entwickeln und mir die verlorene Lichmenge und die Änderungen im Rauschen anschauen. Wenn es keine Möglichkeit gibt das Licht zu ändern, wäre das ja eine realistische Situation. Entweder ich nehme den Filter und ziehe alle Werte im Raw hoch oder ich nehme keinen, habe mehr Rot aufm Sensor und ziehe vor allem Blau hoch. Würde mich einfach mal interessieren, wie der Untershied aussieht.
Das kann ich dir jetzt schon sagen:
Der Filter macht doch nur Sinn, wenn man korrekt belichtet. Wenn ich ohne Filter arbeite, spreize ich R und B derart, dass ich B derart aus dem Keller ziehen muss, dass es furchtbar rauscht - oder ich clippe R.
Der Filter gleicht doch nur R und B an, indem er R dämpft - wenn ich die Belichtung angleiche ist das Ergebnis homogen.
Gleiche ich den Filter bei der Belichtung nicht aus, habe ich den Detailverlust und das Rauschen eben in allen Kanälen.
Wenn du willst, kann ich dir mal eine Aufnahme zukommen lassen, die unter worst-case entstanden ist - da konnte ich auch keinen Filter mehr einsetzen, da sich auf dem Histogramm eh schon alles nur noch am linken Eck abgepielt hatte. Mit Filter hätte ich dann nur auch noch R ins Schwarz geschickt.
Antwort von Paralkar:
Um mal meine Aussage zu unterstreichen wollt ich mal ein Beispiel für Overexposed in Raw geben, das ich wieder gerettet hab
Soviel zum Thema DR bisschen besser als DSLR, klar ist bei ner DSLR Codec, fehlende Log-fähigkeiten mit ausschlaggebend, aber diese Kamera is unglaublich was das betrifft
Antwort von WoWu:
Aber sei fair ... es ist nicht nur die fehlende LOG-Fähigkeit .... Du vergleichst auch 8 Bit 709 mit 12 Bit RAW.
Dann sehen solche Ergebnisse natürlich so aus.
Aber das ist mein Reden ... die BMCC hat eigentlich die 8 Bit Zeit im Semi-Bereich "ausgeläutet".
Antwort von Abercrombie:
Das kann ich dir jetzt schon sagen:
Der Filter macht doch nur Sinn, wenn man korrekt belichtet. Wenn ich ohne Filter arbeite, spreize ich R und B derart, dass ich B derart aus dem Keller ziehen muss, dass es furchtbar rauscht - oder ich clippe R.
Der Filter gleicht doch nur R und B an, indem er R dämpft - wenn ich die Belichtung angleiche ist das Ergebnis homogen.
Gleiche ich den Filter bei der Belichtung nicht aus, habe ich den Detailverlust und das Rauschen eben in allen Kanälen.
Wenn du willst, kann ich dir mal eine Aufnahme zukommen lassen, die unter worst-case entstanden ist - da konnte ich auch keinen Filter mehr einsetzen, da sich auf dem Histogramm eh schon alles nur noch am linken Eck abgepielt hatte. Mit Filter hätte ich dann nur auch noch R ins Schwarz geschickt.
Solche Aufnahmen habe ich auch.
Wie ich schon geschrieben habe: Angenommen es gibt eine Situation mit gegebenen Licht, dass nicht verbessert werden kann. Irgendein Büro-Licht, 3200K, nicht zu hell. Wie würde das Rauschen ohne Filter aussehen, wenn ich den Weißabgleich in RedcineX oder Resolve mache und wie würde es sich verändern, wenn ich die gleiche Situation in allen Kanälen hochziehen muss, weil der rote Anteil herausgefiltert wurde.
Also anstatt den Filter rauszuziehen kannst du ihn auch reinstecken. Das ist mir egal. Mir ist klar, dass es dunkler wird. Vielleicht sogar unbrauchbar dunkel. Daher würde ich es gerne mal sehen.
Aber ich kann mir auch einen Filter leihen gehen, wenn es zu viele Umstände bereitet.
Antwort von Paralkar:
@ Wowu
Ja du hast nicht ganz unrecht, jedoch meinte ich sogar verglichen mit 8 bit Techniccolor Cinestyle, das auch nichtmal ansatzweise eine solche dynamik schafft
Letzteres hab ich selbige überbelichtete Aufnahme in ProRes 422 10 bit aufgenommen, und auch diese kann ich noch komplett retten, LUT drauf und Höhen runter, alles wieder da
Ich muss allgemein sagen, das in dem ProRes oder DNXHD kaum ein Unterschied zu dem Raw ist was Dynamik betrifft
Antwort von freezer:
Ich habe auch schon mit der Dynamik der BMCC experimentiert.
In zB Lightroom (oder Adobe ACR) lassen sich bis zu 4 Blendenstufen wiederherstellen. Im Vergleich dazu: die RAW-Bilder von meiner DSLR EOS400D bieten maximal 1,5 Blendenstufen Wiederherstellungspotential.
Bei Tests der Dynamik im c't Magazin der diversen EOS x00 DSLRs kam man immer auf knapp über 9 Blendenstufen für JPG und 10,5 Blendenstufen für RAW.
Antwort von iasi:
Das kann ich dir jetzt schon sagen:
Der Filter macht doch nur Sinn, wenn man korrekt belichtet. Wenn ich ohne Filter arbeite, spreize ich R und B derart, dass ich B derart aus dem Keller ziehen muss, dass es furchtbar rauscht - oder ich clippe R.
Der Filter gleicht doch nur R und B an, indem er R dämpft - wenn ich die Belichtung angleiche ist das Ergebnis homogen.
Gleiche ich den Filter bei der Belichtung nicht aus, habe ich den Detailverlust und das Rauschen eben in allen Kanälen.
Wenn du willst, kann ich dir mal eine Aufnahme zukommen lassen, die unter worst-case entstanden ist - da konnte ich auch keinen Filter mehr einsetzen, da sich auf dem Histogramm eh schon alles nur noch am linken Eck abgepielt hatte. Mit Filter hätte ich dann nur auch noch R ins Schwarz geschickt.
Solche Aufnahmen habe ich auch.
Wie ich schon geschrieben habe: Angenommen es gibt eine Situation mit gegebenen Licht, dass nicht verbessert werden kann. Irgendein Büro-Licht, 3200K, nicht zu hell. Wie würde das Rauschen ohne Filter aussehen, wenn ich den Weißabgleich in RedcineX oder Resolve mache und wie würde es sich verändern, wenn ich die gleiche Situation in allen Kanälen hochziehen muss, weil der rote Anteil herausgefiltert wurde.
Also anstatt den Filter rauszuziehen kannst du ihn auch reinstecken. Das ist mir egal. Mir ist klar, dass es dunkler wird. Vielleicht sogar unbrauchbar dunkel. Daher würde ich es gerne mal sehen.
Aber ich kann mir auch einen Filter leihen gehen, wenn es zu viele Umstände bereitet.
Es ist ein Aufwand, die Files irgendwo hochzuladen.
Der Filter sorgt doch nur dafür, dass R und B im Hinblick auf eine neutrale Farbwiedergabe gleichmäßig belichtet werden. Dabei wird de Rotanteil gedämpft.
Ohne Filter habe ich bei niedriger Farbtemperatur eine Unterbelichtung bei B und/oder eine Überbelichtung von R.
Im Hinblick auf Low Light bringt der Filter nichts - ich verringere ja die Lichtmenge - und wenn ich dies bei der Belichtung nicht ausgleichen kann, darf ich auch keine Wunder erwarten.
Man kann sich das ja auch schön im RGB-Histogramm ansehen:
Bei der Red kann es dann sein, dass R rechts hinausschießt, während B links abrutscht. Der Dynamikbereich des Sensors ist dann schnell ausgeschöpft. Bringe ich mit dem Filter die R- und B-Kurve übereinander, habe ich wieder den vollen DR zur Verfügung.
Und gerade bei Raw kommt es doch ganz praktisch darauf an, alles innerhalb des Histogramms zu belassen - grob gesagt. Also muss ich bei Verwendung des Filters einen Belichtungsausgleich vornehmen. Sonst lasse ich die R-Kurve nur auf das B-Niveau absacken und verschenke DR im oberen Bereich.
Antwort von WoWu:
Ganz klar ist mir nicht, wieso Du überhaupt mit Filter arbeiten musst.
Du verschlechterst die Quanteneffizienz für Rot, damit Du die Gesamtverstärkung (zugunsten von Blau) anheben kannst.
Das verbessert nicht gerade Deinen Störabstand.
Es ist auch nicht erklärlich, warum das nicht im RAW Signal möglich sein sollte.
(Voraus gesetzt Du hast wirklich ein echtes RAW Signal vorliegen und kannst jedes Pixel noch anfassen-wie bei der BMCC-).
Mal ganz abgesehen davon, dass das Filter effektiv Licht (bei allen Wellenlängen) kostet.
Wir wenden solche Filterungen an, um bei Nachtaufnahmen das Ausbrennen von Rot (Bremslichter/Leuchtreklamen) zu verhindern, aber normalerweise sollte das für den Weisswert weitestgehend durch das Mosaikfilter erledigt werden, denn genau dafür ist die individuelle Farbgebung des Filters dem Sensor angepasst.
Antwort von iasi:
Ganz klar ist mir nicht, wieso Du überhaupt mit Filter arbeiten musst.
Du verschlechterst die Quanteneffizienz für Rot, damit Du die Gesamtverstärkung (zugunsten von Blau) anheben kannst.
Das verbessert nicht gerade Deinen Störabstand.
Es ist auch nicht erklärlich, warum das nicht im RAW Signal möglich sein sollte.
(Voraus gesetzt Du hast wirklich ein echtes RAW Signal vorliegen und kannst jedes Pixel noch anfassen).
Mal ganz abgesehen davon, dass das Filter effektiv Licht (bei allen Wellenlängen) kostet.
Wir wenden solche Filterungen an, um bei Nachtaufnahmen das Ausbrennen von Rot (Bremslichter/Leuchtreklamen) zu verhindern, aber normalerweise sollte das für den Weisswert weitestgehend durch das Mosaikfilter erledigt werden, denn genau dafür ist die individuelle Farbgebung des Filters dem Sensor angepasst.
Du beantwortest deine Frage doch selbst. Wenn ich nicht filtere, läuft entweder R oder B aus dem Ruder.
Und den Störabstand verringere ich ja gerade z.B. bei Blau, wenn ich reichlicher belichten kann, da ich Rotdurch den Filter herunternehme und dadurch das Clippen im Rotkanal verhindere.
Die Filterung soll doch die Spreizung zwischen R und B besitigen, wodurch ich bei der Belichtung den Belichtungsspielaum zurückgewinne.
Ein 5000Kelvin-Sensor verhält sich bei Kunstlicht anders als ein 3400Kelvin-Sensor ... da sind dann ISO320 nicht gleich ISO320.
Umgekehrt wäre es auch bei einem Kunstlicht-Sensor angeraten, bei hohen Farbtemperaturen mit einem Filter zu arbeiten. Nur so kann ich den vollen DR wirklich ausnutze.
Antwort von WoWu:
Nein, nein, nein ....
Wir benutzen die Filterung um bei Nachtaufnahmen die Unterschiede bei einer hohen Verstärkung zu dämpfen.
Das hat nichts mit dem Tagesgeschäft zu tun denn die Unterschiede in der Quanteneffizienz sind nicht derart riesig, dass sie nicht bereits durch das Mosaikfilter auszugleichen wären.
Und nochmal .... jedes Filter verändert den Störabstand nachteilig, weil im identischenZeitintervall weniger Photonen auf den Sensor treffen.
Lege ich das Filter so aus, dass im Verhältnis (noch) weniger bei langen Wellenlängen auftreffen, verändere ich zwar mein Verhältnis zu kurzen Wellenlängen, aber für beide muss ich die Verstärkung erhöhen und verschlechtere mir damit meinen Störabstand. (IMMER) !!
Und mit einem schlechteren Störabstand
verkürze ich auch immer meine Dynamik.
Da ist nix mit "Dynamik ausnutzen".... im Gegenteil.
Antwort von domain:
Ich kann mir nicht vorstellen, dass die Mosaikfilter für Kunstlicht und speziell nicht für 1600 Grad Kelvin, wie bei diesem Test, abgestimmt sind. Da braucht man sich nicht zu wundern, wenn dann bei einem Weißabgleich der unterbelichtete Blaukanal sein volles Rauschen gut entfalten kann.
Bei analogen Kunstlichtfilmen ist das eine ganz andere Sache, aber das habe ich ja schon mal beschrieben.
Aber sicher ist auch, dass es bei extremen Lowlight-Halogenaufnahmen besser ist, wenn R+G noch halbwegs gut belichtet sind, dann sollte man aber auch den Orangefarbton akzeptieren und nicht an einem nachträglichen Weißabgleich allzusehr herumbasteln.
Mit Konversionsfiltern hat man anderseits zwar eine ausgewogenere Lichtmengenverteilung auf den entsprechenden Pixeln (bzw. Sensoren), aber in diesem Fall sollte man an Goethes letzte Worte auf dem Sterbebett denken: Mehr Licht!
Antwort von iasi:
Nein, nein, nein ....
Wir benutzen die Filterung um bei Nachtaufnahmen die Unterschiede bei einer hohen Verstärkung zu dämpfen.
Das hat nichts mit dem Tagesgeschäft zu tun denn die Unterschiede in der Quanteneffizienz sind nicht derart riesig, dass sie nicht bereits durch das Mosaikfilter auszugleichen wären.
Und nochmal .... jedes Filter verändert den Störabstand nachteilig, weil im identischenZeitintervall weniger Photonen auf den Sensor treffen.
Lege ich das Filter so aus, dass im Verhältnis (noch) weniger bei langen Wellenlängen auftreffen, verändere ich zwar mein Verhältnis zu kurzen Wellenlängen, aber für beide muss ich die Verstärkung erhöhen und verschlechtere mir damit meinen Störabstand. (IMMER) !!
Und mit einem schlechteren Störabstand
verkürze ich auch immer meine Dynamik.
Da ist nix mit "Dynamik ausnutzen".... im Gegenteil.
doch doch doch
was für den Extremfall gilt, das gilt eben auch fürs Tagesgeschäft.
Nur weil es da wahrscheinlich nicht so extrem zu Tag tritt, bedeutet dies nicht, dass es plötzlich nicht mehr da ist.
Und im übrigen muss ich nicht verstärken, wenn ich die Belichtung anpasse - ich lasse ja nicht weniger Photonen auf den Sensor ... Verstärkung hat doch nichts mit Belichtung zu tun - zumindest nicht wenn ich mit RAW arbeite.
Elektronischer Weißabgleich und ISO-Einstellung sind letztlich überflüssig. Wenn das Bild ohne diese beiden Einstellungen nicht stimmt, habe ich falsch belichtet und falsch gefiltert.
Klar ist der Spielraum so groß, dass man meist noch korregieren kann (wie z.B. bei eurem Tagesgeschäft) - aber ideal ist das eben dennoch nicht.
Antwort von srone:
ein filter kostet in erster linie licht, hast du genug ist das ok, bei weniger, und diese situation haben wir idr bei kunstlicht, wenn man nicht gerade ein aggregat auf der strasse parken hat, kannst du den lichtverlust des filters nur durch gain/iso kompensieren und dadurch gewinnst du mit sicherheit keine dynamik, im gegenteil du handelst dir mehr rauschen ein.
ausgehend von gleichbleibender blende, da die gesamte bildgestaltung diesselbe sein soll.
lg
srone
Antwort von domain:
Stimmt nicht so ganz Iasi. Du stellst RAW so dar, dass es auch für Schlampige noch zu sehr brauchbaren Ergebnissen führen kann, wenn nur die Belichtung so hoch ist, dass auch der Blaukanal nicht auf den untersten Bitebenen in der Nähe des Rauschens herumkrabbeln muss.
Ich verbinde RAW aber mit Qualität und in dem Fall müssen immer alle drei Kanäle vergleichbar stark belichtet sein.
Und genau das ist bei analogen Kunstlichtfilmen z.B. der Fall, bei derzeitigen Sensoren mit Tageslichtabstimmung aber prinzipiell nicht.
Antwort von iasi:
Stimmt nicht so ganz Iasi. Du stellst RAW so dar, dass es auch für Schlampige noch zu sehr brauchbaren Ergebnissen führen kann, wenn nur die Belichtung so hoch ist, dass auch der Blaukanal nicht auf den untersten Bitebenen in der Nähe des Rauschens herumkrabbeln muss.
Ich verbinde RAW aber mit Qualität und in dem Fall müssen immer alle drei Kanäle vergleichbar stark belichtet sein.
Und genau das ist bei analogen Kunstlichtfilmen z.B. der Fall, bei derzeitigen Sensoren mit Tageslichtabstimmung aber prinzipiell nicht.
aber genau das sage ich doch - will man die bestmögliche Qualität sollte man korrekt belichten und filtern.
elektronischer weißabgleich und signalverstärkung in der post sind krücken - auch wenn Spielraum hierfür vorhanden ist.
übrigens ist es doch bei Kameras bei denen die Signalverarbeitung zu größerem Teil in der Kamera stattfindet, nicht anders.
Antwort von domain:
Nach nochmaligem Durchlesen, ja stimmt, du hast es gesagt:
"
Elektronischer Weißabgleich und ISO-Einstellung sind letztlich überflüssig. Wenn das Bild ohne diese beiden Einstellungen nicht stimmt, habe ich falsch belichtet und falsch gefiltert."
Entschuldige, habe ich zunächst nicht so richtig mitbekommen.
Antwort von iasi:
ein filter kostet in erster linie licht, hast du genug ist das ok, bei weniger, und diese situation haben wir idr bei kunstlicht, wenn man nicht gerade ein aggregat auf der strasse parken hat, kannst du den lichtverlust des filters nur durch gain/iso kompensieren und dadurch gewinnst du mit sicherheit keine dynamik, im gegenteil du handelst dir mehr rauschen ein.
ausgehend von gleichbleibender blende, da die gesamte bildgestaltung diesselbe sein soll.
lg
srone
da gebe ich dir recht - daher ist der Red MX bei einer Low-Light/Kunstlicht-Situation auch weniger gut.
Wenn ich den Lichtverlust des Filter nicht durch mehr Licht und/oder Belichtungszeit/Blende ausgleichen kann, ist er kontraproduktiv.
ich hatte eine Aufnahmesituation vorgefunden, bei der ich keinen Spielraum mehr hatte und nahm dann lieber das wenige an Rot, statt dieses dann auch noch mit einem Filter ins Schwarz bzw. Rauschen zu drücken - glücklich war ich damit nicht - und letztlich musste ich auch ein rötliches Endresultat in Kauf nehmen.
Die von Red angeratene ISO800-Einstellung zum Schutz der Lichter gilt nur für Tageslicht - wie der Test zeigt, sind ISO800 bei Kunstlicht schon grenzwertig.
Antwort von WoWu:
@iasi
Du hast leider nicht Recht.
In dem Augenblick, in dem ich durch ein Glasfilter Photonen vom Sensor abhalte, egal in welcher Wellenlänge, musst Du, um den identiscen Ausgangspegel zu erhalten, dies mit Verstärkung aufholen (es sei denn, Du belichtest einen längeren Zeitraum- was ja hier nicht der Fall ist-)
Mit der Farbgebung der Mosaikfilter wird die Quanteneffizienz soweit ausgeglichen, dass ein Weissabgleich für die bekannten Lichtsorten möglich ist.
Nur so erhältst Du einen guten Kompromiss zwischen einer gleichmässigen Quanteneffizienz über den gesamten Bereich und einer maximalen Empfindlichkeit.
Ausserdem verstärkst Du beim Weissabgleich nichts.
Du gewichtest die Pixel hinter den Farbmasken im De-Bayering nur anders.
Wenn das Bayerfilter allerdings schlecht berechnet ist, (oder eine schlechte Gewichtung im De-Bayering stattfindet) dann kommst Du um so ein Extrafilter nicht herum .... mit den Folgen, weniger Photonen auf dem Sensor zu haben .... und damit höher verstärken zu müssen.
Ergo: weniger Dynamik durch stärkeres Rauschen.
Wenn das so wäre, wie Du meinst, müsste man nur genügend Filter aufschrauben, um mehr Dynamik zu erhalten .... kann nicht sein, oder ?
Und Du sagst ja selbst, Du verlierst 1,5-2 Blenden .... ja was ist das denn?
Du musst sie an Verstärkung aufholen ... und damit ziehst Du dein Rauschen mit hoch ... und wie nennt man das ?
Verringerung der Dynamik.
Antwort von domain:
Mit der Farbgebung der Mosaikfilter wird die Quanteneffizienz soweit ausgeglichen, dass ein Weissabgleich für die bekannten Lichtsorten möglich ist.
Das könnte sogar der Wahrheit entsprechen. Zwar wird lt. Recherchen speziell die Norm der RED-Sensoren generell mit 5000 Grad Kelvin angegeben und darüber hinaus auch fast aller anderen Sensoren mit Ausnahme der F65 mit 3200 Grad Kelvin.
Aber an 5000 Grad glaube ich nicht mehr so wirklich, weil auch CMOS-Sensoren mehr noch als CCD-Sensoren eine generelle Blauschwäche haben
zum Bild
und das spricht doch eher dafür, dass sie im Grunde mehr für warmes Kunstlicht geeignet erscheinen und Tageslicht genauso "hingebogen" wird wie Kunstlicht.
Also im Grunde dürften die meisten Sensoren für Mischlicht sensibilisiert sein.
Antwort von iasi:
@iasi
Du hast leider nicht Recht.
In dem Augenblick, in dem ich durch ein Glasfilter Photonen vom Sensor abhalte, egal in welcher Wellenlänge, musst Du, um den identiscen Ausgangspegel zu erhalten, dies mit Verstärkung aufholen (es sei denn, Du belichtest einen längeren Zeitraum- was ja hier nicht der Fall ist-)
Mit der Farbgebung der Mosaikfilter wird die Quanteneffizienz soweit ausgeglichen, dass ein Weissabgleich für die bekannten Lichtsorten möglich ist.
Nur so erhältst Du einen guten Kompromiss zwischen einer gleichmässigen Quanteneffizienz über den gesamten Bereich und einer maximalen Empfindlichkeit.
Ausserdem verstärkst Du beim Weissabgleich nichts.
Du gewichtest die Pixel hinter den Farbmasken im De-Bayering nur anders.
Wenn das Bayerfilter allerdings schlecht berechnet ist, (oder eine schlechte Gewichtung im De-Bayering stattfindet) dann kommst Du um so ein Extrafilter nicht herum .... mit den Folgen, weniger Photonen auf dem Sensor zu haben .... und damit höher verstärken zu müssen.
Ergo: weniger Dynamik durch stärkeres Rauschen.
Wenn das so wäre, wie Du meinst, müsste man nur genügend Filter aufschrauben, um mehr Dynamik zu erhalten .... kann nicht sein, oder ?
Und Du sagst ja selbst, Du verlierst 1,5-2 Blenden .... ja was ist das denn?
Du musst sie an Verstärkung aufholen ... und damit ziehst Du dein Rauschen mit hoch ... und wie nennt man das ?
Verringerung der Dynamik.
Die Filter erhöhen den DR des Sensors nicht, sie helfen nur, ihn optimal auszunutzen.
Du blendest eine Sache aus: Die 1,5-2 Blenden, die ich durch den Filter verliere, muss ich natürlich sinnvollerweise durch ein Aufblenden, längere Belichtungszeit oder aber durch mehr Licht ausgleichen - ansonsten wäre der Filter kontraproduktiv
Natürlich schraube ich den Filter nicht drauf und drehe dann am ISO-Regler.
Es gibt einen sehr interessanten Test zum MX in Film&TV-Kameramann und auch eine ausführliche Erläuterung von Red zu dem Thema - sehr praxisnah ...
Eine Kamera, die auf 5000 Kelvin abgeglichen ist, kann logischerweise bei 3000 Kelvin nicht die optimalen Ergebnisse liefern.
Zudem hat Weißabgleich in der Kamera keine Auswirkungen auf RAW - wenn ich auf einer weißen Fläche eine Histogrammanzeige habe, bei der R gegen rechts und B gegen links tendiert, dann überdecken B und R einen Bereich von links bis rechts, mit Filter und Belichtskorrektur liegen R und B übereinander und decken einen geringeren Bereich ab.
Oder anders gesagt: Ohne Filter bin ich was den DR betrifft am Limit, während ich mit Filter noch Spielraum habe.
Ohne Filter droht dann R zu clippen oder B in den Rauschbereich zu kommen.
Antwort von Tiefflieger:
Ich frage mich folgendes.
- Objektive sind vergütet und lassen ggf. IR sowie UV Licht nur gedämpft durch (ev. IR-Filter+Antialiasing-Filter vor dem Sensor).
Digital Film.
- Viele schwören auf Ihre Objektive aus "Filmzeiten"
- Aktuelle Objektive sind auf digitale Sensor-Abbildungsleistung und/oder den Kamerasensor optimiert.
Mir scheint da ein gewisse Diskrepanz der Anforderungen und Wahrnehmung (kummulative Filter = mehr Dämpfung und nicht linear).
Gruss Tiefflieger
Antwort von WoWu:
Oder anders gesagt: Ohne Filter bin ich was den DR betrifft am Limit, während ich mit Filter noch Spielraum habe.
Ohne Filter droht dann R zu clippen oder B in den Rauschbereich zu kommen.
Sorry, aber das stimmt nicht ... du wirst mit dem Filter nur dunkler und musst nachleuchten.
Das Filter ändert nichts an den Werten des Sensors.
Er hat noch genauso viel Shot-Noise wie vorher und FullWell hat sich auch nicht geändert.
Du hast lediglich mit dem Filter dafür gesorgt, dass noch weniger Licht als zuvor auf den Sensor auftrifft und musst entweder höher verstärken, mehr Licht setzen oder länger Belichten.
Am Dynamikumfang hat Du aber nichts geändert der liegt nach wie vor da, wo er vorher auch liegt. Wenn nicht sogar die andern Maßnahmen sogar die Sache verringern.
Antwort von domain:
@ Tiefflieger
Mir scheint es da auch auch gewisse Diskrepanzen zwischen deinen Denkprozessen und dem gerade hier behandeltem Thema zu geben ;-)
Und deine Wahrnehmung ist sowieso hauptsächlich auf Milliarden Farbnuancen und auf die einzigartige Panaauflösung beschränkt, die sich ohne weiteres auf 8K ohne Qualitätsverlust skalieren lässt.
Antwort von WoWu:
Ich frage mich folgendes.
- Objektive sind vergütet und lassen ggf. IR sowie UV Licht nur gedämpft durch (ev. IR-Filter+Antialiasing-Filter vor dem Sensor).
Digital Film.
- Viele schwören auf Ihre Objektive aus "Filmzeiten"
- Aktuelle Objektive sind auf digitale Sensor-Abbildungsleistung und/oder den Kamerasensor optimiert.
Mir scheint da ein gewisse Diskrepanz der Anforderungen und Wahrnehmung (kummulative Filter = mehr Dämpfung).
Gruss Tiefflieger
Ältere Objektive verschlimmern den Effekt sogar noch.
Die MTF (und damit die Helligkeitswerte) fallen sehr schnell ab. Damit trifft weniger Licht auf den Sensor und im kritischen Bereich mit wenig Quanteneffizienz können die nutzbaren Photonen sehr rasch im bereich des Shot Noise liegen ...
Effekt ist klar.... Du kannst zwischen Nutzsignal (im Blaubereich) und Noise nicht mehr unterscheiden.
Kameras mit schlechter Quanteneffizienz (bei Blau) brauchen gute Objektive.
Antwort von iasi:
Oder anders gesagt: Ohne Filter bin ich was den DR betrifft am Limit, während ich mit Filter noch Spielraum habe.
Ohne Filter droht dann R zu clippen oder B in den Rauschbereich zu kommen.
Sorry, aber das stimmt nicht ... du wirst mit dem Filter nur dunkler und musst nachleuchten.
Das Filter ändert nichts an den Werten des Sensors.
Er hat noch genauso viel Shot-Noise wie vorher und FullWell hat sich auch nicht geändert.
Du hast lediglich mit dem Filter dafür gesorgt, dass noch weniger Licht als zuvor auf den Sensor auftrifft und musst entweder höher verstärken, mehr Licht setzen oder länger Belichten.
Am Dynamikumfang hat Du aber nichts geändert.
Ich sorge mit dem Filter dafür, dass die R-Sensoren weniger Licht abbekommen - dadurch kann ich das Objektiv aufblenden, einen ND-Filter entnehmen, die Belichtung verlängern oder stärker ausleuchten, ohne dass R clippt. So kann ich B aus dem Keller holen.
Nur mit Filter kann ich den vollen DR des 5000Kelvin-Sensors bei Kunstlicht nutzen.
Und:
Was ich eben genau nicht will, ist "verstärken".
Nichts anderes machst du nämlich, wenn du B in der Post hochziehen musst, damit du ohne Filterung natürliche Farben erhältst.
So schaut das aus.
Antwort von WoWu:
Du verfärbst nur dein Bild .... die "schiefe" Tönung must Du in der Post sowieso wieder rückgängig machen.
Und die Optimierung der Quanteneffizienz macht bereits das De-Bayer Filter und die Gewichtungs- Algorithmen.
Warum glaubst Du, haben die Hersteller nicht gleich dunklere Rot-Filter eingesetzt, um Photonen vom Sensor fern zu halten ?
Das wäre doch eine tolle und grundeinfach Methode, die Dynamik bei jeder Kamera zu erhöhen, wenn es doch sogar mit einem externen Filter geht ?
Antwort von iasi:
Du verfärbst nur dein Bild .... die "schiefe" Tönung must Du in der Post sowieso wieder rückgängig machen.
Und die Optimierung der Quanteneffizienz macht bereits das De-Bayer Filter und die Gewichtungs- Algorithmen.
Warum glaubst Du, haben die Hersteller nicht gleich dunklere Rot-Filter eingesetzt, um Photonen vom Sensor fern zu halten ?
Das wäre doch eine tolle und grundeinfach Methode, die Dynamik bei jeder Kamera zu erhöhen, wenn es doch sogar mit einem externen Filter geht ?
dir ist aber schon klar, dass es Tageslicht und Kunstlicht gibt - dass Kerzenlicht anders ist als ein wolkenbedeckter Mittagshimmel.
"schiefe Tönung" die ich durch Filter vermeide, muss ich nicht in der Post korregieren.
Und die Hersteller passen die Rot-Filter ihrer Spezifikation an - bei Red ist dies dann eben 5000 Kelvin und bei der F65 sind es 3400 Kelvin.
Aber natürlich macht es ja deiner Meinung nach nichts, wenn die Sensoren hinter den Rot-Filtern weit mehr Photonen abbekommen, als die hinter den Blau-Filtern. Letztlich kann ich nach deiner Theorie dann ja Rotlicht benutzen und bekomme dennoch ein schönes Weiß.
Und bzgl. des DR kann ich es dir nicht einfacher erklären - tut mir leid.
Antwort von TheBubble:
Und die Hersteller passen die Rot-Filter ihrer Spezifikation an - bei Red ist dies dann eben 5000 Kelvin und bei der F65 sind es 3400 Kelvin.
Was soll die Filterfarbe vor dem Sensorelement mit einer Farbtemperatur zu tun haben, die sicherlich den Weißpunkt beschreibt?
Antwort von WoWu:
@iasi
Die Spezifikationen der Sensoren sind aber eben auch den Kameraherstellern bekannt .... und es fragt sich eben, wenn man damit eine schnelle Dynamikerweiterung erreichen könnte, warum nicht alle ... entweder ein generelles Filter einsetzen, oder aber die Farben der Mosaikfilter dazu nutzen.
Antwort ist klar ... weil die Herstellungsmethode, wie sie überall benutzt wird, das Optimum darstellt.
Ich schliesse ja nicht aus, dass in bestimmten Extremsituationen eine Filterung angebracht ist ... machen wir ja selbst, um bei Nachtaufnahmen keine weissen Rücklichter zu haben. Nur filtern wir dann komplementär und nehmen das in der Post entsprechend wieder raus.
Nur, dass sind Extrembedingungen, in denen ein leuchtendes Rücklicht 100 fach heller ist als die Umgebungsbeleuchtung .... und dass bezieht sich dann auch nur auf einen sehr begrenzten Farbbereich.
Aber davon, das in einen gewaltigen Dynamikgewinn umzumünzen, darauf ist hier noch keiner gekommen ... zumal sich Dynamik auch auf das Gesamtspektrum bezieht.
Aber gut, wenn Du Bilder gleich in der Kamera einfärbst und das hinterher noch für alle Szenen stimmt, kann man das machen.
Bei uns ist immer vor dem Grading immer ein einwandfreier Weissabgleich angesagt.
Daher kommen für uns solche Filterungen nur für solche genannten Beispiele in Frage ... da ist dann hinterher wenigstens noch "Weiss" im Bild.
Und was Du über Tageslicht und Kunstlicht sagst .... Weissabgleich bezieht sich immer auf das Licht, das bei der Aufnahme vorliegt.
(Oder vorgelegt wird).
Auch da gilt .... Weiss bleibt Weiss und Gradient geschieht in der Post.
Antwort von glnf:
Warum glaubst Du, haben die Hersteller nicht gleich dunklere Rot-Filter eingesetzt, um Photonen vom Sensor fern zu halten ?
War ja bei Film genau das selbe. Entweder man hat Tageslichtfilm bei Tageslicht und Kunstlichfilm für Kunstlicht eingesetzt oder man hat die Farbe mit Korrekturfilter ensprechende auf den Film angepasst. Weshalb? Um die Abbildungsleistung des Films optimal auszunutzen, nicht um lustige Farben zu bekommen. Bei Digitalkameras verhält es sich genau so. Die sind auf eine bestimmte Farbtemperatur optimiert. Filme ich unter anderen Bedingungen lohnt sich die Farbe mit Korrekturfilter anzupassen. Das ist letztlich nichts anderes als ein optischer Weissabgleich.
Antwort von WoWu:
Eben nicht.
Der Weissabgleich einer Kamera wird in der Gewichtung der Luma Daten der einzelnen Fotozellen im Verhältnis zur Quanteneffizienz vorgenommen und ist vom Hersteller optimiert, weil alle Einzelwerte bekannt sind.
Und bei RAW findet das sowieso nicht in der Kamera statt.
Alles, was Du mit Filtern machst hat nichts mit Weissabgleich sondern mit Grading zu tun.
Beim Film musste man das bereits in der Kamera machen, weil eine nachträgliche Einfärbung mit sehr viel Aufwand verbunden war.
Den "Weissabgleich" beim Film, hat die Emulsion quasi schon mitbekommen.
Und nur der, der die falsche Emulsion für die Aufnahme benutzen musste, kam ein Konversionsfilter in Frage.
Antwort von domain:
Ich denke WoWu, dass du das diesmal nicht richtig liegst.
Der maximale Dynamikumfang kann nur in dem Farbbereich erzielt werden, auf den der Sensor abgestimmt wurde.
Und du wirst doch nicht abstreiten wollen, dass hier neben der Grundempfindlichkeit von Silizium und den nachgeschalteten Mikrolinsenfarbfiltern und dem nachgeschalteten allgemeinen blaugrün Filter (inkl. IR) eine ganz bestimmte Farbtemperatur mit einem quasi Normalverteilungsgipfel angepeilt wurde. Jede Abweichung von der angepeilten Normal-Farbtemperatur muss zwangsläufig zu Problemen führen, auch wenn es da eine gewisse Bandbreite gibt.
Am besten erkennt man Sachverhalte, wenn man sich Extremsituationen vorstellt. Angenommen es wird eine Aufnahme mit nur rotem und gelbem monochromatischem Laserlicht in einer Disco gemacht. Natürlich wird auch der Blausensor wegen der sich überschneidenden Nebenabsorption der Filter noch ein wenig an Lichtquanten mitbekommen..
So und jetzt versuch mal einen Weißabgleich zu machen. Weder im vorhinein noch in der Post wird er funktionieren, weil einfach nichts im Blaukanal vorhanden ist.
Das heißt aber allgemein gesagt, dass ein Weißabgleich umso weniger funktioniert, je weniger die Farbkanäle in ihrer Belichtung so halbwegs übereinstimmen.
Nun behauptest du, dass die Filter so abgestimmt sind, dass das immer möglich sei, weil blöd wären die Hersteller wenn sie es nicht so machen würden.
Das stimmt m.E. einfach nicht. Es ist reine Physik, dass es nicht stimmen kann und gerade du müsstest das als erster einsehen.
Antwort von Tiefflieger:
Das ist wie Filmen bei Feuerwerk, einfach mit Tageslichteinstellung ;-)
Antwort von glnf:
Beim Film musste man das bereits in der Kamera machen, weil eine nachträgliche Einfärbung mit sehr viel Aufwand verbunden war.
Beim klassischen optischen Printen von Farbfilm wurde immer auch ein Grading vorgenommen.
Antwort von WoWu:
@ domain
Falsch.
Einem Sensor sind die Farben ziemlich egal.
Er kennt gar keine Farbe.
Am unteren Ende erzeugt er ein paar Elektronen (mal vereinfacht ausgedrückt), die man Rauschen nennt.
Am oberen Ende hat er nur ein bestimmtes Fassungsvermögen und macht mit überschüssigen Photonen ziemlich komisches Zeug.
Das nennt man FullWell.
Jetzt kannst Du noch so viele Disco-laser anschmeissen, wie Du willst.
Du gewinnst kein Stück Dynamik, egal welches Filter Du davor setzt.
Und darum geht es hier ja.
Und bei RAW sowieso nicht, weil Du nur die Lumawerte heraus bekommst, die die Frequenzdurchlässigkeit der Filterscheiben zulässt .... aber auch nur in dem Bereich von SNR-FW.
Und diese Werte, ebenso wie die Überlappung gehen in das De-Bayering ein und ergeben, gemeinsam mit den gewählten Algorithmen und den Werten der Parameter überhaupt so etwas wie WEISS.
Aber noch lange keine höhere Dynamik.
Antwort von domain:
Wenn der Blaukanal im Extremfall fehlt kann es zu gar keiner Dynamik kommen, weil es dann auch kein Weiß gibt :-)
Antwort von WoWu:
Wieder falsch ... Wenn Du die Objektivkappe drauf hast, hat die kamera immernoch denselben Dynamikumfang .... Du hast nur vergessen, zu beleuchten.
Das ist der Kamera aber egal.
Das ist ja mein Reden.
Du musst zwischen Bild gestalten und den Einfluss auch die Geräteparameter unterscheiden und man darf nicht alles zusammenwürfeln.
Wenn Du Licht an irgend einer Stelle, z.B. durch ein Filter halbierst, um es an einer andern Stelle zu verdoppeln, hast Du eine Einfärbung vorgenommen, aber keine Dynamikerweiterung.
Antwort von iasi:
@iasi
Die Spezifikationen der Sensoren sind aber eben auch den Kameraherstellern bekannt .... und es fragt sich eben, wenn man damit eine schnelle Dynamikerweiterung erreichen könnte, warum nicht alle ...
Versteh doch endlich mal: Es geht nicht um "Dynamikerweiterung" - davon redest nur du dauernd.
Genauso, wie du beständig an der "Verstärkung" hängst, wenn es um den Ausgleich der 2 Blenden des Filters geht.
Den maximalen DR hat eine Kamera bei den "nativen" Werten auf die sie abgestimmt ist. Und das ist bei der Red z.B. ISO320 und 5000 kelvin.
Wenn ich davon abweiche, verringert sich der DR.
Fällt Kerzenlicht auf ein weißes Papier, dann wird es rot, denn der Rotanteil des Lichtes ist höher.
Während die R-Sensoren also ordentlich Licht abbekommen, ist bei den B-Sensoren nicht viel los. Und nun stell mal ein dunkelblaues Püppchen vor das Papier. Wie bekommst du da noch Zeichnung rein?
Aufblenden z.B.
Und nun noch ein hellrotes Bällchen.
Wo du bei Tageslicht keine Probleme hast, ist bei Kerzenlicht die Sache schon ganz anders: Da brennt dir nämlich das Hellrot aus, wenn du versuchst ins Dunkelblau noch Zeichnung zu bekommen.
Der Filter verhindert, dass das Hellrot clippt, während du das Dunkelblau durch Aufblenden aus dem Schwarz hebst.
Schlicht und einfach: Liegen R und B im Histogramm auseinander, decken sie gemeinsam schon den ganzen DR ab - oder wie im Beispiel gehen schon darüber hinaus. Liegen sie hingegen übereinander ...
Wenn du also meinst, man müsste nicht Filltern, dann gehst du schlicht sehr schnell über den DR des Sensors hinaus - und das hat rein gar nichts mit einer Erhöhung des DR des Sensors zu tun.
Für dich ist dem Sensor scheinbar völlig egal, welches Licht auf das weiße Blatt fällt, das du gerade aufnimmst.
Antwort von iasi:
Wieder falsch ... Wenn Du die Objektivkappe drauf hast, hat die kamera immernoch denselben Dynamikumfang .... Du hast nur vergessen, zu beleuchten.
Das ist der Kamera aber egal.
Das ist ja mein Reden.
Du musst zwischen Bild gestalten und den Einfluss auch die Geräteparameter unterscheiden und man darf nicht alles zusammenwürfeln.
Wenn Du Licht an irgend einer Stelle, z.B. durch ein Filter halbierst, um es an einer andern Stelle zu verdoppeln, hast Du eine Einfärbung vorgenommen, aber keine Dynamikerweiterung.
Wenn du durch einen Filter den Rotanteil verringerst, kannst du den Blauanteil korrekt belichten, ohne dass Rot ausbrennt - die Einfärbung des Lichtes lässt sich so korregieren - und du hast den vollen DR des Sensors zur Verfügung - andernfalls nicht ...
also red nicht dauernd von "Dynamikerweiterung", nur weil du denkst mit einem "einwandfreiem Weissabgleich vor dem Grading" sei es getan - denn "das ist falsch".
Antwort von WoWu:
Versteh doch endlich mal: Es geht nicht um "Dynamikerweiterung" - davon redest nur du dauernd.
Nun bleib aber mal auf dem Teppich ..
Man kann sich das ja auch schön im RGB-Histogramm ansehen:
Bei der Red kann es dann sein, dass R rechts hinausschießt, während B links abrutscht. Der Dynamikbereich des Sensors ist dann schnell ausgeschöpft. Bringe ich mit dem Filter die R- und B-Kurve übereinander, habe ich wieder den vollen DR zur Verfügung.
Und gerade bei Raw kommt es doch ganz praktisch darauf an, alles innerhalb des Histogramms zu belassen - grob gesagt. Also muss ich bei Verwendung des Filters einen Belichtungsausgleich vornehmen. Sonst lasse ich die R-Kurve nur auf das B-Niveau absacken und verschenke DR im oberen Bereich.
Du bist doch der grosse Dynamikerweiterer und nun willst Du davon nix mehr wissen.
Dann schreib demnächst solchen Mist nicht und unterstell mir nichts, das nicht stimmt.
Du scheinst Deine eigenen Postings gar nicht zu lesen und während Du sie schreibst, nicht zu wissen, was Du da für einen Quatsch zusammen schreibst.
Antwort von iasi:
Nun bleib aber mal auf dem Teppich ..
Du bist doch der grosse Dynamikerweiterer und nun willst Du davon nix mehr wissen.
Dann schreib demnächst solchen Mist nicht und unterstell mir nichts, das nicht stimmt.
Du scheinst Deine eigenen Postings gar nicht zu lesen und während Du sie schreibst, nicht zu wissen, was Du da für einen Quatsch zusammen schreibst.
vielleicht liest du mal nach, was andere schreiben und kommst nicht dauernd mit deinem "das ist falsch"
und um es mal klar zu sagen:
"Mist" und "Quatsch" ist ein Vokabular von Leuten, die keine Argumente mehr haben.
Ich für meinen Teil halte mich zudem an das, was Leute, die eine Kamera entwickelt haben, sagen - und auch an das, was fachlich gute Leute, die eine Kamera besitzen und ausgiebig gestestet haben.
Da brauche ich meine eigenen Erfahrungen gar nicht erst in die Waagschale werfen.
Zeig du mir doch mal, wo ich davon gesprochen haben soll, dass der DR des Sensors durch die Verwendung von Filtern erweitert wird?
Das ist nämlich Blödsinn und eigentlich ärgerlich, wenn du mir so was unterstellst.
Wer dauernd von "Dynamikerweiterung" redet, hat zudem wohl auch gar nicht kapiert, um was es hier geht - vielleicht willst du es auch gar nicht kappieren ...
Antwort von WoWu:
Lesen täte Dir auch gut denn das, was Du da machst, nennt man eigentlich "Umleuchten", nur dass Du ein Filter benutzt und zusätzlich durch den Glasverlust 1-2 Blenden verlierst.
Wenn Du einen roten Scheinwerfer ausschaltest und dafür einen blauen Scheinwerfer einschaltest, hast Du genau denselben Effekt, nur ohne Glasverlust.
Und wenn Du hinterher Dein blau gefärbtes Bild wieder in Ordnung bringen willst, clipped es bei Rot genauso wieder und der Störabstand bei Blau ist auch wieder da, wo er vorher war.
Zelebriere da also nix in die Kamera hinein.
Und es ist ja schön, wenn Du sagst, dass Du Leute kennst, die das mal beschrieben haben ... aber hast Du es auch richtig verstanden ?
Antwort von nic:
Kunstlichtszene:
T 2.8 - (WB: 3000 Kelvin in den Metadaten)
Die Highlights im Rotkanal clippen.
Mein Blaukanal rauscht.
T 2 - mit Konversionsfilter (WB: 5000 K)
Die Highlights im Rotkanal werden alle aufgezeichnet
Mein Blaukanal rauscht weniger
Ich habe nicht umgeleuchtet, der Weißabgleich bleibt identisch, ich habe lediglich etwas aufgeblendet.
Antwort von domain:
Ist doch völlig klar 7nic, dass das Ergebnis so ausfallen würde. Jetzt steht es also mindestens 3:1. Aber wahrscheinlich handelt es sich wieder einmal um ein einziges großes Missverständnis :-)
Die Problematik würde es bei einem modularen Sensorsystem ja gar nicht geben. Ein auf Halogenlicht abgestimmter Sensor würde dann genau einem analogen Kunstlichtfilm entsprechen, der bei 3200 Tungsten ein gleichmäßiges Fullwell in allen drei Farbschichten erreicht.
Noch ein Nachtrag von Tom.Wong
"..most (cameras) are balanced for daylight but don't have to be, but yes generally it's true which is one of the reasons the blue channel tends to suffer on cmos based cameras. the only exception i know of is the f65 which is actually balanced for 3200 tungsten but red shouldn't be singled out at all. it's just that cameras from various com-panies have different ways with dealing with the blue channel better.
and 80d filter usually solves a lot of blue channel issues with any digital camera :)"
Ein Vergleich zwischen RED Epic und der F65.
Im Kommentar steht zwar: „All camera setting and shooting conditions are exactly same.
The footage is not graded. Those are all RAW camera footages.
Keep your eyes on resolution and color reproduction.“
Man erkennt allerdings sofort, dass der Blaukanal der F65 besser anspricht.
Antwort von iasi:
Wenn Du einen roten Scheinwerfer ausschaltest und dafür einen blauen Scheinwerfer einschaltest, hast Du genau denselben Effekt, nur ohne Glasverlust.
Und wenn Du hinterher Dein blau gefärbtes Bild wieder in Ordnung bringen willst, clipped es bei Rot genauso wieder und der Störabstand bei Blau ist auch wieder da, wo er vorher war.
die erste Aussage stimmt in gewisser Weise - wenn ich auf 5000 Kelvin ausleuchte, brauche ich keinen Filter mehr - dazu benutze ich bei Kunstlichtleuchten eben auch Korrekturfolie.
Die zweite Aussage solltest du nochmal überdenken. Wenn ich eine helle Fläche mit einem blauen Scheinwerfer beleuchte, clipped sicherlich nicht R zuerst.
Antwort von iasi:
Kunstlichtszene:
T 2.8 - (WB: 3000 Kelvin in den Metadaten)
Die Highlights im Rotkanal clippen.
Mein Blaukanal rauscht.
T 2 - mit Konversionsfilter (WB: 5000 K)
Die Highlights im Rotkanal werden alle aufgezeichnet
Mein Blaukanal rauscht weniger
Ich habe nicht umgeleuchtet, der Weißabgleich bleibt identisch, ich habe lediglich etwas aufgeblendet.
schön knapp und prägnant
Ich hatte eine Aufnahmesituation, bei der ich dachte: Na eigentlich brauchst du ja gar nicht drehen - aber wenn du eh schon da bist.
Das Ende eines grauen Tages mit tiefhängenden Wolken - das wenige Tageslicht nahm minütlich ab. Colormeter hatte ich nicht dabei, aber es waren sicherlich weit über 5000 Kelvin.
Schneebedecke Landschaft.
Und doch war ich später überascht, was sich aus dem Material herausholen ließ. Insgesamt natürlich blieb eine kühle Stimmung und die Hauttöne waren "winterlich" - aber dennoch ...
low light ist eben nicht gleich low-light
Antwort von WoWu:
Und wo ist jetzt die neue Erkenntnis ?
Ist doch alles schon mal gesagt:
Du hast lediglich mit dem Filter dafür gesorgt, dass noch weniger Licht als zuvor auf den Sensor auftrifft und musst entweder höher verstärken, mehr Licht setzen oder länger Belichten.
Mehr Licht setzen kommt (7nic's) Blendenöffnung gleich, solange genügend Licht vorhanden ist.
Antwort von Tiefflieger:
Ich habe mir noch folgende Gedanken gemacht.
- Wenn eine Quecksilberdampflampe eng begrenztes gelbes Licht emitiert, dann sind z.B. bluejeans schwarz/grau.
Es gibt einen Sensor mit Bayernpattern 4x grün, 2x blau, 2x rot
Dann eine Laserlichtquelle mit drei separaten Strahlen in RGB, die zusammen weiss ergeben.
Der Laser wird als Muster gesplittet und exakt gleich wie das Bayer-Pattern auf den Sensor gelenkt, so wird jeder Sensorpixel im Pattern mit der entsprechenden Farbe beleuchtet (ohne theoretisch die Nachbarpixel zu beeinflussen).
-> So wird mit der Bildverarbeitung wieder eine homgene weisse Fläche gemacht. (wie wenn ich drei deckungsgleiche Laserbeams über den gesamten Sensor gelegt hätte)
Nun ändert das Pattern LaserRot->SensorGrün, LB->SR und LG->SB.
Damit erkennt der Sensor zwar Helligkeitswerte (im Bereich weiss bis schwarz, je nach Laser-Intensität).
So würde nebst Sensorrauschen die Bildverarbeitung schwarz/grau oder weiss zeigen (weiss nicht als Mischfarbe sondern als geclipter Wert).
Was das Bayerpattern Verfahren etwas suspekt macht, ist die niedrige Empfindlichkeit im Blaubereich eines CMOS Sensors. Und die 4 Grünpixel Gewichtung um der Augenempfindlichkeit zur Differenzierung entgegen zu kommen.
Gruss Tiefflieger
@domain, was eine Dreichip Kamera macht ist mir klar ;-)
Die spezielle Variante mit 1/2 Grünpixelversatz in h/v Richtung ebenfalls.
Antwort von WoWu:
@Tiefflieger
Die Problematic (und das müsste auch in 7nic's Test sichtbar sein) ist die, dass Töne, wie beispielsweise Violett aus zwei sehr unterschiedlichen Wellenlängen bestehen.
Ein Weissabgleich hat ja nicht nur die Aufgabe, WEISS herzustellen, sondern er sorgt für eine allgemeine Ballance der einzelnen Farben (in sich).
Verschiebt man solche Abstimmungen, die durch die interne Filterstärke, Farbe und Gewichtung stattfindet durch ein externes Licht/Filter, dann wird beispielsweise der Rotanteil des Violett nicht genügend berücksichtigt.
Du erhältst also ein blaues Violett durch den Eingriff, obwohl dein Weiss wieder "normal" aussieht.
Nun kann man die Diskussion an jedem beliebigen Punkt abbrechen, indem man sagt, das sei künstlerisch so gewollt ... Dann bitte.
Wir machen solche Filterungen auch nicht zum ersten Mal, aber eben nur, wenn kein Licht zusätzlich zu setzen ist und keine Blende mehr zu öffnen, nämlich um Autorücklichter und Leuchtschilder in Nachtaufnahmen nicht weiss werden zu lassen.
Dabei haben wir all dies Effekt durchlaufen müssen, die zwar den gewünschten Nutzen brachte, aber eben auch alle nicht gewollten Nebeneffekte.
Greift man also mit "schrägem" Licht in den Verarbeitungsprozess ein, reicht es nicht, auf den Rauscheffekt zu stieren.
Man muss auch alle andern Effekte sehen (können).
Aber wenn "künstlerisch wertvoll" gewollt ist, wird man mit den Nachteilen leben. -Ist bei uns ja nicht anders. Die Rücklichter der Autos sind wieder Rot und die Nachteile fallen (hoffentlich) nicht auf. Sie sind aber alle sichtbar.
Antwort von Tiefflieger:
- Ich habe mir zu 3-Chip auch überlegt, wenn die Prismastrahlenteilung als ND-Filter unabhängig für drei Sensoren gesteuert würde (elektrisch gesteuerte Lichtdurchlässigkeit, Problem Dämpfung und maximale Lichtdurchlässigkeit).
- Oder minimal pro Sensor die Belichtungszeit ändert (Deckungsleiche Zeichnung Problem)
Bei Single Sensoren können Zwischenwerte ausgelesen werden vor dem Sensor-Reset. So könnte eine Art HDR und zwischen Farb-Gewichtung berechnet werden (auch da, Deckungsgleiche Bilder Problem).
Voraussetzung bei Zwischenwerten ist global shutter (gleichzeitiges auslesen aller Pixel).
Der Hersteller Rambus kann jeden Pixel separat auslesen um den Helligkeitsverlauf im Bild anzupassen.
https://www.slashcam.de/news/single/Ram ... 10477.html
Gruss Tiefflieger
Antwort von WoWu:
Und worauf baust Du dann für die Berechnungen eine Referenz auf ?
Antwort von Tiefflieger:
Die Grenzen der Sensorempfindlicheit sind gegeben zwischen Rauschgrenze und Clippen.
Wenn der Weissabgleich bekannt ist, können mathematisch die Bilder (Zwischenwerte) normalisiert (Referenz) und extrapoliert werden (Pixelhelligkeit mit Bayerpattern Gewichtung).
So kann zwischen Ist- und Sollwerten (Zwischenwerte, Tangente) jeder Farbkanal mathematisch (Bildverarbeitung) berechnet werden (weiss wäre die Referenz).
Solche Datenmengen lassen sich nicht mehr als pseudo RAW speichern (Tangente Sensorsättigung, Belichtungsszeit vor Reset).
Dies müsste zur Aufnahmezeit (Echtzeit) als Vorverarbeitung zur RAW-Ausgabe gespeichert werden.
So wäre zur Aufnahmezeit für Extremfälle die Bildverarbeitungskennlinie variabel.
Gruss Tiefflieger
Auf dem Sensor im Randbereich sind immer Pixel, als Referenz Dunkelpixel definiert.
Um Ladung in Pixel zu speichern gibt es ein nicht lineares dt in Abhängigkeit der Lichtmenge und Sensor-Temperatur.
Alle diese Werte können erfasst oder kalibriert werden. <- Referenzen
Antwort von WoWu:
Mit ähnlichen Methoden sind schon Chiphersteller (quasi) gescheitert. Ihre "HDR" Methoden sind zwar gut, aber viele sowas von proprietär, dass gänzlich neue Workflows her müssten.
Sowas ist am Markt nicht wirklich durchsetzbar.
Kommt noch hinzu, dass bei zeitlichen Referenzen auch noch andere Verfahren und Standard Techniken, wie z.B. die Flickervermeidung, funktionieren müssen.
Solche Kamerasystemen bestehen ja nicht nur aus einer Funktion.
Und schon hier an dem laufenden Beispiel sieht man, dass viele zwar die Vorteile, nicht aber die Nachteile sehen. Denn wenn es so einfach wäre, mit einem kleinen Blaufilter die tollen Ergebnisse zu erzielen, hätten es ganz sicher schon alle Kameras.
Antwort von iasi:
um mal wieder zur Praxisnähe zurück zu kommen:
Wer kennt denn eigentlich Aufnahmen bei denen eine Alexa bei Low-Light eingesetzt wurde?
Ich frage mich das vor allem, da bei Produktionen, die eine Alexa einsetzten können, doch auch genügend Geld für Licht vorhanden ist.
Antwort von Valentino:
Hatte vor drei Jahren eine der ersten Alexa Produktion mit der SUP2.0 Firmware und sehr viel Nachtaufnahmen.
Es war genug Licht vorhanden, das aber meisten im LKW blieb und die Beleuchter waren eher damit beschäftigt die Scheinwerfer durch ND-Folien,
Dimmern und Fahnen zu minimieren.
Teilweise mussten sogar Praktikals wie Straßenlampen gedimmt werden.
Gedreht haben wir Nachts mit 1000ASA also einer leichter Signalverstärkung, die gerade bei der Alexa zu einem sehr angenehmen Rauschen führt.
Der DOP wollte eigentlich auch auf Kunstlicht Filtern, aber nach Rücksprache mit Arri habe die uns davon abgeraten.
Wir haben es trotzdem mal getestet und konnten am Ende keinen so großen Unterschied im Grading feststellen. Es wurde nur in ProRess4444 gedreht und vorher mit einer Graukarte und einem Astro-Monitor per Vektorscope so neutral wie möglich gedreht. Dafür benutzten wir auch die Magenta und Grün Verschiebung der Kamera.
Je nach Hautfarbe der Schauspieler justieren wir den Wert manchmal etwas nach.
Bei bestimmten Filtern legen wir in der Alexa auch bestimmte Presets um z.B. Farbstiche von Hot-Mirror oder ND-IR Filtern zu korrigieren.
Wenn RAW aufgezeichnet wird machen wir das auch und drehen dazu jedes mal eine DSC Farbtafel mit, damit das Grading auch ohne Metadaten ein Referenz hat.
Ach genau die native Farbtemperatur des Alexa Sensors soll anscheinend irgendwo zwischen 4000 und 4800kelvin liegen.
@WoWu
Würde es gerade bei den roten Autolichter nicht mehr Sinn machen, das die Ausstattung etwas Rotfolie oder gar ND Folie auf die Scheinwerfer klebt(mit etwas Zuckerwasser) oder gar schwächere Lampen verbaut werden.
Klar bei kleiner Produktionen geht das nicht so schnell.
Antwort von WoWu:
@ Valentino
Szenisch hätten wir das auch gemacht aber wenn Du in Bogota drehst, hast Du bei den 4.000 Autos pro Minute, die unter Dir durchkacheln, kaum eine Chance :-)
Nee. Spass bei Seite ... Doku ist da mit Problemen behaftet, die man auf der Herstellungs- bzw. Post Seite lösen muss.
Aber, geht ja alles ... nur hat eben jede Methode auch ihre Schattenseite.
Und Arri hat Euch ja auch bestimmt nicht ohne Grund von einer Konversion abgeraten.
Die Zeiten, gegenüber der analogen Filmverarbeitung haben sich schon ziemlich geändert.
Antwort von iasi:
@Valentino
Bei solchen Nachtaufnahmen mit einer relativ unbeeinflussbaren Lichtvorgaben, muss man sich daran orientieren. Wahrscheinlich blieb deshlab de Lichtpark im Laster.
Mit welcher Begründung riet Arri von der Filternutzung ab?
Eine mögliche Antwort hast du ja schon angedeutet: 4000 Kelvin.
Die Alexa hat im Vergleich zur Red (da zeigt auch der Test) bessere LowLight-Fähigkeiten und kommt mit Kunstlicht besser zurecht.
Dazu noch der höhere DR.
Deshalb muss Red ja nun auch mit dem Dragon-Sensor kommen.
Wobei man wohl auch mit einem Red-MX bei dem von dir geschilderten Dreh ein gutes Ergebnis erzielt hätte.