cantsin hat geschrieben: ↑So 17 Nov, 2019 22:01
Es gibt kein objektives Messkriterium für Dynamikumfang. Wenn z.B. in der untersten Blendenstufe der Schatten noch ein Signal-/Rauschverhältnis von 1:100 messbar ist, kann man diese Blendenstufe je nach Präferenz mitzählen oder nicht. Wenn die Kamera temporales Denoising betreibt und dadurch das Signal-/Rauschverhältnis auf 1:10 verbessert, würde man die Blendenstufe noch eher mitrechnen - aber dann würde eine Kamera mit prozessiertem Bild besser abschneiden als eine RAW-Kamera...
RAW ist ja auch nicht gleichbedeutend mit höherem Dynamikumfang. Es ist mehr oder weniger das Verlagern des "prozessierten Endprodukts" in die Post. Wäre die A7iii eine Raw-Kamera, gäbe es kein Banding in den Höhen und kein Zusammenklumpen von Rauschen in den Tiefen, wäre die Dynamik besser als der so mancher RAW-Kamera. Obwohl ästhetisch nicht anstrebenswert, prozessieren beschissene Handys heute soviel Dynamik in's Bild, dass ernsthaft Shootouts mit REDs und Arris gemacht werden.
Na und? Im Fernsehen wird ja auch alles wiederholt ...
In den Schatten hängt es auch davon ab, wie das Rauschen sich verhält.
In den Lichtern hängt es auch davon ab, wie der Übergang aussieht.
Dazwischen hängt es wiederum auch davon ab, wie farbkonstant die Aufnahmen sind.
Bei log würde ich z.B. immer in den Lichtern und den Schatten etwas abziehen, denn in beiden Bereichen gehen Abstufungen und Details verloren.
Funless hat geschrieben: ↑So 17 Nov, 2019 20:15
Nun ja ... mir persönlich ist noch kein Motiv begegnet bei dem ich mir gewünscht hätte mehr Blendenstufen DR zur Verfügung zu haben als bei meinem Werkzeug vorhanden. Was natürlich nicht bedeutet, dass es solch ein Motiv überhaupt nicht gibt. Dennoch ist für mich äußerst schwer vorstellbar was für ein Motiv das sein soll, was somit wieder die Unterschiedlichkeit der Arbeitsweisen und Ansichten belegt.
Praktisch im privaten Alltag finde ich es immer eine Herausforderung meinen Hund mit schwarz-weißem Fell bei Sonne so zu erwischen, dass in allen Bereichen die Haare noch durchgezeichnet sind. Gerade hier wird durch log z.B. auch schnell eine weiße Soße daraus.
Also ich habe keinen Hund. Auch keine Katze oder ein sonstiges Haustier. Vielleicht liegt's ja daran, dass mir solche Motive, bei denen ich mir exorbitant viel DR wünschen würde, noch nicht begegenet sind.
Die Natur bietet durchaus auch hohe Kontraste. Sie zunächst mal so abzudichten, dass alles erfasst wird ohne dass schon Störungen die Aufnahme verfälschen, erfordert eben auch etwas Spielraum.
Die Zonensystem-Leute zeigen ja sehr anschaulich, wie so ein Motiv aufgeteilt wird.
cantsin hat geschrieben: ↑So 17 Nov, 2019 22:01
Es gibt kein objektives Messkriterium für Dynamikumfang. Wenn z.B. in der untersten Blendenstufe der Schatten noch ein Signal-/Rauschverhältnis von 1:100 messbar ist, kann man diese Blendenstufe je nach Präferenz mitzählen oder nicht. Wenn die Kamera temporales Denoising betreibt und dadurch das Signal-/Rauschverhältnis auf 1:10 verbessert, würde man die Blendenstufe noch eher mitrechnen - aber dann würde eine Kamera mit prozessiertem Bild besser abschneiden als eine RAW-Kamera...
RAW ist ja auch nicht gleichbedeutend mit höherem Dynamikumfang. Es ist mehr oder weniger das Verlagern des "prozessierten Endprodukts" in die Post.
Hatte mich unpräzise ausgedrückt. Was ich meinte: Bei einem RAW-Signal hängt der gemessene Dynamikumfang nicht nur von der Messmethode, sondern auch von der Art der Bild-Prozessierung ab.
Wenn man mit temporal denoising die Schatten bereinigt und mit highlight reconstruction die Spitzlichter ent-clippt, kann man auf dem Papier locker 2-3 Blenden Dynamikumfang gewinnen. (Und wenn man, wie bei Smartphone-Fotografie, noch Deep Learning-basierte Bildverbesserungen einsetzt, gibt es da nach oben theoretisch keine Grenzen mehr, Stichwort computational photography .)
Dynamikumfang von Smartphone&Co. ist eine Art Softwarebasierter Dynamikumfang bzw. Schattenbereich wird hochgedreht und Hellere runter....also Kamerainterne Bildbearbeitung... Dazu kommt noch der interne denoiser und macht alles noch plastischer.
Dual-Gain Architektur ((ist etwas anderes als Dual native ISO)) ist etwas interessantes, da es sich quasi um Hardwareseitigen Dynamikumfang handelt ( Beispiel Fairchild Sensor, Doppel-Analog-Digital-Wandler bzw. 2x 11bit ADC) ...und das Ergebnis sieht mehr nach analog aus.
Stimmt?
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
cantsin hat geschrieben: ↑Mo 18 Nov, 2019 10:26
Wenn man mit temporal denoising die Schatten bereinigt und mit highlight reconstruction die Spitzlichter ent-clippt, kann man auf dem Papier locker 2-3 Blenden Dynamikumfang gewinnen. (Und wenn man, wie bei Smartphone-Fotografie, noch Deep Learning-basierte Bildverbesserungen einsetzt, gibt es da nach oben theoretisch keine Grenzen mehr, Stichwort computational photography .)
ja - aber wer will das wirklich?
Ideal ist eben, wenn die Kamera einen "gesunden" DR bietet, bei dem das Signalrauschen noch weit davon entfernt ist, das Signal signifikant zu beeinflussen, und bei dem kein Farbkanal schon Full-Well erreicht hat.
Das Beispiel mit dem schwarz-weißen Hund:
Kein NR bügelt die schwarzen Haare glatt und kein Highlight-Recovery verunstaltet die weiße Haarpracht.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 10:45
Dynamikumfang von Smartphone&Co. ist eine Art Softwarebasierter Dynamikumfang bzw. Schattenbereich wird hochgedreht und Hellere runter....also Kamerainterne Bildbearbeitung... Dazu kommt noch der interne denoiser und macht alles noch plastischer.
Nein, das ist komplexer. Da werden Serienbilder mit unterschiedlichen Belichtungen - z.T. auch mit verschiedenen Kameramodulen gleichzeitig - aufgenommen und zu einem Bild mit höherer Dynamik zusammengerechnet, wobei Artefakte (z.B. durch Bewegungen der Kamera und im Motiv) algorithmisch rausgerechnet werden, z.T. auch unter Zuhilfenahme von Daten des Smartphone-internen Bewegungssensors. Hinzu kommt temporales Denoising und motivspezifische Bildverbesserungen/Rekonstruktionen auf der Basis von Deep Learning-Datasets.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 10:45
Ich hoffe, ich habe das richtig verstanden:
Dynamikumfang von Smartphone&Co. ist eine Art Softwarebasierter Dynamikumfang bzw. Schattenbereich wird hochgedreht und Hellere runter....also Kamerainterne Bildbearbeitung... Dazu kommt noch der interne denoiser und macht alles noch plastischer.
Dual-Gain Architektur ((ist etwas anderes als Dual native ISO)) ist etwas interessantes, da es sich quasi um Hardwareseitigen Dynamikumfang handelt ( Beispiel Fairchild Sensor, Doppel-Analog-Digital-Wandler bzw. 2x 11bit ADC) ...und das Ergebnis sieht mehr nach analog aus.
Stimmt?
Dual-Gain ändert nichts am Dynamikumfang.
Es verstärkt nur das Signal auf 2 Stufen, wodurch mal 2 native ISO-Werte erhält.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 10:45
Dynamikumfang von Smartphone&Co. ist eine Art Softwarebasierter Dynamikumfang bzw. Schattenbereich wird hochgedreht und Hellere runter....also Kamerainterne Bildbearbeitung... Dazu kommt noch der interne denoiser und macht alles noch plastischer.
Nein, das ist komplexer. Da werden Serienbilder mit unterschiedlichen Belichtungen - z.T. auch mit verschiedenen Kameramodulen gleichzeitig - aufgenommen und zu einem Bild mit höherer Dynamik zusammengerechnet, wobei Artefakte (z.B. durch Bewegungen der Kamera und im Motiv) algorithmisch rausgerechnet werden, z.T. auch unter Zuhilfenahme von Daten des Smartphone-internen Bewegungssensors. Hinzu kommt temporales Denoising und motivspezifische Bildverbesserungen/Rekonstruktionen auf der Basis Deep Learning-Datasets.
iasi hat geschrieben: ↑Mo 18 Nov, 2019 11:12
Dual-Gain ändert nichts am Dynamikumfang.
Es verstärkt nur das Signal auf 2 Stufen, wodurch mal 2 native ISO-Werte erhält.
Siehe von der Arri Seite:
The Dual Gain Architecture simultaneously provides two separate read-out paths from each pixel with different amplification. The first path contains the regular, highly amplified signal. The second path contains a signal with lower amplification to capture the information that is clipped in the first path. Both paths feed into the camera's A/D converters, delivering a 14-bit image for each path. These images are then combined into a single 16-bit high dynamic range image. This method enhances low light performance and prevents the highlights from being clipped, thereby significantly extending the dynamic range of the image.
Das wird öfter mit Dual native ISO verwechselt.
Nein, das ist komplexer. Da werden Serienbilder mit unterschiedlichen Belichtungen - z.T. auch mit verschiedenen Kameramodulen gleichzeitig - aufgenommen und zu einem Bild mit höherer Dynamik zusammengerechnet...
Das meine ich mit Softwareseitige Dynamikumfang...
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Wer sagt eigentlich das jeder Mensch mit seinen Augen den selben Dynamikumfang sehen kann ?
Gerade ältere Leute sehen im Dunkeln nicht so gut.
Nicht das das einen Einfluss auf die Kameras hat, aber vielleicht sehen wir ja die Bilder gar nicht alle genau gleich.
Kann man die menschlichen Augen eigentlich irgendwie Kalibrieren ?
Und ist eigentlich von Software gemachter Dynamikumfang nicht genau genommen CGI ?
Gruss Boris
Alles vor und rund herum um die Kamera ist für einen guten Film viel, viel wichtiger als die Kamera selber.
Darth Schneider hat geschrieben: ↑Mo 18 Nov, 2019 11:29
Und ist eigentlich von Software gemachter Dynamikumfang nicht genau genommen CGI ?
Wie cantsin bereits erwähnt hat, es ist das selbe wenn Du mehrere Bilder übereinander stapelst, und dann Composite Mode (ich glaube) auf Add und Soflight oder andere Modes auswählst (so habe ich das zumindest verstanden). Ich dachte einfach schatten hochziehen, lichter runter.... Das geht auch, nur dass es dann wahrscheinlich mehr Artefakte gibt als mit Serienbilder.
Komischerweise habe ich mal ähnliches mit RAW und ISO versucht bzw. DualISO, indem ich ein und das selbe Bild zwei oder mehrere davon, in der Timeline gepackt habe, eines davon mit ISO 100/200 oder 400 und das andere ISO 1600/3200 usw. und Comp. Mode dann z.B. auf Add....
Unabhängig jetzt von Dynamikumfang, das Ergebnis sieht sehr gut aus, wenn die Szene gut belichtet ist. Es reicht dann aber auch, wenn man im Node Bereich "Layer Mixer" hinzufügt (Tastenkombination ALT+L). Dann "Layer Mixer" mit der rechten Maustaste -> Composite Mode -> "Softlight". Zuletzt noch Node 1 -> Schatten, Highlights...unter Curves etwas anpassen.
Am besten sieht das aus mit M31 LOG LUT.
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 11:34
Wie cantsin bereits erwähnt hat, es ist das selbe wenn Du mehrere Bilder übereinander stapelst, und dann Composite Mode (ich glaube) auf Add und Soflight oder andere Modes auswählst (so habe ich das zumindest verstanden).
Nein, so simpel funktioniert das bei computational photography nicht, weil Du mit der o.g. Methode allerlei Bewegungsartefakte generierst. Außerdem "weiß" der Algorithmus, welche Blendenstufen richtig belichtet sind und fügt das Bild entsprechend zusammen. Vom temporal Denoising mal abgesehen.
Sieh' Dir doch einfach mal den Vortrag von dem britischen Huawei-Forscher an.
Zuletzt geändert von cantsin am Mo 18 Nov, 2019 12:35, insgesamt 1-mal geändert.
iasi hat geschrieben: ↑Mo 18 Nov, 2019 11:12
Dual-Gain ändert nichts am Dynamikumfang.
Es verstärkt nur das Signal auf 2 Stufen, wodurch mal 2 native ISO-Werte erhält.
Siehe von der Arri Seite:
The Dual Gain Architecture simultaneously provides two separate read-out paths from each pixel with different amplification.
Also genau das, was iasi oben schreibt. Dasselbe Sensorsignal wird zweimal auf verschiedenen Stufen verstärkt. Dadurch erhält der Sensor selbst keinen höheren Dynamikumfang.
es steht doch: "...thereby significantly extending the dynamic range of the image" ?
Dann noch was von der Arri Seite:
Although the science behind the sensor is complex, the use of large photosites and a Dual Gain Architecture are its two main principles.
By employing unusually large photosites (in today's world of tiny cell phone sensors and high megapixel counts), ALEXA's sensor exhibits high dynamic range, high sensitivity, and low crosstalk. The larger a photosite is, the more light it can capture and the lower the noise.
So wie ich das verstanden habe, die Kombination: Pixelgröße und Dual Gain, ergibt bessere Dynamikumfang. Was auch nicht wie die Softwareseitige Bearbeitung aussieht, sondern mehr nach analog, da hardwareseitig bzw. eine Sensor Technologie ist.
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Zuletzt geändert von roki100 am Mo 18 Nov, 2019 13:41, insgesamt 1-mal geändert.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 13:31
es steht doch: "...thereby significantly extending the dynamic range of the image" ?
Ja, des gespeicherten Bildes, nicht des Sensors. Das ist eine verbesserte/elegantere Weise, die Sensordaten auszulesen bzw. digital zu quantisieren.
By employing unusually large photosites (in today's world of tiny cell phone sensors and high megapixel counts), ALEXA's sensor exhibits high dynamic range, high sensitivity, and low crosstalk. The larger a photosite is, the more light it can capture and the lower the noise.
Ja, und das ist eben das physische Sensordesign. Deswegen hat die Alexa mit ihrem s35mm-/APS-C-äquivalenten Sensor "nur" 3,4K bzw. 7,5 Megapixel.
cantsin hat geschrieben: ↑Mo 18 Nov, 2019 13:38
Ja, des gespeicherten Bildes, nicht des Sensors. Das ist eine verbesserte/elegantere Weise, die Sensordaten auszulesen bzw. digital zu quantisieren.
Danke dass das mal wer sagt, die Thematik hat aber erst Mal mit 2 unabhängig voneinander anwählenbaren Gain-Readouts nichts zu tun, bzw. sind die Auswirkungen anders und da hat ALEVIII wenig mit dem grad so modernen Dual-ISO-Feature zu tun.
Dual - ISO = Ein Gain-Readout gleichzeitig, je nach Auswahl
Arri / ALEVIII = Zwei Gain-Readouts gleichzeitig, der Dynamikgewinn passiert erst bei der verschiedenen A/D-Wandlung.
Das Wort 'Dual' verwirrt, gemeint sind 2 völlig unterschiedliche Faktoren.
Die Annahme, Dynamic Range wäre nicht von Software abhängig, würde bedeuten, man könnte sie an Hand der Sensordaten einfach ausrechnen.
Messungen wären nicht nötig.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 13:31
es steht doch: "...thereby significantly extending the dynamic range of the image" ?
Ja, des gespeicherten Bildes, nicht des Sensors.
Hmm, irgendwie verstehe ich das nicht Ganz, denn da steht:
The Dual Gain Architecture simultaneously provides two separate read-out paths from each pixel with different amplification. The first path contains the regular, highly amplified signal.
Das Bild, kommt ja so vom Sensor und dann: "Both paths feed into the camera's A/D converters, delivering a 14-bit image for each path"
Also durch AD Wandler werden beide Pfade zusammen gestapelt und dann: These images are then combined into a single 16-bit high dynamic range image.
Also "two separate read-out paths from each pixel" ist für das Endergebnis Vorausgesetzt.
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Zuletzt geändert von roki100 am Mo 18 Nov, 2019 14:14, insgesamt 1-mal geändert.
roki100 hat geschrieben: ↑Mo 18 Nov, 2019 13:50
Hmm, irgendwie verstehe ich das nicht Ganz, denn da steht:
The Dual Gain Architecture simultaneously provides two separate read-out paths from each pixel with different amplification. The first path contains the regular, highly amplified signal.
Das Bild, kommt ja so vom Sensor und dann: "Both paths feed into the camera's A/D converters, delivering a 14-bit image for each path"
Also durch AD Wandler werden beide Pfade zusammen gestapelt und dann: These images are then combined into a single 16-bit high dynamic range image.
Was ist daran schwierig zu verstehen? Das analoge Signal jedes Sensorpixels wird doppelt ausgelesen, mit jeweils verschiedener analoger Signalverstärkung, jedes dieser beiden analogen Signale wird mit 14bit digitalisiert, und anschließend werden die beiden 14bit-Daten zu einem 16bit-Pixel zusammengerechnet. So kann man einerseits das Sensorsignal höher quantisieren (16bit statt der 14bit, die bei den meisten Digitalkameras die Obergrenze sind), andererseits optimiert man durch die zwei verschiedenen Signaverstärkungs- bzw. analogen Gain-Grade das Rauschverhalten und erhält dadurch mehr nutzbaren Dynamikumfang - bzw.: weniger verrauschte Schatten - im gespeicherten Bild.
cantsin hat geschrieben: ↑Mo 18 Nov, 2019 14:13
Was ist daran schwierig zu verstehen? Das analoge Signal jedes Sensorpixels wird doppelt ausgelesen, mit jeweils verschiedener analoger Signalverstärkung, jedes dieser beiden analogen Signale wird mit 14bit digitalisiert, und anschließend werden die beiden 14bit-Daten zu einem 16bit-Pixel zusammengerechnet. So kann man einerseits das Sensorsignal höher quantisieren (16bit statt der 14bit, die bei den meisten Digitalkameras die Obergrenze sind), andererseits optimiert man durch die zwei verschiedenen Signaverstärkungs- bzw. analogen Gain-Grade das Rauschverhalten und erhält dadurch mehr nutzbaren Dynamikumfang - bzw.: weniger verrauschte Schatten - im gespeicherten Bild.
Eben.
Also "two separate read-out paths from each pixel" ist Vorausgesetzt für das Endergebnis bzw. für bessere Dynamikumfang.
Das widerspricht u.a. die Aussage von iasi: Dual-Gain ändert nichts am Dynamikumfang
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Wie steht's denn mit S6 / F6 / F8?
Solange bei Open Gate nicht mal ProRes (oder Z-RAW) unterstützt werden sind das ja Totgeburten. H265/10Bit war ja zu GH5 Zeiten schon das Letzte.
Schade eigentlich, die Kameras an sich hätten sicher Potential. Aber um das gleiche Geld kann man sich bald auch eine Komodo holen. Red wirkt auf einmal preiswert. Dass ich das mal sagen würde...
Partial debayer ZRAW, compression ratio 8:1, 4K@60fps / 6K@30fps max.
VFR 4K up to 90fps on Z CAM E2-F6.
VFR 4K 49~60fps, enhanced FOV on Z CAM E2-F6.
Refined saturation in shadow (Z CAM E2, Z CAM E2-S6, Z CAM E2-F6 & Z CAM E2-F8)
Findet ihr Profis denn eine von den Kameras besser, was die Bildqualität angeht ? Ich wenigstens, sehe keinen relevanten Unterschied. Was die verschiedenen Camera Setups betrifft, sieht ihr die vielen scheinbar nötigen Kabel am ZCam Weinachtsbaum ? Das würde mich so was von nerven..;)
Gruss Boris
Alles vor und rund herum um die Kamera ist für einen guten Film viel, viel wichtiger als die Kamera selber.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.