Dynamic Range of the Sensor
While the dynamic range of the scene is simply explained, we need to introduce a few details before we can define the dynamic range of the sensor.
Response of the Sensor
Light energy is quantized, it occurs as multiples of small “particles”, called photons. During exposure, the photosites in the sensor convert photons to electrons and accumulate the charges. This yields a voltage, which is converted to a digital signal at the end of the exposure. Each photosite has a maximum capacity for the charges. A higher exposure will not yield a higher signal beyond this point. The signal saturates.
The quantum nature of light leads to an effect that is important for imaging. As an illustration, imagine spreading small particles randomly over a checkerboard. One may get, for instance, an average of 10 particles in each field, but by chance some fields will contain some more and others fewer particles. It’s a similar situation when the photons arrive at the sensor. Even in an area of uniform exposure, the number of photons arriving at each photosite will randomly fluctuate to a certain degree. This is called shot noise.
Noise is measured as the standard deviation of the values. The ratio of signal to noise (SNR) is a measure for the quality of the signal. A signal with a mean value of 10,000 and a noise of 100 is better than a signal with a mean of 100 and a noise of 10. Better means that when those signals appear in images, the former will look much less noisy (see also the images in the next section).
The shot noise is an inherent feature of light and can’t be avoided. The only strategy is to collect as many photons as possible, because the SNR will increase with the number of photons. The inverse conclusion is that the visible noise in images will inevitably increase with decreasing exposure.
Another important characteristic is the dark noise of the sensor. Dark noise means that even without any light falling onto the sensor, the digital numbers generated from the signal of the photosites will fluctuate. At a very low exposure the signal of the sensor will be less than the standard deviation (SNR < 1) because the dark noise is always added. When the exposure and therefore the signal increases, it will at some point reach the level of the noise (SNR = 1). This is called the sensitivity threshold.
Der obere Absatz ist wichtig, weil er aufzeigt dass man nicht den Fehler machen darf, einfach die Testchartfelder runterzuzählen weil bei einem SNR Wert < 1 die feineren Bilddetails vom Rauschen vollkommen überdeckt werden. Auch die Verwendung einer anderen Transferkurve um mehr der unteren Patches sichtbar zu machen, verfälscht das Ergebnis - denn der SNR-Wert wird davon nicht verändert. Bilder im PDF auf Seite 8 bis 11.Dynamic Range of the Sensor
The ratio of the saturated signal to the sensitivity threshold is the dynamic range of the sensor. This is not an ARRI invention; it is in accordance with general engineering practice as outlined in ISO 157392 or in EMVA Standard 12883.
Below is a series of images exhibiting decreasing SNR values. The first image (SNR = 40) appears almost free of noise. In the second image (SNR = 10) one can clearly see the noise but one can read all text lines. The remaining three images have SNR values of 2, 1, and ½. With decreasing SNR it becomes harder and eventually impossible to read the smaller text. The images illustrates that a SNR of 1 is a sensible lower bound for the signal.
Measurement Procedure
In theory the procedure to measure the dynamic range is uncomplicated. One captures a series of images starting from black (no light) and increases exposure until the signal is saturated. Details of this procedure are described in the references mentioned above. One can either place the camera in front of an illuminated surface and control its brightness or one can use a test chart like the DSC Labs Xyla chart, which yields a range of exposure spanning 20 stops within one frame. One should not, however, just try to count the barely visible patches in the dark region of the test chart. As shown in the examples above, one can recognize large patterns like the words in the top row even in a signal with an SNR smaller than 1. But one can’t recognize any smaller details.
If one uses the last, barely visible patch as the lower threshold, one will overestimate the dynamic range of the sensor. It is instead necessary to determine the SNR for each exposure. This will yield data similar to the one illustrated in Figure 2. The dynamic range is the ratio of the exposure where the signal saturates to the exposure where the signal has an SNR of 1. There are commercial applications available that perform the necessary image analysis and computations.
Und hier der relevante Punkt zum Encoding:Photographic Dynamic Range
The sensitivity threshold is what engineers regard as the lower bound of the signal. As explained above, the noise will be as high as the signal. For a cinematographer, this high relative noise level may not be acceptable. Other characteristics than the dynamic range of the photosites need also to be considered. For example, the camera should not show line noise in the shadows, nor should shadows exhibit any unwanted coloration.
Some people prefer to use an SNR of 2 as the lower threshold when measuring the dynamic range. That yields a value that is at least 1 stop lower than the one reported for a SNR of 1 as is explained below.
Dazu auch noch ein umfassender Artikel der FDTimes über die ARRI Alexa 35Log C Encoding
The Log C encoding maintains a fixed relation between signal values and the relative exposure in the scene. For example, in LogC4 a signal value of 18% represents an exposure of 2 stops below mid gray (which is at a signal level of 28%). A signal value of 34% represents 1 stop above mid gray. These relations stay constant regardless of the exposure index.
Note: In the ALEXA 35 an encoding limit in LogC4 is reached when the EI is above 3200. The maximum value of the LogC4 function becomes greater than 1, which can’t be encoded in a 12- or 16-bit integer number. This means that no tonal value higher than 11 1/3 stops above mid gray can be encoded. ARRI regarded this limitation as acceptable because the advantage of being able to select a high exposure index outweighs the possible disadvantage of clipping of highlights more than 11 stops above mid gray.
LogC4 Hardware Encoding Curve
The LogC4 Hardware Encoding Curve represents the logarithmic transform applied to linear sensor data in-camera. The most notable change from LogC3 is the constant ”gamma” of the logarithmic curve which does not vary with exposure index, only the linear gain factor ah changes.
The logarithmic encoding used by ALEV4 based cameras for LogC4 was optimized for 12-bit encoding, this allows for greater precision at each stop of sensor signal when compared to the 10-bit LogC3 encoding.
dark noise
arises because of random events on the atomic scale in the light detector
Note: This is the reason why the digitized signal from a sensor doesn’t start with the value zero. In an ARRI camera for example, a zero exposure (no light) is represented by a digital value of 256. This number is somewhat arbitrarily chosen but it provides more than enough range to encode the random fluctuations of the dark noise. Hence, when one examines an ARRIRAW frame recorded without light (lens cap closed), one will get an average value of 256 but the individual pixel values fluctuate around this value. Values below 256 represent negative values. There is a linear relationship between positive (>256) values and exposure. Conceptional difficulties arise when the sensor signal is converted to scene values since there can’t be less than zero light.
How is the new ALEXA 35 sensor different from the original ALEXA sensor that you designed?
The earlier sensor is called ALEV 3. The new one is called ALEV 4. It’s different in several ways. First of all, it’s a “digital” sensor. The ALEV 3 series of sensors in previous ALEXA cameras have all been “analog”— in other words, they have analog outputs that then go to separate A/D (Analog-to-Digital) converter circuits. This is good because it is just the sensor that has to be temperature stabilized, not the A/D converters. In the new sensor, everything is all on one chip, so cooling is a bit more of a challenge, but of course it’s more compact.
It’s also dual gain, like the ALEV 3. That’s important. Dual gain is our enabler for having a very high dynamic range. It’s impossible to transport more than a certain number of stops out of a sensor with just single gain. These two gains have a lot of consequences, not only to the architecture of the sensor’s readout and the calibration. The dual gain sensor requires careful temperature stabilization. That’s important but it’s not different from the ALEXA sensor we had before. We just carried the concept over to this new sensor generation. Dual gain means that two images come out simultaneously from the sensor, one high gain and the other low gain, for each single frame—and then they have to be combined. You can imagine that any single slip of the offset would jeopardize the combination of these two images. That’s an important reason why we cool our sensor actively. You could build a sensor without active cooling, and you would accept a little bit of offset drift and that would be OK for a single image. But if you had drift in multiple images, this scheme would not work anymore.
And then you need to have a special pixel that accommodates a low gain signal and a high gain signal. In the old ALEXA cameras, we had a standard pixel and some tricks around it. Now
it’s all in the pixel. All the tricks are in the pixel and that pixel accommodates both high gain and low gain, in parallel. And that makes it in total a very high dynamic range sensor.
When did you personally start working on the ALEXA 35?
I worked on some preliminary tests back in 2016. We got the first samples of the new sensor, with its incredible dynamic range. There are two images, high-gain and low-gain, coming off the sensor and the A/D (Analog-to-Digital) converter. They are combined into one 18-bit image. If it were not 18-bit data, you could not really quantize the high dynamic range properly. And then we needed to find a way to encode this data, both for ARRIRAW, and also for a new Log function to work with the increased dynamic range of the sensor. The first tests and investigations started around 2016.
In 2018, a colleague made tests to come up with the new color space, ALEXA Wide Gamma 4, and also the new LogC4 curve. Things started to ramp up full-time in 2019.
The two images are taken at the same moment in time?
Yes. It’s not like some other manufacturers who use a sequence of long and short exposures. It’s really the same image from the same sensor converted with two different gains. The high gain image gives you cleaner shadows and the low gain image avoids highlight clipping.
ARRIRAW is the same as before?
Essentially, yes. We do a non-linear recording of the RAW images and 512 digital numbers are allocated per exposure stop. But, because in the new ARRIRAW we have to encode two more stops, we need 1,024 more numbers in our range. That’s why we needed to add one bit to the file format, so ARRIRAW is encoded in the ALEXA 35 in 13-bit, whereas ARRIRAW is encoded in 12-bit in in the ALEXA LF.
So, the quantization per stop is exactly the same. We didn’t want to change it because it has proven to be fine for more than 10 years on many successful productions. We never had complaints where people would said that the quantization of the RAW file wasn’t good enough. So we kept the same encoding per stop other than to add one more bit.
So, 18-bit from the sensor results in 13-bit after processing?
Yes. It’s 18-bit linear coming into the processing, and then either before the color processing, it gets encoded into 13-bit ARRIRAW, or after the LogC4 curve it gets encoded in 12-bit LogC4 for
Apple ProRes. ARRIRAW is also a Log-like exposure, which also allocates a fixed amount of digital numbers for each stop. We always had 512 numbers in each stop. So when you look at neutral gray and then one stop over, you have 512 intermediate steps, and if you add yet another stop, you have another 512 numbers.
Der Sensor misst nicht die Lichtmenge, sondern wandelt die Lichtmenge in elektische Energie um.cantsin hat geschrieben: ↑So 12 Mai, 2024 17:57Gute Referenz, nochmal klarer als die von mir verlinkten DPReview- und Wikipedia-Artikel, und in sehr einfacher Sprache erklärt (und auch für iasi):roki100 hat geschrieben: ↑So 12 Mai, 2024 17:45 CineD (d.h. jemand, der Labortests mit Kameras macht), erklärt all das genau, was "16bit-Linear RAW" bedeutet usw. Lies in aller Ruhe, wenn dich das so interessiert und Du einen sinnvollen Beitrag zum Thema leisten willst: https://www.cined.com/sony-cinema-line- ... r-readout/
DeepL-übersetzt:"If you are not familiar with RAW, then it makes sense to start off with a short explanation.
A digital sensor’s sole purpose is to measure the amount of light it receives. You can think of light as a sea of particles (photons) randomly moving through space. Once these particles reach the pixels on the sensor, their number is recorded for each pixel.
The camera then assigns a digital value proportionally to the amount of light that every single pixel receives. Unlike the human eye, a digital sensor records light in a linear way. This means that doubling in the amount of light (or in other words, increasing exposure by 1 stop) involves doubling in the numerical value assigned in the digital file.
That’s how a RAW file is born. Easy peasy.
Bit-Depth matters
This process implies a linear relationship between the bit-depth of the digital file and the number of stops of dynamic range that the camera can theoretically describe. In fact, both bits and photographic stops represent a doubling or halving of a quantity.
Let’s give an example. A 16-Bit Linear RAW file can describe a maximum of 16 stops of dynamic range. But watch out! That is the maximum dynamic range the camera can describe and NOT the actual dynamic range that the sensor can capture (which is lower than that).
Bits and photographic stops relationship
In fact, the bit-depth of the RAW file is chosen based on the actual, measured dynamic range of the sensor. If a camera sensor can capture 13.2 stops of dynamic range, for example, it doesn’t make sense to use 16 bits: in this particular situation, 14 bits are more than enough!"
Amen....Für Leser, die mit RAW nicht vertraut sind, hier eine kurze Erklärung.
Der einzige Zweck eines digitalen Sensors ist es, die Lichtmenge zu messen, die er empfängt. Man kann sich das Licht als ein Meer von Teilchen (Photonen) vorstellen, die sich zufällig durch den Raum bewegen. Sobald diese Teilchen die Pixel auf dem Sensor erreichen, wird ihre Anzahl für jedes Pixel aufgezeichnet.
Die Kamera ordnet dann einen digitalen Wert zu, der proportional zur Lichtmenge ist, die jedes einzelne Pixel empfängt. Anders als das menschliche Auge nimmt ein digitaler Sensor das Licht linear auf. Das bedeutet, dass eine Verdoppelung der Lichtmenge (oder in anderen Worten, eine Erhöhung der Belichtung um eine Blende) eine Verdoppelung des Zahlenwerts in der digitalen Datei zur Folge hat.
So entsteht eine RAW-Datei. Kinderleicht.
Die Bit-Tiefe ist wichtig
Dieser Prozess impliziert ein lineares Verhältnis zwischen der Bittiefe der digitalen Datei und der Anzahl der Blendenstufen des Dynamikbereichs, den die Kamera theoretisch beschreiben kann. Tatsächlich stellen sowohl Bits als auch fotografische Blenden eine Verdoppelung oder Halbierung einer Größe dar.
Hier ein Beispiel: Eine lineare 16-Bit-RAW-Datei kann maximal 16 Blendenstufen an Dynamikumfang beschreiben. Aber aufgepasst! Das ist der maximale Dynamikbereich, den die Kamera beschreiben kann, und NICHT der tatsächliche Dynamikbereich, den der Sensor erfassen kann (der niedriger ist).
Die Beziehung zwischen Bits und fotografischen Blenden
Tatsächlich wird die Bittiefe der RAW-Datei auf der Grundlage des tatsächlich erfassten Dynamikumfangs des Sensors gewählt. Wenn ein Kamerasensor beispielsweise einen Dynamikumfang von 13,2 Blendenstufen erfassen kann, macht es keinen Sinn, 16 Bits zu verwenden: In dieser speziellen Situation sind 14 Bits mehr als genug!"
[/quote]freezer hat geschrieben: ↑So 12 Mai, 2024 19:51
ARRIRAW is the same as before?
Essentially, yes. We do a non-linear recording of the RAW images and 512 digital numbers are allocated per exposure stop. But, because in the new ARRIRAW we have to encode two more stops, we need 1,024 more numbers in our range. That’s why we needed to add one bit to the file format, so ARRIRAW is encoded in the ALEXA 35 in 13-bit, whereas ARRIRAW is encoded in 12-bit in in the ALEXA LF.
So, the quantization per stop is exactly the same. We didn’t want to change it because it has proven to be fine for more than 10 years on many successful productions. We never had complaints where people would said that the quantization of the RAW file wasn’t good enough. So we kept the same encoding per stop other than to add one more bit.
So, 18-bit from the sensor results in 13-bit after processing?
Yes. It’s 18-bit linear coming into the processing, and then either before the color processing, it gets encoded into 13-bit ARRIRAW, or after the LogC4 curve it gets encoded in 12-bit LogC4 for
Apple ProRes. ARRIRAW is also a Log-like exposure, which also allocates a fixed amount of digital numbers for each stop. We always had 512 numbers in each stop. So when you look at neutral gray and then one stop over, you have 512 intermediate steps, and if you add yet another stop, you have another 512 numbers.
Das ist dasselbe - bei jedem Sensor bzw. jedem elektrischen Messinstrument (ebenso z.B. bei Feuchtigkeitssensoren).
Ja. Stell Dir mal vor. (Du kannst ja gerne mal zu allen Sensor- und Kamerahersteller gehen und denen auseinandersetzen, dass sie es falsch machen....)Diesen wiederum wandelt der AD-Wandler in digitale Werte.
Die Aussage über die Zahl der Blendenstufen und die Anzahl der Stellen der binären Zahl ist Blödsinn.
Ordnen wir jetzt etwa jeder Blendenstufe einer Stelle zu? :)
Ja - und nun frag dich mal, woher die Festlegung auf eine bestimmte Bitzahl kommt.cantsin hat geschrieben: ↑So 12 Mai, 2024 21:20Das ist dasselbe - bei jedem Sensor bzw. jedem elektrischen Messinstrument (ebenso z.B. bei Feuchtigkeitssensoren).
Ja. Stell Dir mal vor. (Du kannst ja gerne mal zu allen Sensor- und Kamerahersteller gehen und denen auseinandersetzen, dass sie es falsch machen....)Diesen wiederum wandelt der AD-Wandler in digitale Werte.
Die Aussage über die Zahl der Blendenstufen und die Anzahl der Stellen der binären Zahl ist Blödsinn.
Ordnen wir jetzt etwa jeder Blendenstufe einer Stelle zu? :)
Weil jede Verdopplung der Lichtmenge:
1.) einer Blendenstufe in der Fotografie entspricht, sowie
2.) der Verdopplung der Voltzahl bei einem Lichtsensor.
Und dann speichert der ADC genau diese Relationen ab.
Also:
- Bei voller Belichtung des Sensors genau bis zum, oder über den, clipping point -> volle (analoge) Voltzahl [sagen: wir 12V] -> volle Bitzahl des ADCs (bei einem 14bit ADC also 14 Einsen bzw. die Zahl 4096).
- Bei halber Belichtung des Sensors -> halbe Voltzahl [6V] -> der ADC gibt 13 Einsen bzw. die Zahl 2048 aus. Wir sind in den Spitzlichtern.
- Bei viertel Belichtung des Sensors -> viertel Voltzahl [3V] -> der ADC gibt 12 Einsen bzw. die Zahl 1024 aus. Wir sind immer noch in den drei höchsten Blenden der Spitzlichter.
- usw., bis runter zu 1/4096 Belichtung -> 1/4096 Voltzahl [0,0029 Volt] -> der ADC gibt 13 Nullen gefolgt von einer Eins bzw. die Zahl 1 aus. Jetzt sind wir im untersten der 14 Stops bzw. in den tiefsten Schatten.
Das bedeutet lineare Auslesung und Speicherung.
Das ist aber unabhängig von der Bitzahl.cantsin hat geschrieben: ↑So 12 Mai, 2024 21:20 Du kannst diese Halbierungsschritte natürlich beliebig nach unten fortsetzen, aber irgendwann hat es keinen Sinn mehr, weil der Rauschanteil am Signal umso stärker wird, je schwächer die ausgegebene Voltzahl des Sensors ist, bis irgendwann in den Schatten nur noch Grundrauschen bzw. Zufallswerte übrig bleiben.
Da macht man nichts, das macht der Sensor. Der Sensor liefert eine Spannung, die der Lichtmenge entspricht. Ab einem Sättigungspunkt, kann er die Signalspannung nicht mehr erhöhen - da clippt der Sensor. Und irgendwann ist die Signalspannung dann zu niedrig und wird vom "Rauschen" überdeckt. Das dazwischen ist dann der DR. Die nutzbare Signalspannung wird dann in Binärzahlen umgewandelt.cantsin hat geschrieben: ↑So 12 Mai, 2024 21:20 Deshalb macht man diese Halbierungsschritte bei einem Sensor mit extrem hoher Dynamik und daher extrem hohem Signal-Rauschabstand (z.B. bei einer Mittelformatkamera) 16mal, bei einem typischen Full Frame-Fotosensor 14mal, bei einem MFT-Sensor 12mal und bei einem Smartphone-Sensor 10mal.
Tja. Also Arri weiß ja schon mal, dass sie die Zahl der Nummer je Blendenstufe frei festlegen können und der DR nicht von der Bitzahl abhängig ist.cantsin hat geschrieben: ↑So 12 Mai, 2024 21:20 Also, ich hoffe, es hat jetzt endlich mal bei Dir gezündet und Du läufst nicht mehr wie Don Quichotte gegen die Windmühlen an. Ansonsten kauf Dir Flugtickets für die Chefetagen von Sony, Canon, RED & Co., damit Du deren Sensor-Entwicklungsabteilungen davon überzeugen kannst, dass sie ihre eigene Technik nicht kapieren.
Die Bitzahl hat nichts mit dem Rauschen zu tun.Darth Schneider hat geschrieben: ↑So 12 Mai, 2024 21:25 @roki
Du schreibst:
„Interessant, das wusste hier wirklich keiner: mehr Licht ist also gut für Sensoren. Danke für die Erleuchtung. ;)
Aber lieber Boris, darum ging es ja nicht... ;)
Meine Antwort darauf:
Mir ging es eigentlich auch nicht darum dich mit dem Tip Licht zu nutzen weil es dem Sensor gut tut zu erleuchten, sondern:
Wenn du genug Licht nutzt, egal mit welcher Kamera, brauchst du dir/dem Forum diese Frage da unten gar nicht erst zu stellen:
„ was mich u.a. interessieren würde, ist, ob die nicht vorhandene Informationen tatsächlich nur nicht vorhanden sind, oder ob diese dann z.B. als Rauschen (d.h. null details im Pixel = bei der Menge, mehr Rauschen im Bild) im Bild sichtbar sind?“
Weil mit genug Licht rauscht nix störend und es gehen sogar mit 8 Bit und ganz ohne Raw gar nicht erst zu viele Bildinformationen verloren, das es zu einem Problem werden könnte..;)
Gruss Boris
Nein. (Langsam wachsen mir hier noch mehr graue Haare.) Weil Du immer noch nicht den Unterschied von linearer und logarithmischer Speicherung verstehst.iasi hat geschrieben: ↑Mo 13 Mai, 2024 00:13 Ja - und nun frag dich mal, woher die Festlegung auf eine bestimmte Bitzahl kommt.
Arri will die 512 Nummern pro Blende.
Es geht ja gerade darum, dass diese Zahl an Abstufungen, die sich aus diesen Nummern ergibt, frei festgelegt werden kann.
Du behauptest man könne mit 12bit nicht 15 Blendenstufen abdecken. Nur widersprichst du dir doch hier selbst.
Nein, weil Du wie gesagt immer noch nicht verstanden hast, was lineare Werte bedeuten. Langsam hat es keinen Sinn mehr, denn ich habe Dir dazu mittlerweile drei verschiedene Quellen verlinkt, die Du entweder nicht gelesen oder nicht verstanden hast.Wenn du 10 Blendenstufen DR hast, bekommst du bei 12bit je Blendenstufe 409 Nummern also Abstufungen.
Arri selbst sagt: DR ist von Bitzahl abhängig, deswegen haben sie bei Alexa35 die Bits für ARRIRAW von 12 auf 13Bit (log, 18Bit-Linear) erhöht.
what? Das sind ja nur zwei Werte, was willst du da verteilen, ob 1 Blende oder 100 Blenden, alles ist gleich.
Arri sagt, dass sie pro Blendenstufen 512 Binärzahlen haben wollen. Diese Zahl hatte Arri gewählt, weil sie diese Zahl der Abstufungen als ausreichend angesehen hatten. 1024 Nummern hätten die Datenmenge erhöht.roki100 hat geschrieben: ↑Mo 13 Mai, 2024 19:43Arri selbst sagt: DR ist von Bitzahl abhängig, deswegen haben sie bei Alexa35 die Bits für ARRIRAW von 12 auf 13Bit (log, 18Bit-Linear) erhöht.
DR ist abhängig von Bitzahl (zwar nicht 1zu1 gleich, aber eben abhängig / begrenzt), das selbe sagt auch CineD, SlashCam u.v.a. und auch cantsin bezieht sich nur auf die selben Informationen (u.a. User freezer).
Arri kennt sich wohl sehr gut aus, nicht umsonst ist DR von Alexa35, Nr.1 !
DualGain Technologie zeigt ja, dass sie mehr Bits benötigen für mehr DR, also 14Bit jeweils für dunkle und hellere Bereiche (2x14Bit = 28Bit zu 18Bit-Linear bzw. 13Bit-Log und das Ergebnis ist: super DR!).
Warum also dem Widersprechen?
We do a non-linear recording of the RAW images and 512 digital numbers are allocated per exposure stop.
We didn’t want to change it because it has proven to be fine for more than 10 years on many successful productions. We never had complaints where people would said that the quantization of the RAW file wasn’t good enough.
Die 512 sind keine Naturkonstante und ergibt sich auch nicht aus dem DR.We always had 512 numbers in each stop. So when you look at neutral gray and then one stop over, you have 512 intermediate steps, and if you add yet another stop, you have another 512 numbers.
Nein, nicht nur (sonst hätten sie ja nicht erhöht), Übersetzt:Den super DR erreicht Arri durch DualGain - nicht durch ein mehr an Bit.
Doch. Dann hast Du genau eine Blende DR. (Ich weiss, Deine Argumentation ist, dass dieser Sensor dann z.B. immer noch einen DR von 12 Stops erfasst, weil er die ersten 6 Stops als 0 codiert und die letzten als 1. Aber da der Umschlagpunkt von 0 auf 1 genau zwischen dem 6. und 7. Stop liegt, hast Du eine Blende erfassten DR mir einer Sensorkalibrierung auf den Helligkeitswert von Stop 6/7; und alles darunter und darüber ist weggeclippt. Du wirst bei real erfassten 12 Stops ja auch nicht argumentieren, dass der Sensor in Wahrheit 20 Stops erfasst, inklusive aller abgeschnittenen Werte unterhalb des 1. und oberhalb des 12. Stops.)iasi hat geschrieben: ↑Mo 13 Mai, 2024 19:23 Der Sensor liefert Signale im Bereich von 0 bis X Volt. Und darauf werden die verfügbaren Binärzahlen verteilt, deren Anzahl sich aus den Bits ergibt.
Im Prinzip könnte man den gesamten Bereich auch auf 1bit verteilen:
Schwarz (0) oder weiß (1). Alles bis X/2 Volt wäre dann schwarz und alles zwischen X/2 und X weiß.
Der DR spielt dabei dann keine Rolle.
Das hat doch nix mit dem Auslesen des Chips zu tun...
Es verdoppelt sich bei einer zusätzlichen Blende die Lichtmenge und die Spannung.
Die Fuji X-H2s hat bis 30fps die Option, in 14-Bit readout betrieben zu werden.
https://www.cined.com/fujifilm-x-h2s-la ... -latitude/the FUJIFILM X-H2S definitely trumps the C70 and even the Sony A1, while the 5 stops underexposed image looks almost as good as with the VENICE 2 in 4K ProRes HQ – and we are talking about a full-size cinema camera here. So, a solid 8 stops with additional wiggle room towards 9 stops – that’s quite impressive, and is actually better than most of the recent full frame consumer cameras. Good job, FUJIFILM! […]
The FUJIFILM X-H2S fares really well for a consumer camera in our lab test, especially when considering that it is an APS-C camera, not full frame. The rolling shutter performance is very good, the dynamic range results are impressive, as is the latitude test. It becomes clear from these results that the 14-bit sensor readout definitely is part of this good performance.
So, you could actually say it is a BMPCC 6K on steroids with a ton of additional features like IBIS and all of the other advantages of a true hybrid camera, including a smaller form factor.
Danke für die extrem nützliche (und präzise) Analogie des Lineals!Mantas hat geschrieben: ↑Di 14 Mai, 2024 08:55 klingt logisch ist aber nicht so.
Du willst einfach allen Datenblättern widersprechen und lieber ein 1 bit ADC einbauen mit 16bit linear Speicherung?
Stelle dir einen 14-Bit-ADC als Lineal vor, das Dinge in winzigen Schritten messen kann. Mit 14 Bits kann dieser ADC 2^14 (das sind 16.384) unterschiedliche Messungen durchführen. Er kann also den Bereich, den er sieht, in 16.384 kleine Schritte unterteilen. Das entspricht ungefähr 84 dB, was 13,95 Blendenstufen (Stops) Licht sind.
Daher werden wir lange keine Hybridkamerad mit mehr als 12 dr haben. Wobei das ein Wert ist, der fast nix alleine aussagt...
(Danke.) Und da mit zunehmender Sensorgröße (sowie verbesserte Photonen-Einfang-Kapazität durch verbesserte Sensortechnik wie z.B. BSI) mehr Photonen auf den Sensor fallen, braucht man äquivalent mehr Bits für die Speicherung, je größer der Sensor ist und je mehr Photonen er einfängt.dienstag_01 hat geschrieben: ↑Di 14 Mai, 2024 11:43 Die klarste Analogie des Sensors ist die der Photonenzählmaschine.
Es trift ein Photon auf den Sensor, es treffen 2 Photonen auf den Sensor, es treffen 3 Photonen auf den Sensor ... usw.
Du stellst dir´s wohl so vor, dass pro Photon ein Bit hinzukommt. :)cantsin hat geschrieben: ↑Di 14 Mai, 2024 12:10(Danke.) Und da mit zunehmender Sensorgröße (sowie verbesserte Photonen-Einfang-Kapazität durch verbesserte Sensortechnik wie z.B. BSI) mehr Photonen auf den Sensor fallen, braucht man äquivalent mehr Bits für die Speicherung, je größer der Sensor ist und je mehr Photonen er einfängt.dienstag_01 hat geschrieben: ↑Di 14 Mai, 2024 11:43 Die klarste Analogie des Sensors ist die der Photonenzählmaschine.
Es trift ein Photon auf den Sensor, es treffen 2 Photonen auf den Sensor, es treffen 3 Photonen auf den Sensor ... usw.
Und blieben umgekehrt bei einer arbiträr bzw. unabhängig von der Photonen-Kapazität erhöhten Bitzahl des ADC, die iasi gerne hätte, die meisten Bits einfach leer.
Stell Dir mal vor, Du wirfst Bälle in einen Korb. Jeder Ball wiegt 1 kg. An dem Korb hängt eine elektrische Waage, die das Gewicht der Bälle misst und als Strom ausgibt. Der Korb hat eine maximale Kapazität von 15 Bällen. Die Waage ist so konstruiert, dass sie maximal 16kg aufnehmen und messen kann (also 15 Bälle + ein bisschen Sicherheitsspielraum) und das gemessene Gewicht als Stromstärke mit maximal 16V ausgibt, bei 15 Bällen also 15V, bzw. 1V pro Ball. An der Waage hängt ein ADC, der die Voltzahlen in digitale Bits umformt.iasi hat geschrieben: ↑Di 14 Mai, 2024 21:56 Die Photonen erzeugen eine elektrische Spannung.
Zwischen der minimalen und der maximalen Spannung liegen unendlich viele Zwischenwerte.
Mit einer begrenzten Anzahl an binären Nummern lassen sich nun einmal nicht alle Zwischenwerte wiedergeben.
Je höher die Bitzahl, desto mehr Zwischenwerte lassen sich jedoch abbilden.
Dem AD-Wandler ist es völlig egal, wie viele Photonen den Sensor treffen.
Und ein Sensor mit einem DR von 10 Blendenstufen erzeugt nicht 0 bis 1 Volt, während einer mit 15 Stops DR dann 0 bis 1,5 Volt erzeugt. Da gibt es keine Gesetzmäßigkeit.
Nein - mir war schon zu Zeiten, als viele hier 8bit-Codecs als ausreichend feierten, bei 12bit als Minimum.