Richtig, analog gehört zum Processing, ich habe hier aber bewußt differenziert da einige Kameras hier kein beeinflussbares Analogprocessing besitzen.
Jeder, in der Videotechnik benutzte Sensor hat einen Analogverstärker.
Nenn mir mal einen einzigen Sensor, bei dem die Kennlinie nicht von aussen vorgegeben bzw. beeinflussbar ist.
Such doch mal Specs von echten Weltklassesensoren der jeweiligen Klasse:
Nikon D500, Nikon D5, Sony a7sII, RED Helium...... Der Pixelpitch allein hilft uns hier nicht sehr weit.
Was hat denn jetzt der Pixelpitch damit zu tun ?
Doch, per Definition "am Ende des Systems" (Kamera).
Stimmt auch nicht.
AGP Filme hatten deutlich unter ISO 100 / 21 DIN Empfindlichkeit, nämlich 9 DIN, das wären ISO 6.
Also auch analog war da keine Grenze.
Wer noch analog gefilmt hat weiss, dass häufig unterhalb von 21 DIN gearbeitet wurde.
17 DIN war nichts ungewöhnliches.
Ausserdem versteht Du offenbar den Punkt nicht.
Es geht hier darum, dass im analogen Bereich bei niedrigen DIN Zahlen, das Grain kleiner geworden ist, im Gegensatz zu digitalem ISO, bei dem das Rauschen im unteren Bereich zunimmt.
Der nutzbare Dynamikumfang kann sehr wohl von der Analogverstärkung/Verzerrung abhängig sein
Ja, er kann kleiner werden, aber niemals grösser, weil heller als FullWell gibt es nicht und unten bestimmt das Rauschen das Ende der Fahnenstange.
Der einzige Weg, da dran zu drehen, besteht in Rauschunterdrückung, dann aber zu Lasten der oberen Frequenzen.
Damit lügt man sich die künstliche Dynamik in die Tasche.
Erst durch Analogverzerrung kommt man unter Verlust von gleichmäßiger/linearen Quantisierung auf mehr Ein-/Ausgangsdynamik.
Beschreib mal genauer, was das sein soll. Für mich ist das zunächst mal eine Aneinanderreihung von irgendwelchen Begriffen, die ohne zusätzliche Erklärung für mich so keinen Sinn ergeben.
Vielleicht hilft da ja etwas Nacharbeit.
Und wenn Du schon dabei bist...
Das kann man sich sehr wohl adaptiv vorstellen, muss es auch sein, sonst hätten wir bereits bei "linearen Kurven" so hässliche Abrisse wie in LOG Profilen. 14bit A/Ds nehme ich "billigen" a6300 und a7s Cams im Videobereich nicht ab, da läuft sicher weniger.
.... das bitte auch gleich mal dechiffrieren.
...wir haben aber keine andere, "bessere" Chance!! Welchen Sinn macht es in "praller Sonne" bei ISO3200 drehen zu müssen, nur um S-LOG verwenden zu können. Im Stillbereich knallt das Ding bei ISO100 den größten Dynamikumfang auf die Karte...
Sagt ja keiner, dass Du das musst. Du kannst die Blende benutzen, oder ein ND oder ein kürzeres Shutter ....
Aber wenn es Dir auf eine bestmögliche Bildqualität (sweet Spot) nicht ankommt, kannst Du natürlich auch Licht mit dem Verstärkungsregler machen.
Hinterher aber nicht meckern , was die Kamera für verrauschte Bilder macht, wie das hier so gern im Forum praktiziert wird.
Man reduziert hier auf eine geringere Quantisierung weil man es a) technisch derzeit nicht (zu dem Preis) schafft, b) man die Abwärme wegen höherer Leistung/Transistoranzahl in kleinen Gehäusen nicht wegkriegt und c) das produktpolitisch unlukrativ ist.
das ist Deine Vermutung aber wenn man sich die Kameraproblematik im Hinblick auf Artefaktbildung mal genauer ansieht, sieht man, dass die Hersteller völlig andere Gründe haben, das Sampling runter zu nehmen, zumal 16 Bit Wandler aufgrund der Masse nicht teurer sind.
Bei ner a7R ergibt im Stillbereich z.B. 14bit sichtbare Vorteile gegenüber 12bit
Welche ?
Das kann im Videobereich aufgrund kontinuierlicher Auslesung -> mehr Wärmeentwicklung natürlich auch klar nach unten gehen. Wie weit wissen wir aber auch nicht, ein einziger Guck in die Glaskugel.
Ach so, also doch nicht.
Die höhere, native "Empfindlichkeit" im Videobereich im Vergleich zum Fotobereich liegt "wahrscheinlich" an der im Videobereich nur möglichen, geringeren Quantisierung des ADCs (s.o.).
Video ist gar nicht gegenüber Film empfindlicher.
Wendet man auf Film nämlich ein ähnliches elektronisches Nachprozessing und Grainunterdrückung an, kommt man zu vergleichbaren Ergebnissen.
der ADC einer a7s schafft im Fotobereich echte 14bit, im Videobereich aufgrund schnellerer, kontinuierliche notwendiger Verarbeitung und Auslesung nur noch ~10bit, somit um den Exponent 4 kleiner.
Nein, die Quantisierungsschritte sind nur um den Faktor 2 (2h (14-10)=16 gröber, wenn tatsächlich nur 10 Bit quantisiert werden.
Ausserdem hängt das sowieso davon ab, was in den oberen und unteren Bits an Signalinhalt transportiert wird. (oben beschrieben)
Es sollen aber trotzdem 14 Blenden am Ende als S-LOG übertragbar sein.
Was hat denn nun wieder die Übertragungsfunktion damit zu tun ?
Du kannst eine beliebige Anzahl an Blenden übertragen, wenn es Dir auf die Abstufungen pro Blende nicht ankommt.
Hier besteht nur eine mittelbare Abhängigkeit und wenn oben und unten sowieso keine verwertbaren Signale existieren, dann fallen da sowieso ein paar Blenden raus.
Das ist das, was ich oben beschrieben habe ... es kommt immer darauf an, was für eine Signalsubstanz ich vom Sensor bekomme und die steht immer (pro Sensor fest.
In den Tiefen werden Werte so schnell kleiner als ein LSB. Diese müssen also logarithmisch stärker skaliert/verstärkt werden als Werte in den Lichtern, um Inkremente bei der AD-Wandlung "in Bewegung" zu bringen.
Klingt ja toll, aber was genau meinst Du damit ?
Wer geht mit dieser Theorie mit, Freiwillige vor ;-)!!
Ich jedenfalls nicht.
Aber nochmal nachgereicht ... die Frage, von was für einer Verzerrung Du immer sprichst ?