auf diese weise ist es plötzlich möglich auch mehr solche werte (=blendenstufen) aufzuzeichnen, da sie im gegesatz zu einer linearen darstellung nicht sofort eine verdoppelung des werteumfangs mit sich bringen.
Nein, das ist eben schlichtweg falsch.
Du definierst einfach die Blende um.
Dein Sensor bestimmt die Anzahl der Blenden und damit den Dynamikumfang, völlig egal, wie Du hinterher die Werte verpackst.
Damit liegt die Anzahl der Blenden fest.
An der Stelle bist Du (und bleibst Du) linear.
Wenn Du nun sagst, ich zähle nicht mehr die Verdopplung der Lichtphotonen als Blende sondern die Anzahl der aufgezeichneten Werte ... und als Maßstab der Blende betrachte ich eine Anzahl x von Werten, dann definierst Du die Blende um und damit auch die Response des menschlichen Sehvermögens.
So kann man sich natürlich seine Blenden bauen, indem man einfach sagt, die halbe Lichtmenge (vor der Kamera) wird jetzt wertemässig zu einer Blende und ich teile einfach die gesamte Wertemenge der Übertragung durch die Menge der, "Pseudoblende" in meinem System zur Verfügung gestellten Werte und koppel das einfach von der Lichtblende ab.
Du machst da irgendwelche Marketingblenden raus.
Blenden definieren sich durch Helligkeit und die wiederum durch Photonen, die den Sensor treffen und die letzte Blende vor Weiss hat nun mal die höchste Anzahl Photonen.
In der Übertragung wird der Wertebereich zwar komprimiert, sodass aus dem dunklen Bereich ein höher aufgelöstes Übertragungsfeld entsteht, aber daraus resultiert weder ein einzig zusätzliches Photon, das den Sensor trifft, noch ein einziger zusätzlicher Übertragungswert in der Dynamik.
Die Belichtung von Schwarz nach FullWell sowie das Mapping, egal mit welcher Funktion, aber in vollem Umfang des Übertragungskanals ist die einzige Möglichkeit die maximal zur Verfügung stehende Dynamik zu nutzen.
fullwell intresiert in diesem zusammenhang nicht wirklich
Und ob. Dein Sensor bestimmt nutzbare Lichtmenge, die Dein System verarbeiten kann.
dahinter ist es völlig egal, mit welche Funktion das geschieht, die Werte werden nur anders verteilt, es werden aber nicht mehr sondern bestenfalls weniger.
wie kommst du auf die 10 1/2 Blenden?
Das ist die Breite des
genutzten Übertragungskanals 1024-(128+113) also mit 783 Werten.
panasonic spricht bspw. bei der dvx200, die ja bekanntlich auch auf der lite variante dieser v-log kurve basieren soll, von 12 blendenstufen.
Der Sensor mag das ja bei 12 Bit auflösen.
Relevant ist aber der Übertragungskanal und da sind wir bei 10 Bit- Head und Footroom und einer vorgegebenen Übertragungsfunktion, die über wesentliche Strecken auch noch linear verläuft.
Ich kann natürlich sagen, ich nehme aus jedem Bereich gerade mal soviele Werte, dass das menschliche Auge noch kein Banding wahrnimmt und nenne das dann Blende.
Aber dann sind wir wieder bei der Blende, die mit Licht nichts mehr zu tun hat, der Marketingblende.
Dann bin ich aber in dem Bereich, das Produkt in der Post nicht mehr verarbeiten zu können, weil jede Kontrastverschiebung sofort zum Zusammenlegen von Werten führt und Banding damit sichtbar wird, weil das Auge nicht mehr die erforderliche Auflösung sieht.
Du siehst, da wird reichlich von Marketing mitgemischt.
Maßstab, wohl auch für Dich- ebenso wie für mich-, weil Du sagst, Du seist "visuell" orientiert, dürfte der analoge Teil sein, also das Licht, wie es vom Menschen wahrgenommen wird, also die optische Blende, also die Verdopplung des Lichtes.
Dass ein graulastiges Bild in Dir den Eindruck einer höheren Dynamik auslöst, ist ja ganz unbenommen. Dafür verteilt man ja solche Werte auch.
Entspricht nur eben nicht der Wirklichkeit. Es ist nicht mehr Dynamik.
Wenn Du durch ein Fernglas schaust, bist Du ja auch nicht an einem andern Standort.
Die Physik bleibt erhalten.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.