Leider nicht, denn wenn Du mit dem (als Beispiel) beschriebenen 8 Bit Sensor einmal Dein Video gemacht hast, wirst Du im Scaling keinen einzigen Wert zusätzlich mehr bekommen.
Du kannst zwar deine Rechenmatrix vergrößern, nur sind da keine Kamerawerte drin, die der Sensor durch das Objektiv gesehen hat.
Bei Vfx ist das was Anderes, aber hier reden wir ja über Video.
Was die Wandlung betrifft, so muss man sich die anliegenden Werte sehr genau ansehen, weil eine geringere Wandlungstiefe oft zu besseren Ergebnissen führt.
Also: Je mehr Bits im Wandler, umso besser ist ein weit verbreiteter Irrtum.
Nehmen wir mal an, es handelt sich um einen 16 Bit A/D Wandler in einer Kamera.
Daraus resultiert ein 2-Byte Datenwort, das im Bildprocessing bearbeitet wird.
Die Bildintensität (I) erreicht von 2e0-1 bis 2e16-1.
Die Bitnummer des Datenwortes sind immer in drei Kategorien aufgeteilt :
Bits, die nur Shot Noise enthalten,
Bits, die das eigentliche Nutzsignal mit einem Mittelwert enthalten
Leading Bits, die lediglich „0“ enthalten.
Was wir sehen, ist, dass die Zahl der Bits, die die Signalschwankungen wegen des Shot-Noise enthalten, der Zahl von Bits gleichkommt, die den nicht-schwankenden Teil des Signals bezeichnen.
Das erklärt sich aus einer Gleichung, die ich mir hier mal spare.
Daraus folgt, dass ein 16 Bit Wandler in sich selbst noch keine Vorteile birgt. Würden wir dahingegen einen 12 Bit A/D Wandler betrachten, so würden die Quantisierungsschritte um den Faktor 2^(16-12)=16 grösser sein.
Die Auflösung würde somit um den Faktor 16 abnehmen.
Das bedeutet, dass am „less significant Bit- Ende“ des Datenwortes Auflösung verloren gehen würde.
Aber das LSB-Ende des Datenwortes enthält nur noch Shot-Noise.
Reduziert man also das Datenwort von 16 auf 12 Bit, würde Shot-Noise abnehmen, bei gleichzeitiger Beibehaltung der signifikanten, nicht schwankenden Daten.
Ein solches Ergebnis mag überraschen, aber Physik ist nun einmal eine exakte Wissenschaft und es gibt in einem solchen Fall nur eine Möglichkeit, die Auflösung herauf zu setzen:
Durch Erhöhung der Integrationszeit, um den Fotosensor mit ausreichend Photonen zu versorgen und damit den Shot-Noise herab zu setzen.
Genau an dieser Stelle setzt aber eine andere Funktion ein, die ich mir hier aber auch spare, weil das Thema sonst eher unübersichtlich wird.
Edit
es steht also im zuge einer derartigen rechnerischen zusammenfassung im raw processing noch einiges an reserven bzw. höherer präzision der ausgangswerte zur verfügung
Sorry, aber das ist mir zu wenig spezifisch und ich sehe das auch nicht.
Vielleicht magst Du da etwas genauer sagen, was das sein soll und woraus es entsteht denn ich sehe da eher gegenteilige Tendenzen.
Man muss sich in der Physik einwenig von der Mathematik lösen, weil die Mathematik nie die Physikalischen Auswirkungen auf das Bild zeigt aber gerade die sind es, (ausschließlich), die wir als Anwender betrachten und speziell auch die, die im optisch-elektrischen Weg entstehen.