dienstag_01 hat geschrieben: ↑Mi 15 Mai, 2024 01:07
Ich hatte ja geschrieben, dass ein Photon die THEORETISCH kleinste Maßeinheit wäre. Kleiner geht es nicht. Das bedeutet, bezogen auf deine 15 Millionen Bälle, dass die Abstufungen bei 14Bit 15 Millionen geteilt durch 16384 Werte rund 915 Bälle groß sind. Jeweils nach 915 Bällen erhöt sich der Wert um 1. Linear. 914 Bälle sind noch 0.
Dann könnte man - bzw. würde iasi - zwar argumentieren, dass es besser wäre, wenn man jeden einzelnen statt nur jeden 915. Ball zählen bzw. erfassen könnte.
Das Problem ist aber, dass bereits die analoge Waage nicht mehr die Messgenauigkeit hat, um einen ggü. 900 Bällen zu differenzieren.
iasis 15 Millionen Bälle würden nicht mehr ein Kilo pro Ball wiegen, sondern wären kleine Kügelchen, die zwar in der Summe immer noch 15kg wiegen, pro Kügelchen aber nur noch 1/1000 bzw. ein Mikrogramm. Weil die Waage in meinem Beispiel aber schon bei einem Kilo eine Messtoleranz von ca. 5% hat bzw. nur (als analoges Gerät mit Schwankungen) auf +/- 50g genau wiegt, kann sie sogar nur 50.000 Kügelchen verlässlich differenzieren. Sie gibt zwar einen analogen Strom in Volt aus, aber alle Schwankungen unterhalb von 0,05 V sind Messungenauigkeiten bedingt durchs Eigenrauschen bzw. die Toleranzen der Elektronik der Waage. Wenn man dann feinere Voltwerte/stufen feinmaschig mit hoher Bittiefe digitalisiert - in unserem Beispiel: alle 0,001V bzw. alle Voltwerte bis hinter die dritte Nachkommastelle -, erhält man nur eine numerisch exaktere Aufzeichnung dieses Rauschens bzw. des Datenmülls, und verschwendet darauf (in diesem Beispiel) 50mal soviel Speicherplatz.
iasi, Deine analoge Sinus-Kurve visualisiert das Problem perfekt: in der Tat, solche ein Kurve kann man unendlich fein bzw. mit idealiter unendlicher Bittiefe und Samplingrate abtasten, um sie nicht zu verpixeln. Da ist dann jedes Bit mehr Bittiefe willkommen und ein Gewinn für die Digitalisierung.
Das Problem ist nur, dass Dir kein real existierender Sensor bzw. kein analoges Messgerät (z.B. auch kein Mikrofon) diese perfekte Kurve liefert, selbst wenn da eine perfekte Kurve (z.B. ein Sinuston) vor dem Sensor (/Mikrofon) aufgenommen wurde.
Durch das Eigenrauschen des Sensors bzw. Messtoleranzen der analogen Elektronik bekommst nie eine glatte Kurve, sondern immer eine leicht verzitterte bzw. verrauschte. Wenn Du die dann feiner abtastest, erfasst Du nur dieses Zittern/Rauschen besser, aber kriegst nicht mehr echte Information. Du betreibst dann sozusagen nur High Fidelity von Datenmüll. Bzw.: ab einer bestimmten Rasterfeinheit lohnt es sich nicht mehr, weiter zu verfeinern, weil gar nicht mehr Qualität/Differenzierung/Zeichnung im analogen Sensorsignal vorhanden ist.
Und diese Qualität des Signals ist messbar, auch bei analoger Aufzeichnung. Man drückt sie als Signal-Rauschabstand aus, in dB (oder äquivalenten F-Stops), und der ist - voilà - identisch mit dem Dynamikumfang des Sensors minus Eigenrauschen. Und daher korrespondiert die sinnvolle Bittiefe der Abtastung auch mit dem vom Sensor erfassten DR.