Stimmt so nicht - die Bildwerte werden berechnet - anhand der Datenbasis. Je größer die Datenbasis, desto stärker die Annäherung.
Stochastische Berechnungen hast du zudem auch bei Komprimierungen.
Stimmt so nicht - die Bildwerte werden berechnet - anhand der Datenbasis. Je größer die Datenbasis, desto stärker die Annäherung.
Hier ging es gar nicht darum, in welchen Feldern überall Stochastic zur Anwendung kommt sondern um das „Gesetz der großen Zahlen“.
...dünnes Eis da jeder Sensel auf dem Sensor rauscht, in jedem Bereich vom Dark Current bis Full Well es sei denn die Erfassungsdynamik des ADC ist kleiner als die Dynamik der Analogschaltkreise incl. der Dioden, dann gibt es Grenzen beim darkcurrent und fullwell in der Ausgabe.
Und - Rauschverhalten - habe ich zwei verfälschte Werte in einer großen Menge, dann ist das Ergebnis eben nicht automatisch schlechter, als ein verfälschter Wert in einer kleineren Menge. Dies gilt dann auch für andere Störungen wie Abbildungsfehler des Objektivs. Im ganzen Aufnahmeprozess hast du eine Berechnung nach der anderen - das Gesetz der großen Zahl schlägt also mehrmals ein.WoWu hat geschrieben: ↑Fr 30 Mär, 2018 01:30
Hier ging es gar nicht darum, in welchen Feldern überall Stochastic zur Anwendung kommt sondern um das „Gesetz der großen Zahlen“.
„Das Gesetz der großen Zahlen sagt aus, dass sich die relative Häufigkeit eines Zufallsergebnisses auf die theoretische Wahrscheinlichkeit eines Zufallsergebnisses einpendelt, wenn man das Zufallsexperiment nur oft genug wiederholt.
Wichtig ist zu bemerken, dass das Gesetz der großen Zahlen nichts über die absolute Verteilung der Wahrscheinlichkeiten aussagt.“
Es kommt hinzu, dass Du gar keine größere Datenbasis mit kleiner werdender MTF hast, weil sich die einzelnen Werte immer weiter annähern, bzw. in zunehmender Zahl identisch sind.
Damit reduziert sich Deine Datenbasis denn je mehr Pixel denselben Wert annehmen umso weniger aufgelöst wird das Ergebnis sein.
Wenn alle Werte z.B. „Grau“ sind, kannst Du soviel Pixel haben, wie Du willst. Die Bildauflösung hat ihr Minimum erreicht.
Dabei ist noch nicht mal das angesprochene Rauschverhalten kleiner Pixels berücksichtigt, dass die Datenbasis weiter verringert, weil verrauschte Pixels keine Bildinformation beinhalten.
Die Abhängigkeit besteht also nicht in der Menge der Pixels als Merkmal.
Sowas sollte sich aber mittlerweile rumgesprochen haben.
Fakt ist dass das höfich ausgedrückt immer noch "unwahr" ist weil jeder Sensel jeder Digitalkamera immer rauscht und ohne Processing (NR, Dynamik-/Quantisierungsbegrenzung, Hysterese...) auch jeder Pixel in einer (Bewegt-)Bilddarstellung, immer und überall, das ist Fakt!!!
Du redest von "wissenschaftlich" und kommst mit so was?WoWu hat geschrieben: ↑Fr 30 Mär, 2018 16:14 @Iasi
Du versuchst nur mit einem „pseudo“wissenschaftlichen Begriff das zu ersetzen, was in Blogs üblicherweise „je mehr Pixels, umso besser“ heißt.
Bildqualität setzt sich aber aus der Qualität jedes einzelnen Pixels zusammen.
Wenn ein Pixel rauscht, dann hat es nun mal keine Bildinformation mehr. Das ist Fakt. ...
Liegt der Zerstreuungskreis jedoch nicht genau über den vier Senseln des 8K-Sensors, sondern leicht versetzt oder ist er gar nur 1,5 Sensel breit, oder auch 2,5 kommst du mit der größeren Matrix natürlich zum exakteren Ergebnis. Aber Nyquist ist dir ja (besser als mir) bekannt...WoWu hat geschrieben: ↑Fr 30 Mär, 2018 18:09 @Iasi
Mir ist noch nicht so ganz klar, was Du mit solchen Trivialaussagen, dass es Fakt sei, dass Daten in De-mosaicing und in der Kompression mathematisch verarbeitet werden, sagen willst.
Das hat niemand in Frage gestellt.
Du verwechselst aber immernoch die Anzahl der Pixels mit der Menge der Bildinformation.
Von Dir vereinfacht als „Datenmenge“ bezeichnet.
Wenn Du aber eine Bildinformation (z.B. 1 Zerstreuungskreis) über einen Pixel oder über 4Pixels überträgst, hast Du zwar die 4-fache Datenmenge, aber es bleibt eine einzige Bildinformation. Der Übertragungsweg wird nur breiter, langsamer, unhandlicher und bietet sich geradezu für eine Kompression an. Stellt sich nur die Frage nach der Notwendigkeit, weil nicht mehr Bildinhalt enthalten ist.
Und dass in der Summierung aus n-Pixeln nicht automatisch die n-fache Summe an Rauschen entsteht, brauchst Du mir nicht erzählen.
Das Beispiel diente nur der Anschauung.
Nur ist es ja nicht so, dass die Pixels gebinnt werden. Man müsste sich also die genauen Bedingungen des Sensors anschauen, um den genauen Rauschwerte zu ermitteln.
Aber Du hast ja selbst gesagt, dass die kleineren Pixels die Vervierfachung des Lichtes brauchen, (2Blenden) ... das Problem kommt also schon aus Deiner Einlassung und ich habe es nur aufgegriffen.
Und was die 4 Pixels betrifft, so betrachtest Du wieder nicht die Bilddetails.
Verwechsel doch endlich mal nicht mehr diese beiden Dinge.
Du sprichst immer von Bilddetails, wo es zunächst einmal nur um Sensordaten geht.WoWu hat geschrieben: ↑Fr 30 Mär, 2018 18:09 @Iasi
Mir ist noch nicht so ganz klar, was Du mit solchen Trivialaussagen, dass es Fakt sei, dass Daten in De-mosaicing und in der Kompression mathematisch verarbeitet werden, sagen willst.
Das hat niemand in Frage gestellt.
Du verwechselst aber immernoch die Anzahl der Pixels mit der Menge der Bildinformation.
Von Dir vereinfacht als „Datenmenge“ bezeichnet.
Wenn Du aber eine Bildinformation (z.B. 1 Zerstreuungskreis) über einen Pixel oder über 4Pixels überträgst, hast Du zwar die 4-fache Datenmenge, aber es bleibt eine einzige Bildinformation. Der Übertragungsweg wird nur breiter, langsamer, unhandlicher und bietet sich geradezu für eine Kompression an. Stellt sich nur die Frage nach der Notwendigkeit, weil nicht mehr Bildinhalt enthalten ist.
Und dass in der Summierung aus n-Pixeln nicht automatisch die n-fache Summe an Rauschen entsteht, brauchst Du mir nicht erzählen.
Das Beispiel diente nur der Anschauung.
Nur ist es ja nicht so, dass die Pixels gebinnt werden. Man müsste sich also die genauen Bedingungen des Sensors anschauen, um den genauen Rauschwerte zu ermitteln.
Aber Du hast ja selbst gesagt, dass die kleineren Pixels die Vervierfachung des Lichtes brauchen, (2Blenden) ... das Problem kommt also schon aus Deiner Einlassung und ich habe es nur aufgegriffen.
Und was die 4 Pixels betrifft, so betrachtest Du wieder nicht die Bilddetails.
Verwechsel doch endlich mal nicht mehr diese beiden Dinge.
Genau - der Trick ist doch gerade, dass mehr als ein Pixel Informationen für einen Bildpunkt liefert - damit hat man eine größere Datenbasis für die gesamte Prozesskette.WoWu hat geschrieben: ↑Fr 30 Mär, 2018 19:08 Mit welchem Objektiv löst Du die entsprechende MTF auf ?
Es steht doch gar nicht in Frage, dass ein Objektiv, das pro Pixel eine Bildinformation liefert, auch 8K überträgt.
Wenn man mal von den ganzen Unzulänglichkeitenin der Prozesskette absieht, also im idealen optischen Verhalten.
Und Nyquist sagt (vereinfacht) auch nur, dass Du 8K für 4K Bildinformation braucht um das Signal so fehlerfrei zu rekonstruieren, dass es ein erträgliches Bild ergibt.
Bildinhalte? Setzt du große Hoffnungen in KI? :)WoWu hat geschrieben: ↑Fr 30 Mär, 2018 21:01 Nur schade, dass all die schönen SR Algorithmen nicht auf Pixelmengen zurückgreifen, sondern auf Bildinhalte.
Aber seís drum ... wollen wir mal hoffen, dass der neue Sensor bei 5K etwas mehr als die 2.900 Bildpunkte ausgibt, die vorher bei 5K angesagt waren und dass RED dann auch irgendwann vernünftiges UHD hinbekommt oder gar 4K.
Und die echten 4K bekommst Du erst, wenn genügen (große) Pixels vorhanden sind oder 3Chips.
Du meinst so eine Aufnahme wie in Lawrence of Arabia mit der Karawane, die nur der Bedu mit bloßen Auge erkennen kann. :)