iasi hat geschrieben: ↑Fr 16 Jun, 2023 22:17
Es ist wie mit den 4 Bildpunkten, mit denen du eine bestimmte Anzahl von Formen darstellen kannst. Das sieht mit 16 Bildpunkten schon anders aus, denn die Anzahl erhöht sich.
Aber nur, wenn das Objektiv vor dem Sensor diese 16 Bildpunkte überhaupt auflösen bzw. auf den Sensor projizieren kann.
Nehmen wir die Farbe, die ein abgebildeter Bildpunkt hat. Wird er nur durch einen Sensel abgebildet, bleibt nichts anderes als eine Schätzung anhand der benachbarten Sensel möglich. Ist dieser Bildpunkt Gelb auf einer schwarzen Fläche wird das nichts mit der Berechnung.
Wird der Bildpunkt jedoch durch 4 Sensel abgebildet, ...
...geht das auch nur, wenn das Objektiv diesen Gelbpunkt auflöst und nicht mit dem Schwarz zu einer Braunschattierung der schwarzen Fläche verschmiert.
Um wieder das Beispiel von Blackmagics 12K-Sensor zu nehmen: Das Objektiv müsste (bei der Sensorgröße 27.03 x 14.25mm und seiner Auflösung 12,288 x 6480) 227 lp/mm auflösen, um den Gelbpunkt auf einem Pixel abzubilden, und immer noch 114 lp/mm, um ihn auf 4 Pixel zu projizieren. Selbst ein aktuelles Spitzenobjektiv wie z.B. das Canon RF 85mm/1.2 Macro schafft "nur" ca. 95 lp/mm (laut
Optical Limits-Test). D.h. dass bei einem 3:2-Full Frame Sensor eine Realauflösung von knapp 7K erzielbar ist (wofür dann mit Debayering-Overhead 9.5K Sensor-Pixel bzw. 60MP optimal wären; die ja auch das momentane obere Limit bei FF-Sensoren sind).
Der Signal-Rauschabstand ist bei R-, G- und B-Sensel unterschiedlich.
Bei Kerzenlicht sieht es für B und auch G schlechter aus, als für R.
Und dann sind wir wieder bei den Formen, also Strukturen, die sich besser rekonstruieren lassen, wenn ein Sensor mehr R-Pixel mit noch verwendbaren Signalwerten hat, als ein anderer.
Deine Rechnung lässt aber außer acht, dass die Full Well-Kapazität pro Sensel bei kleinerem Pixelpitch ab- und das Rauschen pro Pixel zunimmt. Ab einem bestimmten Punkt - und zwar hier oberhalb der 7-8K - handelst Du Dir also mehr Nachteile als Vorteile ein, weil die theoretisch höhere Detailauflösung objektivbedingt beim Sensor nicht mehr "ankommt", während das Bildrauschen steigt und der Dynamikumfang (bzw. der clipping point) sinkt.
Man kann das ganz gut mit einem Fischernetz vergleichen. Wenn Du dessen Maschen enger knüpfst, fängst Du zwar auch kleinere Fische, die sonst durchgeschlüpft wären (=höhere Detailauflösung). Die fängst Dir aber auch mehr Müll ein. Und irgendwann, wenn Deine Maschen nur noch zentimetergroß sind, ist das ganze Netz zum Fischen untauglich und nur noch ein Müllsieb.