Jörg hat geschrieben: ↑Mo 25 Jun, 2018 12:14
(Hinweis: Zitat von domain (blau = von mir ergänzt), das so beginnt: "Eigentlich geht es aber um die perceptual experience, wie es Steve Yedlin ausdrückt. Er geht ja offenbar davon aus, dass sich diese auch bei Mittelformatsensoren (Alexa 65 mit z.B. 54,12*25,59 mm) überwiegend nur in einer höheren Pixeldichte und nicht in einer höheren Auflösung äußert.
und nichts anderes lese ich aus wowus Aussagen...
Bin aber zum Glück kein Wissenschaftler ;-))
Ich dachte, man sei sich einig, dass die Auflösung am Ende - das, was man schliesslich vom aufgenommenen Bild am Monitor oder im Print zu sehen bekommt - sowohl von der Auflösung der Optik, als auch von der Auflösung des Sensors abhängt (höhere Pixeldichte (also Pixel pro mm^2) oder höhere Gesamt-Pixelzahl auf grösserem Sensor (bei vielleicht gleicher Pixeldichte)).
Ist die Objektivauflösung zwar hoch, aber die Sensorauflösung zu niedrig (zu grobes Raster), verschenkt man das eigentliche Potential des Objektivs.
Und ist die Auflösung des Objektivs zu niedrig für einen hochauflösenden Sensor, kommt dessen Potential der feineren Rasterung nicht zur Geltung.
Ist das so weit richtig?
Und falls ja, ist das zu banal? Vielleicht nach dem Motto: Warum einfach, wenn es auch kompliziert(er) geht?
Im Idealfall passen (auch laut
WoWu) Optik und Sensor perfekt zueinander, auch weil es andernfalls noch weitere unerwünschte Effekte geben kann.
WoWu hat zuvor auf diese Nebeneffekte hingewiesen, beibt ansonsten aber stur - "weil nicht sein kann, was nicht sein darf" - bei der reinen Theorie, auch wenn sichtbare Unterschiede, die hier verlinkt wurden, etwas Anderes sagen. Das bedeutet nicht zwingend, dass er falsch liegt (es könnten ja Fehler im "Experimental Design" des gezeigten Beispiels vorliegen), aber es zeigt doch, dass er eher auf die Empririe pfeift, wenn sie seiner theoretischen Vorstellung widerspricht, als dass er bereit wäre, die Theorie zu hinterfragen oder anzupassen (ich erinnere mich auch an die Diskussion zum "Hi-Res"-Modus (in-camera, z.B. Olympus E-M1 oder Panasonic G9 oder auch Pentax K1 und Hasselblad) durch Zusammenrechnen mehrerer Bilder mit jeweils minimaler Sensor Shift/Pixel Shift). Ein Theoretiker und gedanklicher Modellierer (induktiv denkend, stets vom ('atomaren') Kleinen zum Grossen (und Ganzen) - braucht's auch, vor allem, weil eine schöne, 'geschlossene' (lückenlose) Theorie vorliegt, falls die Erfahrung/Beobachtung das Gedankengebäude dann auch bestätigt bzw. ihm ohne Ausnahme nicht widerspricht), kein Empirist (eher deduktiv denkend - logisch-ableitend vom Grossen (Äusseren) ins Kleine (Funktionale) à la Sherlock Holmes - die sind ebenfalls nötig, weil sie zunächst quasi einen Anker in der (für uns erfassbaren) Realität setzen und daraus die Details ableiten, nicht umgekehrt)!