WoWu hat geschrieben: ↑Di 16 Okt, 2018 01:12
In der Diskussion vorher ging's u. a. um die nach wie vor strittige Frage: Was passiert mit der DOF, wenn man a) die Brennweite und Blende und Pixelgrösse gleich lässt und nur den Sensor verkleinert oder b) bei sonst gleichen Einstelllungen, inkl. gleicher Sensorgrösse, nur die Pixelgrösse variiert ?
Wenn die Menge der Pixel gleich bleibt, also beide Sensoren (z.B.) 1920x1080 Pixelmatrix aufweisen, dann müssen die Pixel zwangsläufig bei dem kleineren Sensor auch ein kleineres Pitch haben.
Das kann doch nicht so schwer zu begreifen sein, dass ein KB Sensor in HD größere Pixel hat als ein 1/4“ Sensor in HD.
Und das Ergebnis kann man sich in dem Link von Clark ansehen denn da werden die beiden Sensoren dieser Größe miteinander verglichen. ...
Dass in dem Bild mit den 3 Linealen bei gleicher Blendenzahl UND
weitwinkligerem Objektiv der kleine Sensor mehr Schärfentiefe zeigt als der grosse, ist wohl jedem klar, der schon einmal fotografiert hat.
Die Frage ist bloss: Liegt's am Sensor oder am Objektiv? Ich plädiere fürs Objektiv, Du scheinst den Sensor zu bevorzugen.
Am Bild, das wir letztlich vergrössert betrachten, ist der Sensor natürlich nicht unbeteiligt - sowohl was die Sensorgrösse als auch seine Pixeldichte und Pixelgrösse betrifft.
Um einzugrenzen, wie gross der Sensor-Anteil (bzw. sein vergrössert am Computermonitor betrachtetes Bild) bei der Beurteilung der Schärfentiefe ist, habe ich die beiden Versuche oben vorgeschlagen, bei denen stets nur eine Variable verändert wird - entweder die Sensorgrösse oder die Pixeldichte.
Es geht nicht um eine genaue Quantifizierung (die ist ohnehin nur möglich, wenn sämtliche Rahmenbedingungen genau festgelegt werden - bei den heutigen digitalen Möglichkeiten mit div. Bildschirmgrössen, div. Bildschirmauflösungen (2K / 4K) und quasi unbegrenzten Zoom-Möglichkeiten, ohne den Betrachtungsabstand zum Monitor zu ändern, gar nicht so einfach), es geht um eine Abschätzung von "vernachlässigbar" über "leicht" und "mittel" bis hin zu "entscheidend".
Ich konnte bei meinem geposteten Crop-Test (gleiches, schräggestelltes Lineal, einmal mit Sensor-Vollauslesung, einmal mit Sensor-Crop von genau 1920x1080 gefilmt) mit der GH2 bei der Beurteilung am Monitor keinen Schärfentiefe-Unterschied erkennen. Da ich aber nicht weiss, wie dieser Sensor-Crop kamera-intern genau zustande kommt, wäre hier als Ergänzung ein Versuch mit 2 Kameras mit unterschiedlichen Sensorgrössen aber etwa gleicher Pixelgrösse nützlich.
Und der zweite Versuch - Einfluss unterschiedlicher Pixelgrösse bei gleicher Sensorgrösse auf die Beurteilung der Schärfentiefe bei der Betrachtung des vergrösseren Bildes am Monitor - könnte, wie schon mehrfach vorgeschlagen, z. B. mit einer Sony A7S (12 Megapixel) versus A7R (42 Megapixel) gemacht werden.
Wie gesagt, es geht um eine Abschätzung, welches 'Gewicht' Sensorgrösse und Pixeldichte bei der Beurteilung der Schärfentiefe an einem Computer-Monitor haben.
Denn bei gleicher Objektivbrennweite und gleicher eingestellter Blende sind es im Prinzip zunächst diese beiden Faktoren, die dem Sensor ein definiertes 3D-Bild liefern, ohne zu wissen, wie gross dieser Sensor ist und wieviele Pixel er hat.
klusterdegenerierung kam bei seinem geposteten Test mit 2 sehr unterschiedlichen Sensorgrössen (und wohl auch Pixelgrössen), aber gleicher Objektivbrennweite und eingestellter Blende zum Schluss: Gleiche Schärfentiefe (er hatte allerdings bei diesem Test keine Tiefen-Skala im Bild, wenn ich mich recht erinnere, sondern eher Vordergrund und Hintergrund)!
Ich konnte das bisher in (zu?) einfachen Tests nicht nachvollziehen, hatte aber als kleinen Vergleichssensor (zum APS-C Sensor) stets eine Videokamera (1/4 Zoll), bei der die eingestellte Brennweite nicht explizit angezeigt wurde (nur als Tele-Vergrösserungsfaktor, z. B. 8x, 10x oder 12x) und auch die effektive Blende nach Tele-Zoomen nicht klar war (ich habe sie anhand der Gain-Veränderung abgeschätzt).