WoWu hat geschrieben:Das Ergebnis ist immer die Addition der MTF Werte aller, im Aufnahmezug beteiligten Einzelelemente und das schwächste Glied in der Kette bildet die Gesamtleistung ab.
Daher bringt auch häufig ein weniger gutes Objektiv in der Gesamtleistung bessere Ergebnisse, weil eine hohe übertragene Ortsfrequenzen bei schlechten MTF Werten des Kamerakopfes zu Aliasing führt.
Teil 1 klingt zwar gut, ist aber so falsch bzw. im eigenen Kontext widersprüchlich. Würden wir 80% Optik MTF mit 80% Sensor MTF
addieren, hätten wir...genau ;-)!
Teil 2 trifft es aber, der zweite Satz ist zudem PERFEKT!!!
Selbst wenn ein Sensor wie der aus der GH4 1:1 (also Full Pixel Readout) ausgelesen wird, kann es bei welcher Auflösung auch immer nicht diese Auflösung im Ergebnis sein, wenn wir einen Bayer Sensor haben.
Bei einem monochromen Sensor SOLLTE man entweder Linsen mit einer geringeren Auflösung nutzen oder einen LP Filter vor den Sensor montieren, da ansonsten unschöne Aliasingeffekte im Bereich der Systemgrenze/Grenzauflösung auftreten
können.
Das stelle ich auch hin und wieder mit meiner "Spielzeug" a6300 fest. Mit richtig scharfem Glas kommt die Kiste dank ~2.4 fachem Oversampling in UHD schon an die Systemgrenze, das
kann dann schon mal unschöne (Aliasing-)Artefakte erzeugen.
In der Praxis ist das "für mich" aber kaum ein Problem, würde man jedoch häufig periodische Motive im Bereich der Grenzfrequenz aufnehmen (feine Gitter, Schleier...) kann das Aufnahmen schnell unbrauchbar machen. Per Software direkt hinter dem Sensor vor Downscale kriegt man sowas teilweise auch herstellerseitig in den Griff (vgl. Kammfilter), ein Allheilmittel ist das aber nicht, eher ein Kompromiss.
Von den "tollen" Kameras ohne AA Filter sind viele schon wieder geheilt bzw. dort vorsichtig geworden.
Diese Probleme haben wir aber nicht nur bei Kameras. Jede zeit- und wertdiskrete Abtastung-/Erfassung birgt diese Gefahr!