pixelschubser2006 hat geschrieben:
Punkt 1: Optische Leistung beim Abblenden
Von der Sache her sind mir die Zusammenhänge klar, aber mit allen Aussagen bin ich nicht konform. Ich habe in der Fotografie gelernt, daß eine Optik eine halbe bis eine Stufe abgeblendet werden muss, um optimale Leistung zu bringen. Selbst beste Linsen bringen offen vielleicht schon Spitzenleistungen, laufen aber erst bei -1 oder -2 Blenden zur Höchstform auf. Je extremer die Lichtstärke ist, desto ausgeprägter. Mit nem Leica-M-Objektiv mit Lichtstärke 4,0 sicherlich vernachlässigbar. Mit nem alten Sigma 1,8/28 konnte man hingegen offen fast nix anfangen. Beugungsunschärfen traten erst bei Abblenden über 5 Stufen langsam auf, was aber evtl. den Bildformaten und entsprechend großen Linsen geschuldet sein mag. Jedenfalls wundert es mich, daß es bei Videolinsen schon ab -2 Blenden mit der Schärfe abwärts gehen soll.
Punkt 2: Vergleichbarkeit ISO vs. ISO
Nachdem ich ein paar Jahre mit ner Nikon Spiegelreflex gefilmt habe, kann nur von der Erfahrung sprechen, daß sich das Rauschverhalten bei Video ziemlich genauso wie bei Foto verhalten hat. Warum auch nicht, ist der gleiche Sensor. Auch hinsichtlich der Empfindlichkeit haben sich keine Unterschiede ergeben - habe ja immer die Belichtungswaage zur groebn Voreinstellung genommen. Jedenfalls sind mir hier keine Unterschiede zwischen Foto und Video aufgefallen. Sollte es bei Video weniger gerauscht haben (was ich so nicht beobachtet, aber auch nie gezielt verglichen habe), kann dies mutmaßlich auch eine Folge der geringeren Auflösung sein, die eine bessere Rauschkorrektur in der Kamera ermöglicht.
Was ich weiterhin nicht verstehe sind die Unterschiedlichen Denkansätze. Es macht auch keine Sinn, Zelluloid mit Video zu vergleichen. Obgleich ich in der analogen Fotografie bei höheren Empfindlichkeiten ein Verhalten habe, welches dem des Rauschens ähnlich ist. Das Korn nimmt bei höherer Empfindlichkeit zu, insbesondere wenn Filme gepusht werden.
Darüber hinaus muss man doch Fotosensoren mit Videosensoren vergleichen. Sind die Unterschiede wirklich so groß? Wie unterscheiden sich der 1" Sensor im Sony Camcorder und der 1" Chip der RX100?
M.A. nach sind Fotokameras und Videokameras schon deshalb nicht vernünftig vergleichbar, weil bei Video die Lichtempfindlichkeit des Sensors per Verstärkung in dB angegeben wird. Es mag Ausnahmen geben, aber die kenne ich nicht (wobei das nix heißen mag. Habe viele Fotokameras, aber nur wenig Videokameras in der Hand gehabt...
Sorry, dass ich erst heute dazu komme, zu antworten.
Zu 1)
In der Diskussion geht es eigentlich nur um die Beugung an der Blende, bzw. am Objektivschacht.
Dass Linsen noch zusätzlich die Objektivleistung negativ beeinflussen, steht gänzlich ausser Frage.
Was Du ansprichst, ist die Kombination aus Beidem, die "förderliche Blende", nämlich der Schnittpunkt der Kurven, wo die Beugungsunschärfe sich mit der Auflösungsbegrenzung des optischen Weges schneiden.
Hier gin es aber nur um die Beugung.
Hättest Du also ein "perfektes" Objektiv, hättest Du es nur mit der Beugung zu tun und dann wäre das Maximum der Bildqualität am Minimum der Beugung, also bei Offenblende.
Zu 2)
Genau darum ging es in der Diskussion aber, dass der Ursprung des ISO, also die Kristallgrösse des Filmmaterials nicht mit Sensoren zu vergleichen ist und dass daher auch identische ISO Settings im Videobereich nicht verglichen werden können.
Und auch unterschiedliche (Video) ISO Settings (Kameras) nicht vergleichbar sind.
@Peppermintpost
Du musst immer betrachten, wie die Pixels gewinnt sind.
Wenn jedes Pixel 6,25 µm gross ist, hält natürlich der Zerstreuungskreis für die Grösse. Wird gebinnt, dann natürlich erst für das gesamte Bin.
Aber nochmal ... zuerst kommen die langen Farben und u.U. erst 2-3 µm
später, die kurzen Wellenlängen.
Da besteht als, je nach Bildinhalt kein harter Übergang und auch werden natürlich erst die hohen Ortsfrequenzen begrenzt, die Bildauflösung wird also zunächst reduziert, was nicht unbedingt sofort als Unschärfe wahrgenommen wird, weil die niedrigen Ortsfrequenzen noch scharf erscheinen. Man darf also Beugungsunschärfe nicht so verstehen, dass ein Unschärfefilter auf das Bild gelegt wird. Erst wenn die Beugung in allen Wellenlängen zuschlägt, wird das so manchem auffallen.
Es gibt da also einen Toleranzbereich, der von Vielen noch als "scharf" wahrgenommen wird, sich aber schon in der Beugung befindet.
Kritisch ist es eben im 4K Bereich bei kleinen Sensoren, wo ohnehin nicht viel Luft in den Blenden ist. Daher ja auch die üppige Nachberechung bis hin zum Patchen.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.