Gemischt Forum



Sensorgröße nicht für Schärfentiefe verantwortlich



Der Joker unter den Foren -- für alles, was mehrere Kategorien gleichzeitig betrifft, oder in keine paßt
Antworten
klusterdegenerierung
Beiträge: 19622

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von klusterdegenerierung » Mo 03 Mai, 2021 12:15

iasi hat geschrieben:
Mo 03 Mai, 2021 10:42
Klusters Ansatz scheitert an der immer gleichen Bilddiagonale - er vergleicht letztlich nur 1 Zoll-Sensorgrößen.
Bei mir Scheitert garnix und ich vergleiche auch nicht nur 1 Zoll, vielmehr ist 1 Zoll nur der kleinste geminsame Nenner eines Bildauschnittes zu sehen, denn einen Ausschnitt wie bei 4x5 Inch bekommt man ja bei gleichem Standpunkt, Brennweite und Blende nicht mehr auf den 1 Zoll Sensor, müßte jedem einleuchten.

Um wirklich nochmal klar zu stellen und niemandem zu verärgen, haben ja alle irgendwie auch Recht mit ihren eigenen Aussagen, aber nur wenn man sie wirklich nur unter dem Aspekt sieht, das Sensorgröße nur eine Art Umschreibung ist, also ein Name für eine viel komplexere Sache.

Denn natürlich ändert sich sofort alles wenn man von APS-C zu FF wechselt, aber wirklich nur deswegen, weil jeder fasst alle Parameter auch gleichzeitig verändert oder beinflusst uns so nutzt natürlich niemand eine 50mm Optik auch bei APS-C, wenn er den gleichen Bildkreis bekommen möchte wie bei FF mit 50mm und wahrscheinlich ghet auch jeder noch ein paar Schritte vor oder zurück und Bums ist der FF DOF ein anderer, natürlich, weil es Physikalisch einfach nicht zu ändern ist.

Aber eben genauso physikalisch nicht zu ändern ist eben die Tatsache, wenn ich mit gleicher Brennweite, gleicher Blende, gleicher Objekt Entfernung und gleicher Hintergrundentferung nur die Sensofläche ändere, nichts am DOF Verhalten geändert wird.

Selbstverständlich gilt auch dies auch für eine Handylinse, auch dort darf dann keine Variable, sondern tatsächlich nur die gleiche Brennweite und Blende genutzt werden.
Ist dies der Fall, bleibt das DOF immer identisch und von diesem Standpunkt aus, ist die Aussage, das ein FF Sensor das DOF Verhalten ändert, nur bedingt richtigt.

Und so müßte es physikalisch korrekt heißen, FF Sensoren, bzw Sensoren ändern das DOF Verhalten, wenn ich nur eines der Rahmenparameter bzw Kameraeinstellunge oder Brennweiten ändere!
Man sagt ja auch nicht, das ein Auto bei wechsel der Reifen für das sich dadurch ändernde Bremsverhalten verantwortlich ist, sondern die anderen Reifen.
Klar hat auch das Auto damit zu tun, wie bei der Cam der Sensor, aber bremsen tut das Auto an der Stelle anders, weil man die Reifen gewechselt hat, nicht die Bremsen und nicht das Auto.
"Faulheit ist der Tod der Fantasie!"




cantsin
Beiträge: 9082

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von cantsin » Mo 03 Mai, 2021 12:21

Man kann's auch einfach so ausdrücken, was hoffentlich Missverständnisse vermeidet:

Je kleiner die Sensorgröße, desto kleiner die Brennweite eines Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto geringer die Freistellung).




klusterdegenerierung
Beiträge: 19622

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von klusterdegenerierung » Mo 03 Mai, 2021 12:26

Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))
"Faulheit ist der Tod der Fantasie!"




cantsin
Beiträge: 9082

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von cantsin » Mo 03 Mai, 2021 12:29

klusterdegenerierung hat geschrieben:
Mo 03 Mai, 2021 12:26
Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))
Das meinte ich natürlich auch, dann vielleicht nochmal präziser formuliert:

Je kleiner die Sensorgröße, desto kleiner die Brennweite des jeweils zu ihr passenden Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto weniger Freistellung).




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 13:34

klusterdegenerierung hat geschrieben:
Mo 03 Mai, 2021 12:15
iasi hat geschrieben:
Mo 03 Mai, 2021 10:42
Klusters Ansatz scheitert an der immer gleichen Bilddiagonale - er vergleicht letztlich nur 1 Zoll-Sensorgrößen.
Bei mir Scheitert garnix und ich vergleiche auch nicht nur 1 Zoll, vielmehr ist 1 Zoll nur der kleinste geminsame Nenner eines Bildauschnittes zu sehen, denn einen Ausschnitt wie bei 4x5 Inch bekommt man ja bei gleichem Standpunkt, Brennweite und Blende nicht mehr auf den 1 Zoll Sensor, müßte jedem einleuchten.

Wenn du bei einem KB-Sensor mit 25mm Brennweite einen MFT-Crop machst, dann hast du denselben Bildwinkel, dieselbe Diagonale wie bei einer MFT-Kamera mit 25mm Objektiv.

Du vergleichst dann MFT mit MFT.

Wenn du die Sensorgröße unberücksichtigt lässt, dann lässt du eben auch den Zerstreuungskreisdurchmesser unberücksichtigt.

Bild
https://www.filmundtvkamera.de/produkti ... rfentiefe/




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 13:56

cantsin hat geschrieben:
Mo 03 Mai, 2021 12:29
klusterdegenerierung hat geschrieben:
Mo 03 Mai, 2021 12:26
Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))
Das meinte ich natürlich auch, dann vielleicht nochmal präziser formuliert:

Je kleiner die Sensorgröße, desto kleiner die Brennweite des jeweils zu ihr passenden Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto weniger Freistellung).
eigentlich müsste es heißen:

1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
2. je kleiner die Brennweite, desto größer die Schärfentiefe
3. je geringer der Objektabstand/Fokuspunkt, desto kleiner die Schärfentiefe
4. je kleiner die Blende, desto größer die Schärfentiefe

Ihr könnt nicht einfach den 1.Faktor unberücksichtigt lassen.
f²*g / (f² +- k*Z*(g-f))
f Brennweite
k Blende
g Objektabstand
Z Zerstreuungskreisdurchmesser

Und Z ergibt sich aus der Sensordiagonalen.

Wer also für KB und MFT mit demselben Z=0,03mm rechnen würde, der käme auf die falsche Schärfentiefe beim MFT-Sensor.




klusterdegenerierung
Beiträge: 19622

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von klusterdegenerierung » Mo 03 Mai, 2021 14:42

iasi hat geschrieben:
Mo 03 Mai, 2021 13:56
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.
"Faulheit ist der Tod der Fantasie!"




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Mo 03 Mai, 2021 14:56

klusterdegenerierung hat geschrieben:
Mo 03 Mai, 2021 14:42
iasi hat geschrieben:
Mo 03 Mai, 2021 13:56
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände. Die A6500 (APSC, aber deutlich kleineren Pixel-Pitch von 0,0389 mm) hat die *kleinste* Schärfentiefe beim selben Objektiv - 6,4 Meter, aber die *größte*, wenn man ein Objektiv mit demselben Blickwinkel, also weitwinkliger nimmt: 24 Meter!!!

Verblüffend finde ich, welchen Einfluss der CoC tatsächlich hat.

Bestätigt sehe ich mich darin, dass ein kleinerer Sensor auch mit deutlich kleinerem CoC weniger sDoF produziert, sobald man den gleichen Blickwinkel anstrebt. Als Daumenregel praxisrelevant.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




cantsin
Beiträge: 9082

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von cantsin » Mo 03 Mai, 2021 15:06

Axel hat geschrieben:
Mo 03 Mai, 2021 14:56
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.




mash_gh4
Beiträge: 4183

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von mash_gh4 » Mo 03 Mai, 2021 15:44

cantsin hat geschrieben:
Mo 03 Mai, 2021 15:06
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.
ja -- weil z.b. die beugungsbedingten unschärfen dabei in der regel völlig ausgeklammert werden, die aber in der praxis eine große rolle spielen können...
cantsin hat geschrieben:
Mo 03 Mai, 2021 15:06
Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
danke! -- so ist es!

siehe auch:
viewtopic.php?f=35&t=149202&p=1093731#p1093731




dienstag_01
Beiträge: 11052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von dienstag_01 » Mo 03 Mai, 2021 15:52

cantsin hat geschrieben:
Mo 03 Mai, 2021 15:06
Axel hat geschrieben:
Mo 03 Mai, 2021 14:56
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
Ja, aber auch das Präsentationsmedium nicht vergessen.
Genau wie zu analogen Zeiten die Bildgröße und der Betrachtungsabstand eine Rolle gespielt haben (und für die Berechnung der Schärfentiefe festgelegt wurden), spielt heute die Monitorgröße und -auflösung sowie der Abstand eine Rolle.




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 15:59

klusterdegenerierung hat geschrieben:
Mo 03 Mai, 2021 14:42
iasi hat geschrieben:
Mo 03 Mai, 2021 13:56
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.
Aha - weil es unser kluster so will, gelten Gesetzmäßigkeiten nicht mehr.




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 16:19

cantsin hat geschrieben:
Mo 03 Mai, 2021 15:06
Axel hat geschrieben:
Mo 03 Mai, 2021 14:56
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
Man spricht nicht umsonst von akzeptabler Unschärfe.
Aber die hat nichts mit der Sensorauflösung zu tun.
Es hat nichts mit dem Pixelpitch zu tun.

Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Mo 03 Mai, 2021 16:39

dienstag_01 hat geschrieben:
Mo 03 Mai, 2021 15:52
Ja, aber auch das Präsentationsmedium nicht vergessen.
Genau wie zu analogen Zeiten die Bildgröße und der Betrachtungsabstand eine Rolle gespielt haben (und für die Berechnung der Schärfentiefe festgelegt wurden), spielt heute die Monitorgröße und -auflösung sowie der Abstand eine Rolle.
Und ob der eine Rolle spielt!
Nämlich, wenn's nicht so richtig scharf ist.

Es gibt ja auch Smartphones mit 8k oder mehr, hab mich damit nicht so befasst. Wenn der Zerstreuungskreis wirklich die entscheidende Rolle spielte, dann müssten diese Kameras auch bei Mini-Sensoren (bzw. gerade dabei, da dann ja die Pixeldichte viel höher sein muss) die reinsten Bokehmonster sein.

Sie sind es bekanntlich nicht.

Wo liegt also der Denkfehler von uns allen?

Er liegt im Begriff Schärfentiefe. Die absolute Schärfe ist nur ein hypothetischer exakter Punkt. Die Schärfentiefe ist der Bereich akzeptabler Unschärfe, in deren vorderem Drittel in etwa der absolute Schärfepunkt angesiedelt ist. Alles innerhalb dieses Bereichs "ist" scharf. Das bedeutet aber nicht, dass alles außerhalb dieses Bereichs als starke Unschärfe empfunden werden muss. Wir haben doch jahrzehntelang die Hände gerungen, weil wir mit S-VHS und DV-Kameras fast absolute Schärfe hatten. Wir mussten bei Offenblende nah ran und einzoomen, damit überhaupt etwas ein bisschen unscharf wurde.

Was wir mit dem ästhetischen Mätzchen sDoF meinen ist nicht ein ärgerliches Knapp-vorbei-ist-auch-daneben, es ist eine Schärfe-Ebene, ein Layer, eingebettet in absichtsvoll wirkende Unschärfe, starke Schärfe mit einem steilen Abfall der Schärfe. Das erreichten wir vor 12 Jahren mit einer DoF-Maschine, die Vollformat, also einen großen Sensor, simulierte. Hören wir zum Thema Herrn Wonneproppen:


Zurück zu Bildgröße und Betrachtungsabstand. Linus von Linus Tech Tips hat letztes Jahr bewiesen, dass die Bildschirme zwar größer werden, dass aber der Betrachtungsabstand (den Leute, seine eigenen Mitarbeiter, Technologie-Freaks!, freiwillig einnehmen) ebenfalls größer geworden ist. Aber das nur nebenbei. Der Trend geht hin zu größeren und besser aufgelösten Bildern, und deswegen werden wir mit höheren Auflösungen, kleineren Pixeln und weniger menschlicher Toleranz für leichte Unschärfe zu tun kriegen, tendenziell.

Der Zerstreuungskreis kann als Faktor für einen sDoF-Stil, für absichtsvolle Freistellung, vernachlässigt werden.
iasi hat geschrieben:
Mo 03 Mai, 2021 16:19
Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.
In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 16:51

Axel hat geschrieben:
Mo 03 Mai, 2021 16:39
iasi hat geschrieben:
Mo 03 Mai, 2021 16:19
Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.
In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.
Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Mo 03 Mai, 2021 17:00

iasi hat geschrieben:
Mo 03 Mai, 2021 16:51
Axel hat geschrieben:
Mo 03 Mai, 2021 16:39



In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.
Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.
Wenn ich vergrößere verteile ich einen Pixel auf mehrere neue. Ich sehe auf dem Wiedergabemedium in der Regel keine individuellen Pixel mehr, das ist mehr als 20 Jahre her. Ein 320p-Video auf einem 4k-Monitor (siehe obigen Bloom-Clip) wird schlicht matschig ausssehen, und ein 72pi -Foto auf einem mittelgroßen 300dpi-Druck (hier spielt wieder die relative Größe mit rein) genauso. Es ist also die Frage, ab wann nach unten Details und Strukturen nicht mehr aufgelöst werden, unscharf werden, nicht, ab wann ich Pixel sehe. Das gibt es nicht mehr.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 17:07

Axel hat geschrieben:
Mo 03 Mai, 2021 17:00
iasi hat geschrieben:
Mo 03 Mai, 2021 16:51


Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.
Wenn ich vergrößere verteile ich einen Pixel auf mehrere neue. Ich sehe auf dem Wiedergabemedium in der Regel keine individuellen Pixel mehr, das ist mehr als 20 Jahre her. Ein 320p-Video auf einem 4k-Monitor (siehe obigen Bloom-Clip) wird schlicht matschig ausssehen, und ein 72pi -Foto auf einem mittelgroßen 300dpi-Druck (hier spielt wieder die relative Größe mit rein) genauso. Es ist also die Frage, ab wann nach unten Details und Strukturen nicht mehr aufgelöst werden, unscharf werden, nicht, ab wann ich Pixel sehe. Das gibt es nicht mehr.
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Mo 03 Mai, 2021 17:18

iasi hat geschrieben:
Mo 03 Mai, 2021 17:07
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.
Du brauchst keine individuellen Pixel zu sehen, um zu merken, dass Konturen oder Muster unscharf sind. Was meinst du, warum bei Objektivttests der Testchart, aufgenommen mit möglichst hoch auflösenden Kameras, vergrößert wird? Wenn man Pixel sehen würde, wären es die deines Anti-Retina-Computermonitors von 1990. In der Betonung auf Schärfe sieht man am besten den fundamentalen Unterschied zwischen Schärfe und Auflösung. Wenn man projizierte Bilder (Kino, Dunkelkammer) auf's Korn scharfstellen kann, sind sie nicht besonders hoch aufgelöst für die Betrachtungsgröße. Ob der Fotograf/Kameramann den Fokus bei der Aufnahme getroffen hat, ist davon völlig unabhängig. Schärfe erkennt man auch bei schlechter aufgelösten Bildern und kritische Unschärfe am besten bei höher aufgelösten. Weitere Zusammenhänge gibt es nicht.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 20:20

Axel hat geschrieben:
Mo 03 Mai, 2021 17:18
iasi hat geschrieben:
Mo 03 Mai, 2021 17:07
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.
Du brauchst keine individuellen Pixel zu sehen, um zu merken, dass Konturen oder Muster unscharf sind. Was meinst du, warum bei Objektivttests der Testchart, aufgenommen mit möglichst hoch auflösenden Kameras, vergrößert wird? Wenn man Pixel sehen würde, wären es die deines Anti-Retina-Computermonitors von 1990. In der Betonung auf Schärfe sieht man am besten den fundamentalen Unterschied zwischen Schärfe und Auflösung. Wenn man projizierte Bilder (Kino, Dunkelkammer) auf's Korn scharfstellen kann, sind sie nicht besonders hoch aufgelöst für die Betrachtungsgröße. Ob der Fotograf/Kameramann den Fokus bei der Aufnahme getroffen hat, ist davon völlig unabhängig. Schärfe erkennt man auch bei schlechter aufgelösten Bildern und kritische Unschärfe am besten bei höher aufgelösten. Weitere Zusammenhänge gibt es nicht.
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, mit geringerer Pixelauflösung darstellst, wird er dadurch nicht schärfer als bei hoher Pixelauflösung.

Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung. Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.

Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Mo 03 Mai, 2021 21:18

iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, ...
Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
... mit geringerer Pixelauflösung darstellst, ...
Meinst du,
> derselbe Bildpunkt aus der Wirklichkeit, das Staubkorn oder der Fleck auf dem Staubkorn, aber nun auf einem Sensor mit größeren Pixeln, gröberem Raster?
Oder meinst du
> eine Darstellung in reduzierter Auflösung auf dem Wiedergabegerät/Papier?
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
... wird er dadurch nicht schärfer als bei hoher Pixelauflösung.
In beiden Fallen, geringerer Auflösung bei Aufnahme oder Wiedergabe, wird der Punkt u.U. gar nicht wiedergegeben, fällt durch's Raster, wie ein Mehlkorn durch ein Nudelsieb, wenn du dir das vorstellen kannst.

Weil das passieren kann und mit Details unterhalb der Auflösung millionenfach passiert, gehen also viele Details flöten. Es sind nicht unbedingt Details, die man vermisst, da man sie nur in Vergrößerung sehen kann. Wie in diesem Screenshot zum Schärfevergleich des neuen Sigma 35mm Art mit dem Sony GM von Gerald Undone:
Bild

Bei den Details, die das Objektiv auflöst (ist das eigentlich WoWus "Ortsfrequenz"?), handelt es sich um Metallic-Struktur auf einem stark gecroppten Ausschnitt. Wir diskutierten darüber, ob der Unterschied mit einer A7Siii auch zu sehen gewesen wäre. Vielleicht ja, vielleicht nein. Jedenfalls ist der Schärfeeindruck bei dem Objektiv besser, das schärfer ist. Ich habe behauptet - und stehe dazu -, dass Schärfe sich natürlich auch, aber nicht nur über die Feinheit der Details mitteilt und auch dann spürbar größer oder kleiner, besser oder schlechter ist, wenn sie mit geringerer Auflösung, als sie eigentlich liefern könnte, eingesetzt wird. Womit ich auch im Nebensatz erwähnt hätte, dass es ästhetisch erstrebenswert sein kann, Schärfe zu reduzieren.

Niemand weiß ohne direkten Vergleich, dass diese Strukturen überhaupt da sind, weil man sie in Normalgröße gar nicht sieht.
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung.
Von scheinbarer Schärfe rede ich gar nicht. Ich sagte, eine Unschärfe (Objektiv, wie im Beispiel in dem Undone-Video) wurde man evtl. bei einer A7R sehen, weil sie es auflösen kann, bei der A7S evtl. nicht, weil dieser Kokolores zu fein für's Pixelraster ist.
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.
Bild
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.
Weichheit, na schön. Aber was heißt es, wenn ich die picture elements (auch in 24 B/s, mit Weichheit) sehen kann? Ich sehe die Auflösungsgrenzen. Mit bloßem Auge. Trotzdem kann ich in den Bildern, die diese Körnchen zeichnen, Schärfe und Unschärfe beurteilen. Darauf wollte ich hinaus.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Mo 03 Mai, 2021 22:17

Axel hat geschrieben:
Mo 03 Mai, 2021 21:18
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, ...
Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
... mit geringerer Pixelauflösung darstellst, ...
Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Axel hat geschrieben:
Mo 03 Mai, 2021 21:18

Meinst du,
> derselbe Bildpunkt aus der Wirklichkeit, das Staubkorn oder der Fleck auf dem Staubkorn, aber nun auf einem Sensor mit größeren Pixeln, gröberem Raster?
Oder meinst du
> eine Darstellung in reduzierter Auflösung auf dem Wiedergabegerät/Papier?
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.

Es geht dabei nicht um die Wiedergabe.
Die spielt eine Rolle, wenn man wirklich ins Extrem geht und eine 5m Monitorwand aus 1m Entfernung betrachten will, denn dann wären die 0,03mm Zertreuungskreisdurchmesser nicht mehr akzeptabel scharf.
Axel hat geschrieben:
Mo 03 Mai, 2021 21:18
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
... wird er dadurch nicht schärfer als bei hoher Pixelauflösung.
In beiden Fallen, geringerer Auflösung bei Aufnahme oder Wiedergabe, wird der Punkt u.U. gar nicht wiedergegeben, fällt durch's Raster, wie ein Mehlkorn durch ein Nudelsieb, wenn du dir das vorstellen kannst.

Weil das passieren kann und mit Details unterhalb der Auflösung millionenfach passiert, gehen also viele Details flöten. Es sind nicht unbedingt Details, die man vermisst, da man sie nur in Vergrößerung sehen kann. Wie in diesem Screenshot zum Schärfevergleich des neuen Sigma 35mm Art mit dem Sony GM von Gerald Undone:
Bild

Bei den Details, die das Objektiv auflöst (ist das eigentlich WoWus "Ortsfrequenz"?), handelt es sich um Metallic-Struktur auf einem stark gecroppten Ausschnitt. Wir diskutierten darüber, ob der Unterschied mit einer A7Siii auch zu sehen gewesen wäre. Vielleicht ja, vielleicht nein. Jedenfalls ist der Schärfeeindruck bei dem Objektiv besser, das schärfer ist. Ich habe behauptet - und stehe dazu -, dass Schärfe sich natürlich auch, aber nicht nur über die Feinheit der Details mitteilt und auch dann spürbar größer oder kleiner, besser oder schlechter ist, wenn sie mit geringerer Auflösung, als sie eigentlich liefern könnte, eingesetzt wird. Womit ich auch im Nebensatz erwähnt hätte, dass es ästhetisch erstrebenswert sein kann, Schärfe zu reduzieren.

Niemand weiß ohne direkten Vergleich, dass diese Strukturen überhaupt da sind, weil man sie in Normalgröße gar nicht sieht.
WoWu wollte ja auch nie von Schärfe reden, sondern von Detaildarstellung.
Ein Bildpunkt wird doch auch wirklich nur scharf abgebildet, wenn er auf der Fokusebene liegt. Davor und dahinter ist er dann eben nur "akzeptabel" unscharf und wird noch scharf wahrgenommen. Und wie stark diese Unschärfe also Zerstreuung sein darf, hängt von der Sensorgröße ab.
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Axel hat geschrieben:
Mo 03 Mai, 2021 21:18
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung.
Von scheinbarer Schärfe rede ich gar nicht. Ich sagte, eine Unschärfe (Objektiv, wie im Beispiel in dem Undone-Video) wurde man evtl. bei einer A7R sehen, weil sie es auflösen kann, bei der A7S evtl. nicht, weil dieser Kokolores zu fein für's Pixelraster ist.
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Axel hat geschrieben:
Mo 03 Mai, 2021 21:18
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.
Bild
iasi hat geschrieben:
Mo 03 Mai, 2021 20:20
Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.
Weichheit, na schön. Aber was heißt es, wenn ich die picture elements (auch in 24 B/s, mit Weichheit) sehen kann? Ich sehe die Auflösungsgrenzen. Mit bloßem Auge. Trotzdem kann ich in den Bildern, die diese Körnchen zeichnen, Schärfe und Unschärfe beurteilen. Darauf wollte ich hinaus.
Darin liegt aber eben der große Unterschied zwischen Negativ und Sensor. Hier kommt doch dieser Eindruck des "Digitalen" her - eben des Scharfen.
Du hast die immer fixe Pixelstruktur und du hast die "fließende" Kornstruktur.
Niedrigere Sensorauflösung wirkt dabei sogar noch negativer als hohe, denn gerade Unschärfe wird mit hoher Auflösung eben feiner abgestuft und dargestellt.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Di 04 Mai, 2021 08:02

iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Axel hat geschrieben:
Mo 03 Mai, 2021 21:18

Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Hm, ich gebe zu, etwas verwirrt zu sein. Du auch? Bitte korrigieren:
> Der Pixelabstand (pitch) wird gemessen von der Mitte des Pixels zur Mitte des nächsten Pixels und besagt zunächst nichts über die Pixelgröße.
> Er muss zwangsläufig größer sein als die Pixelgröße.
> Der Zerstreuungskreis wird durch die Einstellungen und Eigenschaften des Objektivs bestimmt.
> Der Bildpunkt entsteht durch Belichtung eines Pixels und ist zuvor nur ein theoretischer Wert.
> Der Zerstreuungskreis darf größer sein als das Pixel, solange er nicht auf's nächste Pixel rüberstrahlt.
> Liegt der Zerstreuungskreis innerhalb der Ausdehnunggrenzen (Pitch, nicht Durchmesser/Größe/Fläche des Pixels), wird er scharf dargestellt.
> Überschreitet er die Grenze, wird er unscharf dargestellt.
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.
Der Bildpunkt ist das hypothetische Gegenstück zum Pixel. Es ist für visuelle Menschen wie mich einfacher, ihn mir als einen motivlichen Gegenstand aus der realen Welt vorzustellen, in Wirklichkeit ist es ein RGB-Wert. Per definitionem (Punkt, nicht Fläche) soll er vom kleinsten Bildelement des Sensors (=Pixel) dargestellt werden. Ist der durch die Sammellinse projizierte Strahl unangemessen breit, streut er auf mehrere Pixel, und das Bild ist unscharf.
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Niemals ein scharfes Bild zu haben? Was ist mit Einzoomen in diese Megapixel-Matsche?
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Ich habe mich redlich bemüht, wirklich, die Unterschiede zwischen Schärfe und Auflösung herauszuarbeiten. Jetzt soll mal jemand anders.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




Jott
Beiträge: 19199

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Jott » Di 04 Mai, 2021 08:09

Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Di 04 Mai, 2021 08:38

Jott hat geschrieben:
Di 04 Mai, 2021 08:09
Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?
Ich gebe auf.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




dosaris
Beiträge: 1443

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von dosaris » Di 04 Mai, 2021 08:49

Jott hat geschrieben:
Di 04 Mai, 2021 08:09
Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?
keine klare Antwort möglich:

das hängt von der Art des debayerings ab.
Im einfachsten Fall eine "Milchglasscheibe",
aufwändigere Chips nutzen eine Rechenmethode dazu
(Ist bei meiner Pana-M43-Cam so beschrieben)




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Di 04 Mai, 2021 09:25

Bei dem Versuch, mir das bildlich vorzustellen, ändert sich eigentlich gar nichts an der Prämisse, dass ein Bildpunkt nur von einem Pixel erfasst werden darf. Wird er darüber hinaus zerstreut - und meinetwegen von mehreren Brenngläsern zugleich erfasst -, dann kann er nicht gut definiert dargestellt werden.

Mit zusammengekniffenen Augen, also etwas pauschalisiert, kann man sagen, dass höhere Auflösung in kleineren Pixeln bzw. kleinerem Pixelpitch, resultiert und dass einerseits schärfere Objektive nötig sind bzw. andererseits die Schärfentiefe abnimmt.

Das Beispiel mit dem durch Sandpapier gefrosteten CD-Dummy (DIY-DoF-Machine) zeigt aber, dass die unzureichende Schärfe durch zu großen Zerstreuungskreis nichts, absolut gar nichts mit shallow DoF zu tun hat. Sondern das hat am meisten mit Sensorfläche zu tun, den Threadtitel widerlegend.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




dosaris
Beiträge: 1443

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von dosaris » Di 04 Mai, 2021 09:48

Axel hat geschrieben:
Di 04 Mai, 2021 09:25
.., ändert sich eigentlich gar nichts an der Prämisse, dass ein Bildpunkt nur von einem Pixel erfasst werden darf. Wird er darüber hinaus zerstreut - und meinetwegen von mehreren Brenngläsern zugleich erfasst -, dann kann er nicht gut definiert dargestellt werden.
das Problem ist analog zur Übertragungsgeschwindigkeit auf einer Leitung zu sehen:

die Angabe 100 Mbps (analog zum Senselpitch) bedeutet nur, dass dies die max (nominale) Übertragungsrate ist,
die man in der Realität gerade nie erreichen wird.
Effektiv ist (Schärfe/Durchsatz) immer nur weniger nutzbar.
Zuletzt geändert von dosaris am Di 04 Mai, 2021 10:30, insgesamt 1-mal geändert.




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Di 04 Mai, 2021 10:30

Axel hat geschrieben:
Di 04 Mai, 2021 08:02
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17

Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Hm, ich gebe zu, etwas verwirrt zu sein. Du auch? Bitte korrigieren:
> Der Pixelabstand (pitch) wird gemessen von der Mitte des Pixels zur Mitte des nächsten Pixels und besagt zunächst nichts über die Pixelgröße.
> Er muss zwangsläufig größer sein als die Pixelgröße.
> Der Zerstreuungskreis wird durch die Einstellungen und Eigenschaften des Objektivs bestimmt.
> Der Bildpunkt entsteht durch Belichtung eines Pixels und ist zuvor nur ein theoretischer Wert.
> Der Zerstreuungskreis darf größer sein als das Pixel, solange er nicht auf's nächste Pixel rüberstrahlt.
> Liegt der Zerstreuungskreis innerhalb der Ausdehnunggrenzen (Pitch, nicht Durchmesser/Größe/Fläche des Pixels), wird er scharf dargestellt.
> Überschreitet er die Grenze, wird er unscharf dargestellt.
Hier liegt dein Denkfehler. Der Zerstreuungskreis ist (bei aktuellen Kameras) größer als ein Pixel und deckt mehrere Pixel ab.
Schärfentiefe ist nicht der Bereich, bei dem ein Bildpunkt gerade noch ein Pixel abdeckt, sondern bezieht sich auch die wahrnehmbare Unschärfe.

Beispiel:

Pixel Pitch:
Sony Alpha 7S III Body 35.6 x 23.8 mm 12.1 MP 8.4 µm 2020
Sony Alpha 7R IV Body 35.7 x 23.8 mm 61.0 MP 3.7 µm 2019

Zertreuungskreisdurchmesser (etwa Durchmesser d/1500):
Vollformat 0,03mm

Ein Bildpunkt wird also noch akzeptabel unscharf abgebildet, wenn er z.B. 50 Pixel belichtet.
Axel hat geschrieben:
Di 04 Mai, 2021 08:02
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.
Der Bildpunkt ist das hypothetische Gegenstück zum Pixel. Es ist für visuelle Menschen wie mich einfacher, ihn mir als einen motivlichen Gegenstand aus der realen Welt vorzustellen, in Wirklichkeit ist es ein RGB-Wert. Per definitionem (Punkt, nicht Fläche) soll er vom kleinsten Bildelement des Sensors (=Pixel) dargestellt werden. Ist der durch die Sammellinse projizierte Strahl unangemessen breit, streut er auf mehrere Pixel, und das Bild ist unscharf.
Ja - der Brennpunkt liegt nicht direkt auf dem Sensor und der Bildpunkt wird dadurch zerstreut und unscharf. Aber bis zu einer (von der Sensorgröße abhängigen) gewissen Unschärfe wird er noch als scharf wahrgenommen.
Bild
Axel hat geschrieben:
Di 04 Mai, 2021 08:02
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Niemals ein scharfes Bild zu haben? Was ist mit Einzoomen in diese Megapixel-Matsche?
iasi hat geschrieben:
Mo 03 Mai, 2021 22:17
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Ich habe mich redlich bemüht, wirklich, die Unterschiede zwischen Schärfe und Auflösung herauszuarbeiten. Jetzt soll mal jemand anders.
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.

Und für die, die denken, die Schärfentiefe sei nicht von der Sensorgröße abhängig:
Es geht einfach gesagt immer auch um den Vergrößerungsfaktor:
Denn der "noch scharfe" Zerstreuungskreis von 0,03mm Durchmesser beim Vollformat ist im Verhältnis zur Sensorgröße eben bei einem 1 Zoll-Sensor sehr viel größer.
Bei gleichem Bildausschnitt und "Normalbrennweiten" wird der 0,03mm-Kreis nun einmal unterschiedlich große Bereiche auf den Sensor abdecken.
Zuletzt geändert von iasi am Di 04 Mai, 2021 10:46, insgesamt 2-mal geändert.




dosaris
Beiträge: 1443

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von dosaris » Di 04 Mai, 2021 10:37

von der Anschauung ist es vielleicht sogar recht einfach darzustellen:

Zertreuungskreisdurchmesser ergibt sich aus der Objektiv-Konstruktion (+ Blende etc)
Sensel-/Pixel-Auflösung ist von der SensorChip-Konstruktion abhängig.

Beides ist völlig unabhängig voneinander




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Di 04 Mai, 2021 11:14

iasi hat geschrieben:
Di 04 Mai, 2021 10:30
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.
Ich habe deswegen eben verschiedene Definitionen noch einmal gegoogelt. Der Bildpunkt ist der Farbwert einer Rasterzelle, a.k.a. Pixel. Ein Pixel hat deshalb in Wirklichkeit keine Ausdehnung, weil es nur einen Punkt beschreibt (Punkt/Bildpunkt = ohne Ausdehnung).
Die Punktdichte, die Verteilung von Pixeln auf einer Fläche, ist effektiv die Auflösung.

Mit anderen Worten: da Bildpunkt und Pixel Synonyme sind, defnieren sie weder Schärfe noch Auflösung.

Schärfe ist streng definiert durch die Anzahl der Linien auf einem Testchart, die unterscheidbar sind. Die Auflösung ist dabei ein in der Praxis wichtiger Faktor, siehe Objektiv-Test. Beachte auch, dass ein Betrachter die Linien unterscheidet, dass er also selbst mehr oder weniger tolerant gegenüber Unschärfe ist. Das ist notwendig, weil es, wie hier sehr oft erwähnt, in der Praxis eigentlich nur relative Unschärfe gibt und selbst eine auf Nanometer genau eingestellte Entfernung viele Toleranzen (z.B. Fertigungstoleranzen des Objektivs) schon hinter sich hat.

Auflösung selbst ist durch die Anzahl der Pixel im Raster definiert. Es gibt keine Zuordnung zu einer festen Größe, diese geschieht erst durch die Interpretation / Ausgabe / Darstellung. Je größer das interpretierte Bild, umso mehr Abtastlücken, die nur durch mehr Pixel gefüllt werden könnten, also eine höhere Auflösung. Das Medium, das die Kamera-Pixel darstellt, besitzt eine eigene Pixeldichte, und die ursprünglich abgetasteten Werte werden immer neu verteilt und skaliert (siehe Yedlin).
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Di 04 Mai, 2021 12:26

Axel hat geschrieben:
Di 04 Mai, 2021 11:14
iasi hat geschrieben:
Di 04 Mai, 2021 10:30
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.
Ich habe deswegen eben verschiedene Definitionen noch einmal gegoogelt. Der Bildpunkt ist der Farbwert einer Rasterzelle, a.k.a. Pixel. Ein Pixel hat deshalb in Wirklichkeit keine Ausdehnung, weil es nur einen Punkt beschreibt (Punkt/Bildpunkt = ohne Ausdehnung).
Die Punktdichte, die Verteilung von Pixeln auf einer Fläche, ist effektiv die Auflösung.

Mit anderen Worten: da Bildpunkt und Pixel Synonyme sind, defnieren sie weder Schärfe noch Auflösung.

Schärfe ist streng definiert durch die Anzahl der Linien auf einem Testchart, die unterscheidbar sind. Die Auflösung ist dabei ein in der Praxis wichtiger Faktor, siehe Objektiv-Test. Beachte auch, dass ein Betrachter die Linien unterscheidet, dass er also selbst mehr oder weniger tolerant gegenüber Unschärfe ist. Das ist notwendig, weil es, wie hier sehr oft erwähnt, in der Praxis eigentlich nur relative Unschärfe gibt und selbst eine auf Nanometer genau eingestellte Entfernung viele Toleranzen (z.B. Fertigungstoleranzen des Objektivs) schon hinter sich hat.

Auflösung selbst ist durch die Anzahl der Pixel im Raster definiert. Es gibt keine Zuordnung zu einer festen Größe, diese geschieht erst durch die Interpretation / Ausgabe / Darstellung. Je größer das interpretierte Bild, umso mehr Abtastlücken, die nur durch mehr Pixel gefüllt werden könnten, also eine höhere Auflösung. Das Medium, das die Kamera-Pixel darstellt, besitzt eine eigene Pixeldichte, und die ursprünglich abgetasteten Werte werden immer neu verteilt und skaliert (siehe Yedlin).
Bildpunkt und Pixel sind keine Synonyme.
Der scharfe Bildpunkt wird erzeugt, wenn der Brennpunkt exakt auf dem Sensor liegt.

Und selbst wenn du unter Bildpunkt ein Pixel verstehen willst, so ist dies bei einem Bayer-Sensor auch schon nicht mehr richtig.

Bei der Schärfentiefe spielt die Anzahl der Pixel keine Rolle.

Und auch Klusters Test liegt falsch, denn er vergleicht letztlich nur immer dieselbe Sensorfläche von 1 Zoll bei gleichem Bildwinkel.
Denn wenn man einen 1 Zoll Crop bei gleicher Blende, Brennweite und Abstand betrachtet, dann ist es eben immer eine 1 Zoll Sensorfläche - und dann ist natürlich klar, dass sich nichts unterscheidet, denn es gibt beim ganzen Versuchsaufbau keine Unterschiede.

Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun.
Unbenannt 1.jpg
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.




Axel
Beiträge: 13870

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Axel » Di 04 Mai, 2021 13:02

iasi hat geschrieben:
Di 04 Mai, 2021 12:26
Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun.
Unbenannt 1.jpg
Das berücksichtigt nicht, dass der kleinere Sensor eine größere Pixeldichte haben kann als der größere. So ist es in dem Beispiel A6500-A7S nämlich. Heißt, dass die APSC-Kamera einen präziseren Fokus benötigt. Heißt wie gesagt nicht, dass sie ein höheres oder auch nur gleiches Freistellungspotenzial hat. Das scheint der einzige Punkt zu sein, auf den wir beiden uns einigen können.
Na und? Im Fernsehen wird ja auch alles wiederholt ...




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Di 04 Mai, 2021 14:38

Axel hat geschrieben:
Di 04 Mai, 2021 13:02
iasi hat geschrieben:
Di 04 Mai, 2021 12:26
Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun.
Unbenannt 1.jpg
Das berücksichtigt nicht, dass der kleinere Sensor eine größere Pixeldichte haben kann als der größere. So ist es in dem Beispiel A6500-A7S nämlich. Heißt, dass die APSC-Kamera einen präziseren Fokus benötigt. Heißt wie gesagt nicht, dass sie ein höheres oder auch nur gleiches Freistellungspotenzial hat. Das scheint der einzige Punkt zu sein, auf den wir beiden uns einigen können.
Nochmal: Bei Zerstreuungskreisdurchmesser von 0,03 oder 0,019mm spielen Pixelabständen zwischen 0,002 oder 0,008 keine Rolle.
Die größere Pixeldichte erzeugt nur eine feinere Auflösung der optischen Unschärfe, ändert aber nichts an der Unschärfe. Man müsste schon Kleinbildsensoren mit PAL-Auflösung nehmen, um den Anschein von Schärfe zu erzeugen, indem der zertreute Punkt gerade mal ein Pixel abdeckt und zu einem Bildpunkt gerechnet wird. Das wäre dann ein Aufrastern.

Nochmal ein Beispiel:

Focal length (mm) 50
Selected f-stop 2.8
Subject distance 10m


circle of confusion 0,001mm -->
Depth of field
Near limit 9.89 m
Far limit 10.1 m
Total 0.23 m

circle of confusion 0,010mm -->
Depth of field
Near limit 8.99 m
Far limit 11.3 m
Total 2.28 m

circle of confusion 0,020mm -->
Depth of field
Near limit 8.16 m
Far limit 12.9 m
Total 4.74 m

circle of confusion 0,030mm -->
Depth of field
Near limit 7.48 m
Far limit 15.1 m
Total 7.62 m

Und nochmal: circle of confusion = Sensordiagonale /1500


Wir können auch noch etwas vergleichen:

Vollformat
also circle of confusion 0,030mm
Focal length 50mm also Normalbrennweite
Selected f-stop 2.8
Subject distance 10m

Depth of field
Near limit 7.48 m
Far limit 15.1 m
Total 7.62 m


MFT
also circle of confusion 0,015mm
Focal length 25mm also Normalbrennweite
Selected f-stop 2.8
Subject distance 10m

Depth of field
Near limit 5.96 m
Far limit 31 m
Total 25 m




Jott
Beiträge: 19199

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von Jott » Di 04 Mai, 2021 14:45




iasi
Beiträge: 17052

Re: Sensorgröße nicht für Schärfentiefe verantwortlich

Beitrag von iasi » Di 04 Mai, 2021 15:01

Jott hat geschrieben:
Di 04 Mai, 2021 14:45
Ja - schau nur, wie scharf das alles Dank der 480p-Auflösung wirkt.
Es scheint wirklich als sei alles gleich scharf. :)




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» GH5 Mark 2 leak
von -paleface- - Di 11:34
» Hype-Alarm: Filme als NFTs mit Blockchain-Technologie verkaufen und reich werden?
von Frank Glencairn - Di 11:08
» Impfung für Medienschaffende?
von iasi - Di 11:06
» Leica SL2-S mit verbessertem Video-AF und interner 4K 10 Bit 60p Aufnahme (H.265)
von Phili - Di 10:22
» Neues L-Mount Zoom Leica Vario-Elmarit-SL 1:2.8/24–70 ASPH verfügbar
von cantsin - Di 10:01
» Biete DJI Zenmuse X5 Kamera
von Remoulade - Di 9:46
» Blackmagic Pocket Cinema Camera 6K Pro - Erweiterte Ausstattung, Rolling Shutter und Debayering
von ruessel - Di 9:03
» Drohnenführerschein
von carstenkurz - Mo 23:22
» Was schaust Du gerade?
von klusterdegenerierung - Mo 23:15
» RCM Input Colorspace Arri-C vs SGamut3
von klusterdegenerierung - Mo 21:49
» Solider DIY Dual Handle
von klusterdegenerierung - Mo 21:39
» BIETE sennheiser md421-n (reserviert)
von srone - Mo 19:50
» Kurzfilm "Upgrade" zum Thema Selbstoptimierung
von joerg-emil - Mo 18:57
» Intel relativiert Apples M1 Benchmarks
von motiongroup - Mo 17:38
» Ohrwurm Lavalier 2021
von ruessel - Mo 15:52
» Neuer Samsung Odyssey G9 49" 5K Monitor bringt MiniLED-Zonen und Verwirrung um DisplayHDR 2000
von slashCAM - Mo 14:03
» Angelbird AtomX CFast Adapter
von funkytown - Mo 12:33
» LUTs in Lumetri unter Premiere Pro CC richtig anwenden
von DeeZiD - Mo 11:56
» CinePI - CDNG RAW Kamera auf Raspberry Pi 4 Basis
von cantsin - Mo 11:03
» Sony A7S III - Fragen zu Picture Profiles und der Bearbeitung in Final Cut
von Axel - Mo 10:25
» Coronian Harmonists
von joerg-emil - Mo 9:25
» Zhiyun Image Transmitter
von Axel - Mo 8:18
» LG UltraFine Display OLED Pro 65EP5G: Professioneller 65" 4K OLED Grading Monitor
von norbi - Mo 3:02
» Ich brauche mal Hilfe.
von rdcl - So 19:00
» Die Österreicher sind wieder da
von klusterdegenerierung - So 16:36
» Sony A-Mount EOL? Keine Sony Alpha SLTs mehr auf Sony.com Seiten
von slashCAM - So 11:09
» Mit HLG filmen
von Kuraz - So 7:55
» Unser neuer Kinofilm "Marlene" - Trailer und Kinostart
von Bluboy - So 1:52
» Was hörst Du gerade?
von klusterdegenerierung - So 0:50
» Der Sensor der Sony A1 - Rolling Shutter und Debayering
von roki100 - Sa 23:30
» BMPCC: RAWLITE OLPF vorher / nachher
von roki100 - Sa 22:32
» From micro to space with the Pocket 6K Pro
von ruessel - Sa 15:39
» >Der LED Licht Thread<
von soulbrother - Sa 12:52
» Darsteller für kleines Filmprojekt geuscht
von TwoBeers - Sa 12:15
» Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018
von soulbrother - Sa 11:48
 
neuester Artikel
 
Sony A1 - Rolling Shutter und Debayering

Nach Canon mit der R5 versucht nun auch Sony 8K-Video im DSLM-Format interessierten Nutzern schmackhaft zu machen. Wir haben schon mal einen Blick auf die Fähigkeiten des A1-Sensors geworfen... weiterlesen>>

LUTs in Lumetri unter Premiere Pro

Wer eine LUT unter Lumetri in Premiere Pro benutzt, sollte sich nicht wundern, wenn der volle Dynamikumfang des Ursprungmaterials danach nicht mehr zur Verfügung steht. Denn die Reihenfolge der Bearbeitungsschritte ist nicht egal, wie Gastautor Steffen Hacker im folgenden näher ausführt... weiterlesen>>

neuestes Video
 

Aktuelles Video:
concatenation 2 OLYMPIC GAME

Die olympischen Spiele als großes bewegtes Puzzle, bei dem man sich die Teilchen passend zuschneiden kann -- genug Geduld vorausgesetzt...