Tiefenschärfe ist ein Begriff, der aus der Kinoprojektion praktisch bekannt ist (wahrscheinlich nicht nur dort, aber das Prinzip erklärt ganz gut die wechselseitige Beeinflussung von "Sensor"-Größe und Brennweite).
Stell dir vor, du hast eine 5 m breite Leinwand und einen Abstand zum Projektor von 15 m. Das ist unproblematisch, da der Abstand der Optik zur Leinwandmitte 15 m beträgt, der zum linken und rechten Bildrand aber 15,20 m. Diese 20 cm sind absolut innerhalb der Toleranz, es wird alles scharf abgebildet werden.
So kleine Leinwände gibt es in modernen Kinos praktisch nicht mehr. Durchschnittlich wäre bei einer Saallänge von 15 m eine
10 m Leinwand. Dann ist der Unterschied nicht mehr 20 cm, sondern 80 cm. Es können nur entweder die Mitte oder die Seiten scharf eingestellt werden. Abhilfe schafft hier nur entweder eine gebogene Leinwand (die bessere Lösung) oder ein sehr teures Spezialobjektiv, das aber erstens Licht schluckt und zweitens eine sehr geringe Tiefenschärfentoleranz hat. Bereits ein anderes Filmmaterial (dicker oder dünner) und andere Faktoren lassen das Bild aus dem Fokus rutschen.
Hier hast du das Modell für die Erklärung: Je unterschiedlicher die Weglänge des Lichts vom Brennpunkt zu jedem Bildpunkt auf der Sensorfläche, umso geringer die Schärfentiefe.
Das ist
ein Faktor. Der andere hat mit dem Chip nur indirekt zu tun, sondern betrifft das Verhältnis zwischen der minimalen Ausdehnung eines Bildpunkts (u.a. eine Frage der
Qualität und Eignung der Optik) und der tatsächlichen Größe eines Pixels/resp. Filmkorns. Besitzt der Bildpunkt auf der Sensorfläche einen größeren
>Zerstreuungskreis als die Fläche des Pixels, wird er nicht scharf abgebildet.
Das erklärt auch, warum bei gleicher Sensorgröße eine DV-Kamera deutlich mehr Schärfentiefe produziert als eine HD-Kamera, und wieso der Overkill an Auflösung der Mark II - für die Videofunktion - die Schärfentiefe noch weiter reduziert.
Na und? Im Fernsehen wird ja auch alles wiederholt ...