Frage von Hesse:
Antwort von beiti:
Ein ganz hervorragendes Video, finde ich. Sehr ausführlich und genau; die Materie ist nun mal komplex. Leider dürfte es trotz der Ausführlichkeit nur für Leute verständlich sein, die schon solide Grundlagen der Foto- bzw. Videotechnik haben. Dass ein kompletter Anfänger es - trotz der Ausführlichkeit - sofort kapiert, ist unwahrscheinlich.
Man müsste die Kernaussage herausdestillieren, etwa auf den Satz:
Wer Brennweiten auf KB-Format umrechnet, muss auch die Lichtstärke auf KB-Format umrechnen.
EDIT:
Und den ISO-Wert natürlich auch.
In der Praxis gäbe es sogar noch mehr zu dem Thema zu sagen als im Video, z. B. dass wegen physikalischer Grenzen nicht alle Brennweiten und Lichtstärken, die rechnerisch möglich wären, auch tatsächlich gebaut werden können. Speziell im DSLR-Video-Grenzbereich kommt noch die Lineskipping-Problematik hinzu, wegen der nicht alle Sensoren nur anhand ihrer Fläche verglichen werden können.
Antwort von Hesse:
Ich finde,es ist wert, nach oben geschoben zu werden. Die Frage danach wird oft gestellt.
Antwort von Skeptiker:
Ein toller Link, ein schwieriges Thema, ein guter Mann (Tony Northrup), ein erhellendes Video!
Eigentlich geht es weniger um den Cropfaktor als um die Themen 'Lichtstärke' und 'Blende'. Der Cropfaktor kommt natürlich über die Sensorgrösse bzw. das effektive Bild-Format hinzu.
Beiti hat die Kernaussage ja schon in einen Satz gefasst:
Wer Brennweiten auf KB-Format umrechnet, muss auch die Lichtstärke auf KB-Format umrechnen.
Man könnte noch ergänzen: "... wenn man jeweils den gleichen Bildausschnitt (Bildwinkel) und die gleiche Bildtiefe (Schärfentiefe) betrachtet.".
"Ist doch klar!", wird man nun hören.
Mag sein, aber SO auf den Punkt gebracht (und es den Herstellern - was deren Werbung betrifft - mit 'it stinks!' unter die Nase gehalten) hat's bisher keiner!
Das Originelle und Interessante an den Erklärungen ist der Wechsel der Perspektive: Statt wie sonst üblich von der Kamera auszugehen und dem technischen Weg bis zum Bild zu folgen, wird hier vom gewünschten Bild ausgehend zur Kamera zurückgeblickt: Was muss ich dort neu einstellen, um dasselbe Bilderergebnis wie bei Vollformat zu erzielen (Vollformat ist in der Argumentation stets die Referenz, weil eben auch die - leider nicht ganz ehrliche - Werbung darauf abzielt).
Und wenn man das konsequent tut, dann wird aus einem angeblichen (die Brennweiten jeweils auf 35mm Vollformat umgerechnet)
Panasonic MFT (Micro 4/3) 24-70mm/2.8 plötzlich ein 24-70mm/5.6
oder aus einem angeblichen
Sony 24-200mm/2.8 (für die RX10) ein 24-200mm/7.6
oder aus einem angeblichen
Olympus 28-300/2.8 (für die Stylus 1) ein 28-300mm/13.0
->> Macht doch einen Unterschied ;-(
Alles in allem ist das Video trotz gewisser Vereinfachungen ein Geistesblitz im Einheitsbrei !
Antwort von cantsin:
Nein, bitte nicht dieses viral gewordene Video auch hier noch verbreiten!
Darin wird totaler, hanebüchener Bullshit erzählt. (Und die Leute glauben es, weil der Typ so überzeugt von sich selbst ist und das in Motivationstrainerrhetorik rüberbringt.)
Die Logik kann man ungefähr so zusammenfassen: Ein VW Polo hat kleinere Räder als eine Mercedes S-Klasse, also müssen sie sich doppelt so schnell drehen, damit das Auto 100 km/h fährt, ergo ist der Polo real nur halb so schnell wie der Mercedes und sind die 100 km/h des Polo keine echten 100 km/h, und VW verarscht seine Verkäufer.
Hier hoffentlich etwas Begriffsklärung:
Stellt Euch ein Foto vor, dass mit einer Nikon D800 mit Full Frame-Sensor in voller 36 Megapixel-Auflösung mit einem 50mm-Objektiv mit Blende 2.8 geschossen wurde, z.B. dieses hier
(Original auf der Seite http://bijansabet.com/post/41111281210/ ... f-2-8-50mm)
Stellt Euch eine APS-C-Kamera mit einem Sensor vor, der aus dem gleichen Die wie der Sensor der Nikon D800 geschnitten ist, aber eben im kleineren APS-C-Format. APS-C misst jeweils zwei Drittel der horizontalen und vertikalen Länge eines 35mm-Kleinbildsensors (= 'Cropfaktor' 1,5), was im Quadrat einer Halbierung der Sensoroberfläche entspricht. An ISO, Dynamik, Farben würde sich ggü. dem Full Frame-Bild nichts verändern, denn die Sensorpixel sind ja die gleichen. Das Bild hätte in diesem Fall nur weniger Auflösung, nämlich genau die Hälfte = 18 Megapixel. Würde man das obige Bild mit dieser Kamera und demselben 50mm-Objektiv bei Blende 2.8 schiessen, würde sich an der Belichtung nichts ändern, und es würde genauso aussehen wie oben, nur mittig auf zwei Drittel seines Originalformats beschnitten:
Stellt Euch jetzt eine Micro Four Thirds-Kamera mit einem Sensor vor, der wiederum aus dem gleichen Die wie der Sensor der Nikon D800 geschnitten ist, aber eben im noch kleineren MFT-Format. Dann also: mit der Hälfte der horizontalen und vertikalen Länge des Full Frame-Sensors und ergo einem Viertel der Sensoroberfläche. Die Auflösung wäre nun 9 Megapixel. Wiederum würde an der sonstigen Bildqualität, an ISO etc. nichts ändern. Würde man wieder mit dem gleichen Objektiv bei gleicher Blende schiessen, erhielte man dieses Resultat:
Bei 1"-Sensoren (wie bei Nikon 1, Sony RX100, Blackmagic Pocket), die aus dem Die des Nikon D800-Sensors geschnitten wären, wäre die Auflösung nun 4 Megapixel, und das Bild mit 50mm/2.8 das folgende:
In diesem Szenario erhielte man mit allen Sensorgrößen, von Full Frame bis runter zu 1", identische Bildqualität zur Nikon D800 bis auf die Pixelauflösung. Bei der Verwendung desselben Objektivs an den verschiedenen Sensoren verändert sich der Bildausschnitt: Er wird kleiner, je kleiner der Sensor ist. Aber: weder verändert sich die Brennweite des Objektivs (es bleibt immer ein 50mm-Objektiv), noch die Blende (sie bleibt immer 2.8). Und selbst die Tiefenschärfe bleibt die gleiche, wie oben in den Bildern zu sehen.
Der einzige Grund, weshalb Kameras mit kleineren Sensoren mehr rauschen und schlechtere Dynamik und schlechteres ISO-/Lowlight-Verhalten haben, ist, dass die Kamerahersteller unsinnig viele Megapixel auf die Sensor packen und damit die Lichtaufnahme (und somit Dynamik und Signal-Rauschabstand) der Sensoren verschlechtern. Wenn es unter Herstellern und Käufern Konsens gäbe, für kleinere Sensoren entsprechend weniger Megapixel in Kauf zu nehmen, gäbe es dieses Problem nicht, und man hätte selbst mit einer Knipse wie der RX100 D800-Qualität bei 4 Megapixeln.
Deshalb liefert ja z.B. auch eine Kamera wie die Blackmagic Pocket mit 2 Megapixel auf einem 1"-Sensor mehr Dynamik als z.B. eine auf Megapixel getrimmte APS C-Kamera. Dieses Beispiel reicht schon, um die Aussage des Videos komplett zu widerlegen.
Im Video wird krude behauptet, dass die Verschlechterung der ISO-Empfindlichkeit eine mathematische Gesetzmäßigkeit kleinerer Sensoren ist - totaler Quatsch. Sie wäre es selbst dann nicht unbedingt, wenn die Kamerahersteller die Megapixelzahl auf allen Sensorgrößen konstant halten würden. (Also überall 36 MP von Full Frame runter bis 1".) Ein moderner APS-C-Sensor (wie z.B. der Sensor der Sony A6000) kann bessere Dynamik und ISO-/Rauschverhalten als ein alter Full Frame-Sensor (z.B. der ersten Version der Canon 5D) haben, weil die Sensortechnologie inmittels verbessert ist und den Sensor durch Techniken wie backside illumination mehr Licht einfangen lässt.
Videos wie dieses Scharlatanprodukt können einen manchmal am Internet verzweifeln lassen.
Antwort von raketenforscher:
@cantsin, thumbs up.
Ich staune, dass man in einem Videoforum, das noch erklären muss. Und bei einer Cropcamera hat man bei gleicher Blende und Brennweite mehr Schärfentiefe, wenn im Vergleich zum Vollformat, der Bildwinkel gleich bleiben soll. Weil man weiter weg vom Motiv muss.
Antwort von Skeptiker:
Die Hauptaussage des Videos ist:
Wenn man ein 12-35mm MFT(Halbformat)-Objektiv mit Lichtstärke 2.8 als 24-70mm/2.8 bewirbt (also auf Vollformat umgerechnet), dann sagt man nicht die ganze Wahrheit, denn eigentlich müsste man schreiben: 24-70mm/5.6, da man damit nicht nur das Format vergrössert (den Cropfaktor 2 auf die Brennweite anwendet), sondern auch das Licht (die maximale Blende (eigentlich ABBILDUNG der Blende) 2.8 = originale Brennweite (35mm) durch "grösstmögliche Objektivöffnung" (12.5mm, die sich bei der Umrechnung nicht ändert)) gedanklich auf eine grössere Fläche (das grössere Format) verteilt.
Dazu bringt er am Ende das Beispiel des Metabones Speedboosters, der als "umgekehrter Telekonverter" durch Verkleinern des Vollformat-Bildausschnitts auf APS-C das Gegenteil tut und damit eine Blende gewinnt (die Formatanpassung auf APS-C (Annahme: Cropfaktor=1.5) gelingt dabei nicht ganz, es bleibt ein kleiner Restcrop (1.5/1.41), da der Speedbooster-Reduktionsfaktor nur 1.41 statt 1.5 ist).
Wenn ich meine Schachtel- und Klammersätze so lese, sind jetzt wahrscheinlich alle Klarheiten beseitigt ;-( - sorry ; -)
Antwort von beiti:
@cantsin
Was Du da zeigst, sind unterschiedliche Bildausschnitte mit derselben physikalischen Brennweite. Darum geht es überhaupt nicht. Es geht um die Umrechnung von Brennweiten, um vergleichen zu können - also darum, wie man denselben Bildausschnitt mit verschiedenen Sensorgrößen erreicht.
Ich beschäftige mich schon länger mit der Problematik, nicht erst seit dem Northrup-Video. In den Foto-Foren wird die Problematik auch schon viel länger diskutiert. Ist nicht so, als wäre da jetzt irgendein Guru aufgetaucht, der uns irgendwelche blödsinnigen Umrechnungen auftischt.
Stellt Euch eine Photovoltaik-Anlage vor, die Licht sammelt. Die hat einen Wirkungsgrad von z. B. 10 %. Den hat sie immer, egal wie groß sie ist. Sie setzt also 10 % des Sonnenlichts in Energie um.
Wenn die Anlage nun insgesamt die vierfache Fläche hat, bringt sie auch bei gleicher Sonneneinstrahlung die vierfache Leistung.
Genauso ist das mit den ISO-Empfindlichkeiten - ganz theoretisch betrachtet und völlig befreit von der Diskussion, ob vielleicht kleinere Pixel nachteilig sind.
Die Theorie geht erst mal davon aus, dass die Sensoren alle gleich gut sind. Sollten die kleinen Sensoren aufgrund des Pixel-Übermaßes etwas schlechter sein, käme dieser Nachteil zum rechnerischen Nachteil noch hinzu.
Vergessen wir nicht:
Der ISO-Wert ist ein Wert, der die Oberflächenempfindlichkeit des Sensors beschreibt, ähnlich wie der Wirkungsgrad eines Solarmoduls.
Der Blendenwert beschreibt die Eintrittspupille in Relation zur Brennweite, also nicht ihre absolute Größe.
Ich zitiere mich mal selbst aus einem anderen Forum:
Nein, es geht genauso um die Gesamt-Lichtempfindlichkeit. ISO-Werte sind "Empfindlichkeit pro Fläche" (denk an analoges Filmmaterial: das Material behält immer seinen ISO-Wert, egal ob in KB-Format oder als großer Planfilm geschnitten). Also hat ein Sensor mit vierfacher Fläche - bei identischem ISO-Wert - die vierfache Gesamt-Lichtempfindlichkeit.
Der Zusammenhang wird uns bewusster, seit es den Metabones SpeedBooster gibt. Der wird auch im Video zwecks Veranschaulichung erwähnt.
Für die Lichtmenge, die ein Objektiv einfängt, zählen zwei Dinge: der Bildwinkel und der Durchmesser der Frontlinse (vereinfacht gesagt). Mit der Brennweite des Objektivs kann man den Bildwinkel steuern, also auf welche Sensorgröße das Licht zusammengestaucht wird.
Beispielsweise wenn ich denselben Bildausschnitt einmal auf KB und einmal auf FourThirds abbilden will, brauche ich für KB die doppelte Brennweite wie für FourThirds.
Solange die Frontlinse (genauer: Offenblende) des Objektivs gleich groß ist, kommt an beiden Sensoren die gleiche Gesamt-Lichtmenge an. Beide werden (wenn sie - was natürlich Theorie bleibt - exakt die gleiche Sensortechnologie verwenden) also das gleiche Bild liefern mit identischem Rauschniveau. Unabhängig von der Sensortechnologie sind Bildausschnitt und Schärfentiefe identisch.
Allerdings weichen die Blenden- und ISO-Werte voneinander ab: Wenn der FourThirds-Sensor ISO100 verwendet, muss der KB-Sensor bereits ISO400 verwenden, weil beide dieselbe Gesamt-Lichtmenge abbekommen, aber der ISO-Wert keine Sensorgröße berücksichtigt. Wenn das Objektiv an FourThirds 50 mm lang ist, muss das Objektiv an KB 100 mm lang sein, weil sonst nicht der gleiche Bildausschnitt rauskommt. Wenn das FourThirds-Objektiv Blende 2,8 verwendet, hat das KB-Objektiv Blende 5,6; das ergibt sich aus dem identischen Frontlinsendurchmesser bei unterschiedlichen Brennweiten.
Die ganze Umrechnung bleibt natürlich modellhaft und theoretisch. Dass es aus physikalischen Gründen kein FourThirds-Objektiv mit f0.25 gibt und auch keinen FourThirds-Sensor mit einer Grundempfindlichkeit von ISO25 (ohne, dass man die Empfindlichkeit insgesamt dämpft), ist ein anderes Thema. Es geht um faire Vergleiche, nichts weiter. Wenn ich feststelle, dass ich eine bestimmte Lichtempfindlichkeit in der Praxis eben nur mit KB-großem Sensor erreiche oder eine bestimmte Schärfentiefe nur mit einen 1"-Sensor, wäre das bereits eine nützliche Erkenntnis daraus.
 |
Antwort von HeldvomFeld:
@cantsin
abgesehen davon, dass es im video nicht darum geht, was du erklärst, ist das Video sehr theoretisch und geht natürlich davon aus dass die Sensoren gleich sind, nur halt verschiedene Größen. Dass neuere mft Sensoren mehr Dynamik und besseres Rauschverhalten als alte FF Sensoren haben können, ist klar und nicht Thema des Videos.
Antwort von Jan:
Cropen ist kein Telekonverter, ich weiß nicht warum das Thema so schwer zu begreifen ist.
Dann müssten ja alle Kompaktkameras mit 1/2,3" Sensor eine Lichtstärke / größte Blende von 21 haben (4,3 mm Originalbrennweite mit f 3,5).
Keine Kamera kann mit Lichstärke 21 noch scharfstellen, das ist bei einigen schon bei 8 unmöglich !!!
Vergleicht bitte nicht einen Speedbooster oder Telekonverter mit einem Crop.
Das einzige was man hinterfragen kann, sind die ISO bei allen Kameras gleich definiert bei allen Sensorgrössen, ich denke nein.
Ich denke die Verstärkung passt der Hersteller selbst an, aber dazu kann WoWu sicher mehr sagen.
Bei einem Vergleich zwischen zweier aktueller Sony Kameras, einmal APS-C und einmal Vollformat, gleicher Belichtung, gleicher voreingestellter ISO, dort war das Bild gleich belichtet. Trotzdem definieren die Firmen das bei allen Modellen wohl nicht gleich, genau wie 16 DB Gain bei Sony nicht 16 DB Gain bei Canon sind.
VG
Jan
Antwort von WoWu:
Ich stimme mit Tony Northrup ja völlig überein, dass ISO eine absolut untaugliches Verfahren für die digitale Technik darstellt und finde den Beitrag zwar etwas populistisch und in seinen Herleitungen auch ziemlich obskur, aber er hat wenigstens mal den Finger in die Wunde gelegt.
Aber seine Thesen sind doch ziemlich gewagt, zumal dann eine schwache Herleitung kommt.
Z.B. Der kleine Sensor ist nicht "noisiger."
Es stimmt zwar, was er sagt, aber aus andern Gründen, denn bei ihm hiess das nur:
Dreh das ISO auf 200 und dann hast Du dasselbe Ergebnis, sagt aber nicht, dass man dann gleichzeitig etliche kW mehr Licht braucht und sagt auch nicht, dass das nur für ein "Mittelfeld" an Einstellungen gilt, aber nicht in den extremen Bedingungen -dunkel und hell-.
Auch sagt er nicht, dass grosse Sensors -und das ist auch nicht richtig, eigentlich sind es die grossen Pixels, meistens das größere maximale Fassungsvermögen für Ladungsträger (FullWell-Kapazität) haben und können dadurch ein besseres (effektiv) maximales Signal-Rausch-Verhältnis erreichen.
Auch steigt häufig die Intraszenen- Dynamik eines Bildsensors mit der FullWell- Kapazität, die sich aus dem Verhältnis von FullWell-Kapazität zu Ausleserauschen bestimmt.
Er hat also nur einen ganz schmalen Streifen des Spektrums (populär) beleuchtet.
Ähnlich hat er es dann auch bei der Tiefenschärfe gemacht.
Also die Themen nur sehr schmal angesprochen, weil sich Gleichheiten besser durch Bilder belegen lassen, Unterschiede aber erklärt werden müssen.
Das macht sich nicht so gut in einem Video.
Und was er auch gar nicht bei den Crop Geschichten angesprochen hat ist, dass die Objektive für ganz andere Auflösungen (4 x geringer) gerechnet worden sind und damit auch entsprechend weniger Objektivleistung im Crop erbringen, was sich auch deutlich in der MTF auswirkt. Hier hätte also dringend die Korrelation zur Pixelgrösse erfolgen müssen.
Ähnlich der Speed Booster. Das war ja 'ne reine Werbeveranstaltung.
Wenn ich sehe, wie die aktiven Cine Adapter die wir von PL auf 2/3" haben, das machen, und einen relativ kleinen Schritt mit 3 Linsengruppen zu je 4 Linsen arbeiten, und im Bereich von 5000$ kosten, sein SpeedBooster aber einen wesentlich grösseren Schritt mit 4 Linsen hinbekommt, dann hätte er das Ding mal besser untersuchen sollen, statt dafür Werbung zu machen.
Aber generell hat er etwas sehr kluges gesagt und so mancher ist da noch lange nicht angekommen:
You can't break the physics.
Und ich finde es auch gut, dass er endlich mal die Objektivumrechnungen auf den Tisch gebracht hat und das Schindluder, das die Firmen damit betreiben.
Aber hier im Forum fallen ja auch immer wieder einige darauf rein.
Das kleine 1 x 1 muss unheimlich schwer sein. ;-)
Antwort von Jan:
Tony Northrup müsste eigentlich selber auffallen, dass er da großen Mist verzapft.
Er zeigt bei ca. Minute 15, dass ein MFT Bild mit 200 mm, F 5,6 und ISO 3600 und einem Vollformatbild mit 100 mm, F 2,8 und ISO 800 entspricht. Das ist aber die gleiche Belichtung. Aktuell wird leider rausposaunt, dass die MFT lichtschwächer wären, dem ist aber nicht so.
Denn f 5,6 mit ISO 3600 ist nun mal F 2,8 mit ISO 800, dass weiß jeder Foto Lehrling, wenn der Shutter gleich ist.
Fakt ist nur, dass die ISO verschieden definiert wird und damit das Bild zu hell oder zu dunkel sein kann, in einem Vergleich meinerseits zweier aktueller Sony Kameras (A7 (FF) und A 6000 (APS-C)) ist das aber auch nicht der Fall gewesen.
Der Vergleich hinkt auch dermaßen, weil es eine Vielzahl an Modellen gibt, die verschiedene Einzelpixelgößen besitzen und eine Vielzahl an weniger guten oder sehr guten Prozessoren und Einzelkomponenten.
Will heißen eine Sony A 6000 mit APS-C und 24 Mio Pixel hat die gleich großen Pixel wie die MFT Olympus M 10 mit 16 Mio.
VG
Antwort von beiti:
Er zeigt bei ca. Minute 15, dass ein MFT Bild mit 200 mm, F 5,6 und ISO 3600 und einem Vollformatbild mit 100 mm, F 2,8 und ISO 800 entspricht. Das ist aber die gleiche Belichtung. Aktuell wird leider rausposaunt, dass die MFT lichtschwächer wären, dem ist aber nicht so.
Denn f 5,6 mit ISO 3600 ist nun mal F 2,8 mit ISO 800, dass weiß jeder Foto Lehrling, wenn der Shutter gleich ist. Niemand hat das je bestritten, schon gar nicht der auf Theorie fixierte Tony Northrup.
Es geht in dem Vergleich darum, dass ISO 3200 an der VF-Kamera die annähernd gleiche
Bildqualität bringt wie ISO800 an FourThirds. Deshalb ist es Unsinn, so zu tun, als sei ein f2,8-Objektiv an FourThird genauso wertvoll wie ein f2,8-Objektiv an Vollformat. Eben weil man den qualitativen Formatnachteil von FourThirds durch niedrigere ISO ausgleichen muss. Das FourThirds-Sensorbild wird später, um die gleiche Ausgabegröße zu erhalten, linear doppelt so stark vergrößert wie das Vollformat-Sensorbild (also flächenmäßig vierfach). Das ist der Knackpunkt, der gern übersehen wird.
Fakt ist nur, dass die ISO verschieden definiert wird und damit das Bild zu hell oder zu dunkel sein kann Dass manche Hersteller mit den ISO-Zahlen etwas schwindeln, ist ein Nebenaspekt. In der theoretischen Betrachtung von Northrup spielt es keine Rolle. Seine Theorie geht von lauter korrekten ISO-Angaben und lauter qualitativ vergleichbaren Sensoren aus.
Dass es da in der Praxis Abweichungen gibt, ist ein völlig anderes Thema. Diese Abweichungen liegen erfahrugsgemäß sowieso nie in einer Größenordnung, die die rechnerischen Unterschiede ausgleicht.
Antwort von Skeptiker:
Also bei der ganzen Crop-Geschichte, die auf den ersten Blick so harmlos aussieht, muss man wirklich aufpassen, keinen Nonsens zu erzählen - es passiert schneller, als einem lieb sein kann.
Das sage ich auch an meine eigene Adresse.
Der gute Tony reitet in seinem Video (das ich mir nochmals anschauen müsste) ja auf der DOF, der Schärfentiefe herum und ärgert sich darüber, dass einige Hersteller die Brennweiten ihrer Klein-Sensor-Kameras auf Vollformat hochrechnen, ohne die max. Öffnung (max. Blende) ebenfalls anzupassen (mit dem Crop-Faktor zu multiplizieren).
Aber müssen sie das wirklich?
Sein Argument ist, dass diejenigen, die z.B. (eigenes Bsp.) eine Kamera mit 1-Zoll-Sensor kaufen (zum Vergleich: Vollformat hat 2.7 Zoll (mit 16mm pro Sensor-Zoll)) mit einem (fiktiven) Objektiv von z.B. 10-40mm 2.8, das dann - umgerechnet auf Vollformat-Brennweite - als 27-108/2.8 beworben würde, eben bei max. 40mm Tele NICHT die geringe Tiefenschärfe haben wie mit 108mm Vollformat bei Blende 2.8, sondern wie mit Blende 2.8x2.7 (dem Cropfaktor)=7.56.
Ob man daraus nun schliessen kann, dass das kleine Objektiv eigentlich nur Lichtärke 7.56 hat, ist fraglich. Eigentlich nicht. Denn der Sensor und damit die zu belichtende Fläche ist ja mit dem Objektiv zusammen ebenfalls 'geschrumpft'. Würde man nur den kleinen Sensor gegen den grossen austauschen, hätte der einen zentralen, hellen Licht-Kreis und wäre sonst dunkel.
Also, man versteht, was Mr. Northrup sagen will, aber seine Argumentation und Schlussfolgerung ist nicht immer sorgfältig und treffend.
Trotzdem ist das Argument stichhaltig, dass unwissende Käufer mit der Werbeaussage "mit dieser winzigen Kamera kaufen sie eigentlich ein 27-108mm/2.8 Objektiv, nur ist es viel leichter und kleiner" definitiv missverständlich, wenn nicht falsch ist.
Aber zu behaupten, das kleine Objektiv habe nur eine effektive Lichtstärke von 7.56 stimmt auch nicht. Es hat eine Lichtstärke von 2.8, aber die Schärfentiefe entspricht nicht einem umgerechneten Vollformatobjektiv 27-108mm/2.8!
Wer's überprüfen will, kann das z.B. hier im Schärfentiefe Rechner: http://www.fotomagazin.de/test_technik/ ... &thema=104 tun.
Beispiel:
m-4/3 (Halbformat) 50mm/2.8 mit 3m Distanz: DOF=29cm
FF (Vollformat) 100mm/2.8 mit 3m Distanz: DOF=14.1cm
FF (Vollformat) 100mm/5.6 mit 3m Distanz: DOF=28cm
Noch zu den ISO-Zahlen aus Jans Beispiel oben:
Wie gesagt, ich müsste Northrups Video nochmals genau ansehen, aber 4x800 ISO (der Unterschied von 2 Blendenstufen) ist 3200 ISO, nicht 3600, wie Northrup angeblich zeigt.
Antwort von Axel:
Des langen Northrup-Vortrags kurzer Sinn: An all euch Vollformat-Verehrer, ganz gleich, was für mickrige Sensoren euer Geldbeutel hergab, kauft einfach die Optik mit der größten Blende. Ist das noch nicht genug, kauft Speedbooster, und schon seid ihr mit im Boot. Grämt euch kein Magengeschwür herbei wegen der fiesen Rechentricks der Kamerahersteller, die billigsten Eier stammen auch nicht von lauffähigen Hühnern, und glückliche Kühe hängen nicht permanent an der Melkmaschine (oder ist das für Kühe eine erotische Stimulation?). Werdet schlau.
Antwort von beiti:
Ob man daraus nun schliessen kann, dass das kleine Objektiv eigentlich nur Lichtärke 7.56 hat, ist fraglich. Eigentlich nicht. Denn der Sensor und damit die zu belichtende Fläche ist ja mit dem Objektiv zusammen ebenfalls 'geschrumpft'. Würde man nur den kleinen Sensor gegen den grossen austauschen, hätte der einen zentralen, hellen Licht-Kreis und wäre sonst dunkel. Der Bildkreis des Objektivs ist ein Thema für sich und bleibt in den Angaben zu Blendenzahl und Brennweite unberücksichtigt - folglich auch in der theoretischen Betrachtung. An der nötigen Größe der Frontlise - und die ist ja am meisten für Gewicht und Größe des Objektivs verantwortlich - ändert ein kleinerer Bildkreis gar nichts; kann höchstens sein, dass man die hinteren Linsengruppen dann ein wenig kleiner dimensionieren kann. Es gibt auch Objektive, die weit mehr ausleuchten als sie für das vorgesehene Sensorformat müssten - einfach, weil es sich bei der Konstruktion so ergibt.
Also der eventuell kleinere Bildkreis hat keinerlei Auswirkungen auf die Rechnung von Northrup. Er sorgt bestenfalls dafür, dass ein rechnerisch vergleichbares Objektiv für den kleinen Sensor z. B. zehn Prozent leichter gebaut werden kann, aber das war's dann auch schon.
Das Schrumpfen des Sensors wirkt sich bereits in der kürzeren Brennweite aus - die ihrerseits dafür sorgt, dass die Frontlinse für die gleiche Blendenzahl kleiner wird. Oder dass die Frontlinse gleich groß bleibt (um weiterhin genauso viel Licht zu sammeln), dann aber eine kleinere Blendenzahl zugewiesen bekommt. Genau das ist die Umrechnung von Northrup.
Antwort von Skeptiker:
@beiti:
Nicht, dass ich der intensiven Crop-Diskussion ausweichen will, aber ich habe den Eindruck, "irgendwie" meinen wir in etwa das Gleiche!
Der Dreh- und Angelpunkt von Northrups Crop-Argumentation (NICHT Crap-Argumentation!) ist die Schärfentiefe.
Und die hängt mit der Blende, der Brennweite, der Objekt-Entfernung und über die Sensorgrösse mit dem Durchmesser des akzeptablen Unschärfekreises (einer +/- willkürlichen Grösse) zusammen.
Was er da sonst noch über ISO-Zahlen, Lichtsammeln, Lichtstärke von Sensoren (eigentlich sind's eher die Pixel) etc. sagt, müsste ich mir nochmals zu Gemüte führen.
Aber seine Definition der Blende als Brennweite durch grösste (wirksame) Objektivöffnung (Abschätzung durch Objektiv-Frontlinse) leuchtet ein und sein mehrfach wiederholter Satz: "You cannot break (cheat) the laws of physics" bleibt auch für immer im Gedächtnis haften ;-)
Antwort von cantsin:
Sein Argument ist, dass diejenigen, die z.B. (eigenes Bsp.) eine Kamera mit 1-Zoll-Sensor kaufen (zum Vergleich: Vollformat hat 2.7 Zoll (mit 16mm pro Sensor-Zoll)) mit einem (fiktiven) Objektiv von z.B. 10-40mm 2.8, das dann - umgerechnet auf Vollformat-Brennweite - als 27-108/2.8 beworben würde, eben bei max. 40mm Tele NICHT die geringe Tiefenschärfe haben wie mit 108mm Vollformat bei Blende 2.8, sondern wie mit Blende 2.8x2.7 (dem Cropfaktor)=7.56.
Ob man daraus nun schliessen kann, dass das kleine Objektiv eigentlich nur Lichtärke 7.56 hat, ist fraglich. Eigentlich nicht.
Ja, danke - darauf wollte ich in meinem Beitrag auch raus, hatte ihn aber wohl missverständlich illustriert.
Sicherlich sind diese Blenden-/Lichtstärkenangaben missverständlich für Leute, die aus der (Kleinbild-) Fotografie kommen. Wer vom Filmen kommt und die verschiedenen Formate 8/16/35mm kennt, weiss so etwas natürlich.
Antwort von Hesse:
Crop Factor Part 3: Responding to Critics, Corrections
Antwort von Jan:
Ok - hier drei Bilder.
1. Canon EOS 5 D MK III mit 24-105 F 4 - Vollformat
2. Canon EOS 100 + 15-85 mm F 3,5-5,6 - APS-C
3. Olympus M 10 + 14-42 F 3,5 - 5,6 - MFT
Alle Bilder mit 1/25 S, F 4 und ISO 200, bei den beiden Canon im WW mit 24 bzw /15 mm (24 mm KB) und bei der Oly 14 mm (28 mm KB). Das kann mit EXIf nachgeprüft werden.
Zwischen den Bilder sind nur kleine Unterschiede zu sehen, eine halbe Blende ist möglich, aber auch nicht mehr wie es der Meister wahrmachen will.
PS: Sorry für das schlechte Motiv.
VG
Jan
Antwort von HeldvomFeld:
Was willst du jetzt damit zeigen?? Da du eine Wand fotografierst kann es ja schonmal nicht um die Tiefenschärfe gehen.
Antwort von beiti:
Da du eine Wand fotografierst kann es ja schonmal nicht um die Tiefenschärfe gehen. Und ums Rauschen auch nicht, denn zu dessen Beurteilung bräuchte man 100-%-Crops. Ich verstehe auch nicht, was dieser Vergleich soll.
Oder geht es um das Missverständnis, das Northrup im zweiten Video bei 20:02 anspricht?
Es hat keiner behauptet, die Helligkeit weiche bei gleichen Belichtungsdaten ab. Was abweicht, sind Bildqualität/Rauschen und Schärfentiefe.
Antwort von Jan:
Er zeigt bei ca. Minute 15, dass ein MFT Bild mit 200 mm, F 5,6 und ISO 3600 und einem Vollformatbild mit 100 mm, F 2,8 und ISO 800 entspricht. Das ist aber die gleiche Belichtung. Aktuell wird leider rausposaunt, dass die MFT lichtschwächer wären, dem ist aber nicht so.
Denn f 5,6 mit ISO 3600 ist nun mal F 2,8 mit ISO 800, dass weiß jeder Foto Lehrling, wenn der Shutter gleich ist. Niemand hat das je bestritten, schon gar nicht der auf Theorie fixierte Tony Northrup.
Es geht in dem Vergleich darum, dass ISO 3200 an der VF-Kamera die annähernd gleiche Bildqualität bringt wie ISO800 an FourThirds. Deshalb ist es Unsinn, so zu tun, als sei ein f2,8-Objektiv an FourThird genauso wertvoll wie ein f2,8-Objektiv an Vollformat. Eben weil man den qualitativen Formatnachteil von FourThirds durch niedrigere ISO ausgleichen muss. Das FourThirds-Sensorbild wird später, um die gleiche Ausgabegröße zu erhalten, linear doppelt so stark vergrößert wie das Vollformat-Sensorbild (also flächenmäßig vierfach). Das ist der Knackpunkt, der gern übersehen wird.
Das ist aber falsch. Warum die MFT mehr rauscht, liegt an den kleineren Einzelpixeln.
Nehmen wir mal eine Panasonic GH 4 mit 16 Mio Pixel.
Sensor 17,3 x 13 mm = 224,9 mm²
Dann Canon 5 D MK III mit 22 Mio. Pixel.
Sensor 24 x 36 mm = 864 mm²
Wie man sieht, sind die Einzelpixel deutlich grösser bei der Vollformatkamera und genau das ist der Grund, warum sie weniger rauscht. Nicht wegen den Berechnungen von Herrn Northrup.
Eigentlich weiß das jeder Anfänger.....
VG
Jan
Antwort von Jan:
Was willst du jetzt damit zeigen?? Da du eine Wand fotografierst kann es ja schonmal nicht um die Tiefenschärfe gehen.
Es geht um die angeblichen Helligkeitsunterschiede, die aber nicht vorhanden sind.
VG
Jan
Antwort von WoWu:
Das ist nicht so ganz richtig.
Grosse Pixels haben zwar andere Vorteile, aber sie rauschen nicht weniger als kleine Pixels.
Immer bezogen auf den gleichen Bild-Informationsgehalt. Das wird meistens bei den Betrachtungen vergessen.
Antwort von beiti:
Warum die MFT mehr rauscht, liegt an den kleineren Einzelpixeln.
Wie man sieht, sind die Einzelpixel deutlich grösser bei der Vollformatkamera und genau das ist der Grund, warum sie weniger rauscht. Das ist schon richtig, dass kleine Pixel mehr Rauschen verursachen, weil sie unter identischen Belichtungsbedingungen weniger Licht abkriegen und mehr verstärkt werden müssen als große Pixel. Aber für die Gesamtbetrachtung spielt das keine direkte Rolle, weil der unterschiedliche Vergrößerungsfaktor es ausgleicht. Also wenn die FourThirds-Kamera dieselbe Pixeldichte wie die FF-Kamera hat, hat sie eine geringere Gesamtauflösung, und Du musst ihre Pixel für dieselbe Ausgabeauflösung stärker vergrößern. Dann hast Du das geringere Pro-Pixel-Rauschen auf vierfacher Fläche. So oder so bekommst Du eine schlechtere Bildqualität - auch wenn das exakte "Rauschbild" nicht exakt gleich sein mag.
Es geht um die angeblichen Helligkeitsunterschiede Nein, von Helligkeitsunterschieden hat niemand was gesagt. Schau Dir das zweite Video bei 20:02 an.
Antwort von WoWu:
@ Beiti
Eben nicht. Man darf Pixelwerte nur miteinander vergleichen, wenn man den identischen Bildinhalt damit transportiert. Und wenn ein Pixel nur ein Viertel eines grossen Pixels ausmacht, muss man die Werte von 4 Pixels rechnen, die denselben Bildinhalt eines grossen Pixels übertragen. (Bei grossen Pixels ist der Aufloesungsinhalt entsprechend kleiner).
-Oder hast Du das so gemeint ?
Antwort von beiti:
wenn ein Pixel nur ein Viertel eines grossen Pixels ausmacht, muss man die Werte von 4 Pixels rechnen, die denselben Bildinhalt eines grossen Pixels übertragen. Das meinte ich mit dem Hinweis, dass der Vergößerungsfaktor die unterschiedlichen Pixelgrößen ausgleicht.
Antwort von WoWu:
Alles klar, dann hatte ich das nur nicht richtig verstanden.
Bei wenig Licht sind die kleinen Pixels sogar oft im Vorteil, kommt ganz auf das Read-Out Noise des grossen Pixels an.
Aber ich sagte es schon, es gibt noch einige andere, gute Gründe für grosse Pixels.
Antwort von HeldvomFeld:
Was willst du jetzt damit zeigen?? Da du eine Wand fotografierst kann es ja schonmal nicht um die Tiefenschärfe gehen.
Es geht um die angeblichen Helligkeitsunterschiede, die aber nicht vorhanden sind.
VG
Jan
Es wurde nie was von Helligkeitsunterschieden gesagt.
Antwort von Jan:
Bei seinem Video gibt es ja auch eine Menge an Leuten, die damit nicht einverstanden sind.
Das die Vollformatkamera wegen der grösseren Sensorfläche und damit den größeren lichtempfindlicheren Pixeln bei höheren ISO Werten weniger rauscht (Fotobereich), wird euch jeder Fotograf, jedes Fotomagazin der Welt oder jeder Fotofachmann sagen.
Dass das wegen dem Crop so sein soll, steht in keinem Lehrbuch auf der Welt.
Sein Konzept geht aber bei kleinen Sensoren gar nicht auf, wie ich am Anfang schon gepostet habe, dann wenn es sich um 1/3 oder 1/2,3" Sensoren handelt mit Originalbrennweiten von 4 mm und Lichtstärken von f 2,8 bis 3,5.
So hoch können die nämlich gar nicht verstärken mit ihrem Crop von 6 bis 7. Auch gibt es diese Blenden von 21 und mehr bei den 1/3" Sensoren gar nicht da käme eben fast gar kein Licht mehr rein und selbst ein Tageslichtbild wäre zu dunkel.
VG
Jan
Antwort von WoWu:
@Jan
Ich stimme mit Dir da völlig überein, dass seine Herleitungen teilweise falsch sind und aber solche Grundaussagen wie: kleines Pixel rauscht wie grosses Pixel muss man zwangsläufig am Bildinhalt festmachen und kann diesen Vergleich nur anstellen, wenn man einen entsprechenden Inhalt vergleicht.
Was Du jetzt meinst, ist die Dynamik des Pixels, denn die misst sich am Verhältnis zwischen FW und Rauschartefakten.
Aber auch effektiv rauscht ein kleines Pixel weniger, denn auch die kleinen Pixels, liegen, wie auch die grossen, bei zwischen 2e- und 9 e-. Man kann also auch effektiv nicht sagen, sie würden mehr (oder weniger) rauschen. Nur im Verhältnis zu 1500 e-FW oder zu 30.000e- FW bei grossen Pixels, ist das natürlich mehr. Aber eben für das Bild von wenig Relevanz, sofern es auf denselben Übertragungsnenner gebracht wird.
Ich hatte die Rechnung hier ja mal aufgemacht und schon die andern Vorteile eines grossen Pixels beschrieben.
Die Wissenschaft geht davon aus, dass ein 6µ Pixel der allerbeste Kompromiss zwischen sämtlich Werten, die ein Pixel betrifft, darstellt denn das Rauschen des Pixels ist ja nur ein ganz schmaler Bereich, der eigentlich gar nicht die Relevanz hat, die ihm überall zugesprochen wird, zumal eben Hersteller mehr und mehr dazu übergehen, sowieso zu binnen, denn das können die Sensoren, ohne dass es die Rechenpower der Kamera belastet.
Manche Hersteller binnen auch nur horizontal aber nicht vertikal und manche machen eines der Binnings analog und die andere Ebene digital.
Insofern spielt das Rauschen eine immer untergeordnetere Rolle.
Also, im Grunde hat er Recht, aber nicht mit seiner Begründung. das war ein Zufallstreffer.
Antwort von Skeptiker:
@WoWu:
Also, dass die kleinen Pixel nun gar nicht mehr rauschen sollen als die grossen, leuchtet mir nicht ein.
Im aktuellen videoaktiv habe ich einen Test der neuen Sony 4K-Videocam AX100 gesehen, der sie - wenn ich mich recht erinnere - auch mit dem neuen, deutlich teureren 4K 'Pro'-Modell AX1E vergleicht.
Die FDR-AX100 (Amateur-Modell) hat einen 1 Zoll Chip mit brutto ca. 20.9 Millionen Pixeln
die FDR-AX1E ('Profi'-Modell) einen 1/2.3 Zoll Chip mit brutto 18.9 MillionenPixeln.
Und was kam beim Test unter Anderem heraus?
Die AX1E (das 'Profi'-Modell) rauscht zu stark.
Andere Beispiele aus dem Fotobereich:
Die D4 von Nikon mit Vollformatsensor und nicht mehr als 16 Millionen Pixeln hat eine besonders grosse Pixelfläche und gilt als "Low-Light-King".
Ist das nur ein Zufall?
Weiteres Beispiel:
Gute Astroteleskope (Spiegel-Teleskope = Reflektoren) für die Forschung haben grosse Spiegel.
Oder es sind zahlreiche kleinere Reflektoren zu einem sich synchron bewegenden Spiegel-Array zusammengeschlossen, das wie ein einziger Riesenspiegel wirkt.
Grund: Das Sternenlicht kann so effektiver gesammelt werden bzw. man kann weiter ins Weltall hinaus blicken. Die 'Signal to Noise Ratio' ist günstiger, weil das Bild-Signal weniger verstärkt werden muss.
Es leuchtet mir ein, dass auch durch die Bauweise der Pixel, die Lichtausbeute gesteigert werden kann (z.B. bei 'Back Side-Illumination'). Und ebenfalls durch Zusammenfassen mehrer kleiner Pixel zu einem funktionell grossen Pixel (Pixel Binning).
Aber das sollte doch die Tatsache nicht verwässern, dass eine grosse lichtempfindliche Fläche grundsätzlich im Total mehr Licht einfangen kann als eine kleine Fläche.
Antwort von WoWu:
Vorsicht: Technik
Alle die kein Interesse haben, sollten das posting gleich sklippen oder sich hinterher nicht beschweren.
Hallo Skeptiker,
Das, was Du über die Kameras schreibst, muss auch so benannt werden:
Die Kameras rauschen stärker. Dass Journalisten das auf den Sensor beziehen, wundert mich allerdings nicht.
Fang einmal ganz unten an ... Was ist Rauschen (mal nur den Sensor) ?
Es ist die Erzeugung von Photonen, also Bewegunsenergie, die nicht von aussen kommt sondern im Sensor entsteht und bei verschiedenen Sensorzuständen. (primär Dark current und fixed Pattern Noise).
Das Substrat und die Speicherbeschichtung ist ziemlich identisch bei allen Sensoren, auch denen mit grossem Pixels.
Daran unterscheiden sie sich also nicht. Der erste Unterschied könnte in der Wärme liegen aber bei genauer Betrachtung auch nicht wirklich relevant.
Betrachtet man also mal die effektiven Rauschwerte des Sensors, so wird man feststellen, dass sie alle ziemlich gleich sind und so im Bereich von 2 bis so um die 15 Elektrons liegen. Das ist bei Sensoren mit grossen Pixels tendenziell eigentlich eher höher als bei kleinen Pixels.
Das würde zunächst mal bedeuten, das kleine Pixels weniger rauschen.
Aber nun kommt's.
Das kleine Pixel nimmt, weil es kleiner ist, in derselben Zeit nur (zB.) 18.000 E- bei zB. 9e- Rauschen auf, während das grosse Pixel bei 10 e-Rauschen, 40.000 e- aufnehmen kann.
Das grosse Pixel rausch also effektiv mehr als das kleine Pixel, kann aber mehr Ladung aufnehmen und dadurch wird das Verhältnis verändert.
Das "Signal to Noise" Ratio ist also bei den kleinen Pixels 18.000/9 = 2.000 und bei den grossen Pixels 40.000/10= 4000
Und jetzt kommt das ins Spiel, was eigentlich Rauscht ... nämlich nicht der Sensor, sondern der Verstärkungsweg denn um dieselbe Ausgangsspannung zu bekommen, muss ich die kleinen Pixels höher verstärken, als die grossen Pixels.
Dabei verstärke ich nicht nur das Sensorrauschen mit, sondern bekomme auch noch Reset Noise, I/F Noise und Quantisierungsrauschen dazu.
Und damit wären wir beim Informationsgehalt des Bildes, wie oben beschrieben denn wenn ich denselben Informationsgehalt übertragen will, muss ich 4xklein = 1xgross rechnen (denn die Pixels sind nun mal so). Erst jetzt bekomme ich das identische optische Bild (selbe Sensorgrösse, aber kleinere Pixels) übertragen.
Nun ist die Noisrechnung bei Binning ja die Quadratwurzel aus der gebinnten Zahl und damit drastisch kleiner und das SNR rutscht ziemlich deutlich unter das der grossen Pixels.
Aber nur, wenn ich ein optisches Bild auf beiden Sensoren gleich habe, kann ich die Übertragungswerte auch vergleichen. Sonst sind das Äpfel und Birnen.
Ersatzweise muss ich dafür sorgen, dass das kleine Pixel ebenso viel Licht bekommt, wie das Grosse.
Das war ja der Weg, den Tony N. vorgeschlagen hat.
Ich sage aber nicht, dass kleine Pixel immer gleichgut oder besser sind.
Ich sage nur, sie rauschen nicht mehr im Übertragungsumfeld denn wenn man mal andere Werte heranzieht, wird man schnell die Finger von kleinen Pixels lassen:
Beispiel:
Hat man z.B. zwei Sensoren der identischen Pixelzahl mit einem Dynamikbereich von 10.000 (13,5 Blenden) bei einer Sättigung von 100.000 Elektronen bei einem Read-Noise von 10, der andere Sensor eine Sättigung bei 10.000 Elektronen und einem Read Noise von 1, also ein identisches (SNR) Verhältnis: (100.000 zu 10 oder 10.000 zu 1), so kommt man dennoch auf unterschiedliche Leistung.
Betrachtet man 18% Grau beider Sensoren, wenn sie voll geladen sind und bei 100% Weiß erzeugen, wird der erste Sensor 18% Grau bei 18.000 Elektronen und der zweite Sensor bei 1.800 Elektronen darstellen.
Das SNR Ratio ist bei dem ersten Sensor bei Wert 134, also 7 Blenden und bei dem zweiten Sensor bei 42 (5,4 Blenden) obwohl beide Sensoren die vermeintlich gleiche Dynamikrange haben.
Die höhere Kapazität des ersten Sensors bewirkt also eine 1,5 Blenden besseres Rauschverhältnis bei 18% Grau, obwohl das grosse Pixel effektiv 10 Mal so stark rauscht.
Dies sind die wesentlichen Vorteile größerer Sensoren, gegenüber ihren "kleinen" Brüdern. Es gibt da noch so ein paar andere, aber das schenke ich mir hier.
Du siehst also, das Pixel rauscht nicht. Die Nachverarbeitung bringt das Problem. Deshalb sind solche Dual-Chain ja auch deutlich besser, bei denen man unterschiedliche Verstärkungsmethoden nutzen kann. Es ist nicht der Sensor das Problem.
Antwort von Skeptiker:
@ Wowu:
Danke für die ausführliche Erklärung!
Ich kann nicht für mich beanspruchen, alles verstanden zu haben, aber immerhin Teile davon.
Ich picke jetzt 2 Aussagen von Dir heraus (löse sie damit auch aus dem Zusammenhang) und ziehe ein kurzes Fazit.
Du schreibst etwa in der Mitte:
1.
"... Und jetzt kommt das ins Spiel, was eigentlich Rauscht ... nämlich nicht der Sensor, sondern der Verstärkungsweg denn um dieselbe Ausgangsspannung zu bekommen, muss ich die kleinen Sensoren höher verstärken, als die grossen Pixels. ..."
Und am Schluss (von mir etwas zusammengerafft):
2.
"Du siehst also, das Pixel rauscht nicht. Die Nachverarbeitung bringt das Problem. ... ...Es ist nicht der Sensor das Problem."
Mein eigenes Fazit nach Deinen Erklärungen:
Es ist zwar nicht der Sensor selbst das Problem, aber dennoch hängt das Rausch-Problem auch (indirekt) mit dem Sensor und seiner Grösse zusammen (ist nicht unabhängig davon - siehe Deine Aussage 1).
---------------------------------------------------------------------------------
Hinweis zur nachträglichen Korrektur:
a) "Du schreibst etwas in der Mitte:" ersetzt durch ... etwa ..."
b) Unter Punkt 2: " - siehe Deine Aussage 2" ersetzt durch " - siehe Deine Aussage 1"
Antwort von WoWu:
Dein Fazit würde ich gern noch ergänzen ... wenn nicht dafür gesorgt wird, dass gleiche Übertragungsverhältnisse vorliegen, dann sind die Ergebnisse auch schlechter.
Es ist also nicht der Sensor, sondern es wird versucht, mit weniger Lichtfläche dasselbe Bild zu übertragen.
Es liegt also daran, dass der Hersteller die vorhandene Fläche versucht weiter auszuquetschen !
Das allein führt dazu. Es ist also das Kamerdesign mangelhaft, wenn es rauscht.
Antwort von Skeptiker:
KLeine Korrektur:
"Du schreibst etwas in der Mitte: "
sollte heissen
"... etwa in der Mitte"
Nochmals Thema Lichsammeln:
Es gibt für Ferngläser (Feldstecher) und Fernrohre ein Kennzahl namens "Dämmerungszahl", die die Dämmerungstauglichkeit der Gläser kennzeichnen soll.
Es ist D = Wurzel aus (Objektivdurchmesser mal Vergrösserung).
Einen kurzen Artikel dazu hat z.B. Wikipedia:
http://de.wikipedia.org/wiki/Dämmerungszahl
Das sind 2 Faktoren, die auch in dieser Diskussion immer wieder im Vordergrund stehen (1. Der Objektivdurchmesser oder die lichtempfindliche(n) Fläche(n) des Sensors und 2. der Nach-Vergrösserungsfaktor, der bei kleinen Sensoren grösser ist, um am Ende (am Bildschirm oder mit dem Print) auf den gleichen Abbildungsmaßstab für den Betrachter zu kommen.
Antwort von Skeptiker:
Kleiner Nachtrag:
Allerdings STEIGT die Dämmerungszahl bei Ferngläsern ja mit der (Nach)Vergrösserung - was ich bestätigen kann.
Man sieht mit einem kleinen 10x25 (10=Vergrösserung, 25 der Frontlinsendurchmesser in mm) Fernglas tatsächlich besser in der Dämmmerung als mit einem 8x20!
Antwort von Skeptiker:
Noch ein Nachtrag:
Ob das allerdings an der grösseren Frontlinse oder am höheren Vergrösserungsfaktor liegt?
Gemäss der Formel an beidem!
Dann müsste ja ein 10x20 gegenüber einem 8x20 Fernglass auch eine bessere (hellere) Dämmerungssicht erlauben.
Da bin ich skeptisch!
Aber genug von Ferngläsern und zurück zum Thema Sensoren, Crop-Faktoren und Northrups Video!
Antwort von raketenforscher:
Kleiner Nachtrag:
Allerdings STEIGT die Dämmerungszahl bei Ferngläsern ja mit der (Nach)Vergrösserung - was ich bestätigen kann.
Man sieht mit einem kleinen 10x25 (10=Vergrösserung, 25 der Frontlinsendurchmesser in mm) Fernglas tatsächlich besser in der Dämmmerung als mit einem 8x20!
Naja die Dämmerungszahl ist ja eher theoretisch. Entscheidend bei Optiken, egal ob Ferngläser oder Zieloptiken, ist ja die Austrittspupille. Und die ist bei deinem genannten Beispiel ja gleich groß. Dürfte also bei gleicher Qualität der optischen Elemente, die gleiche Menge Licht an dein Auge kommen. Oft empfindet das Gehirn aber eine größere Vergrößerung als heller, weil man mehr Details erkennt.
Zum Eingangspost / Erklärvideo: Wurde eigentlich auch diskutiert, wie es mit Objektiven ist, die für das Mittelformat gerechnet sind? Welche theoretischen Lichtstärken ergeben sich denn da bei den verschiedenen kleineren Sensoren?
Antwort von WoWu:
Die Lichtstärken sind bei solchen Objektiven nicht das vordergründige Problem.
Betrachte mal die MTF im Verhältnis Mittelformat Sensor => kleiner Sensor.
Antwort von beiti:
Wurde eigentlich auch diskutiert, wie es mit Objektiven ist, die für das Mittelformat gerechnet sind? Wofür sie gerechnet wurden (also wie groß ihr Bildkreis ist), spielt für die Crop-Umrechnung keine Rolle.
Antwort von Jan:
Hallo,
ein Canon 18-55 mm Kitobjektiv ist ja auch nur für APS-C gerechnet und passt beispielsweise an eine Vollformat gar nicht an das Bajonett dran, daher weißer Punkt und roter Punkt bei Canon.
Der Crop (wenn man es so nennen will) von Vollformat zu Mittelformat liegt bei Faktor 1,6. Genau wie zwischen APS-C (Canon) und Vollformat.
30 mm (APS-C Canon) / 50 mm (Vollformat) / 80 mm (Mittelformat)
VG
Jan
Antwort von beiti:
ein Canon 18-55 mm Kitobjektiv ist ja auch nur für APS-C gerechnet und passt beispielsweise an eine Vollformat gar nicht an das Bajonett dran, daher weißer Punkt und roter Punkt bei Canon. Das EF-S-Bajonett ist eine Canon-Spezialität. Bei Nikon kann man die DX-Objektive auch an FX-Bodys machen. Meist hat man dann starke Vignettierung, aber es gibt auch Zooms, die zumindest an einem Ende nahezu FX-tauglich sind. Da gibt es keine feste Regel.
Vermutlich gibt es auch KB-Objektive, die das kleine Mittelformat schon nahezu ausleuchten würden; das kann man allerdings wegen des Auflagemaßes schlecht testen.
Der Crop (wenn man es so nennen will) von Vollformat zu Mittelformat liegt bei Faktor 1,6. Genau wie zwischen APS-C (Canon) und Vollformat. Wenn man der üblichen Rechenweise treu bleiben will, haben größere Formate gegenüber KB einen "Crop"-Faktor unter 1.