Minimal, an sich siehst Du das nur auf 'nem ISO-Chart…groover hat geschrieben:@Uli
Wie groß ist eigentlich der Unterschied der beiden Geräte im Bezug auf Schärfe?
Allerdings fragt sich, wieviel die Kamera dabei schoenrechnet. Das besondere des Micro Four/Thirds-Standards ist ja, dass Objektive kein optisch sauberes Bild mehr an den Sensor liefern muessen, sondern z.B. mit Tonnenverzeichnung, chromatischen Aberrationen etc. designt und in der Objektiv-Firmware ausgewiesen sind, so dass die Kamera die Bilddaten wiederum in ihrer Firmware korrigiert. Auch das 20mm-Pancake hat z.B. eine per Firmware/Software korrigierte Tonnenverzeichnung.nomad-3 hat geschrieben: Das Objektiv hat mehr Einfluss in der Praxis. Wobei die Plastiktüten von Panasonic für den Preis knackscharf sind.
Begründung?nomad-3 hat geschrieben:"Das Theorem ist mir bekannt." Aber unverständlich ;-)
"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…
"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch!
Begründung?nomad-3 hat geschrieben:"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch.
Das ist klar, solange ich einen Abstand zwischen den Sensoren habe. Allerdings ist das hier bei den Canons ein Mischung von Gründen, da die wohl alle Bayersensoren haben, oder?nomad-3 hat geschrieben:Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten).
Begründung? Der folgende Satz ist jedenfalls keine.nomad-3 hat geschrieben:"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch.
Na endlich, genau das meine ich, Du veranschaulichst es ja selber weiter unten. Der »singuläre Ort« meint, der Pixelsensor hat eine Ausdehnung, von der im Theorem nicht ausgegangen wird! Das Theorem »lebt« davon, dass das Pixel keine Ausdehnung aber einen Abstand zu seinem Nachbarn hat.nomad-3 hat geschrieben:Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche!
Genau! Stell Dir mal vor, die Digitalisierung der Schallschwingung passiert nicht zu einem singulären Zeitpunkt, sondern über den ganzen Zeitraum bis zur nächten »Abtastzeit«. Dann entsteht kein Aliaseffekt, sondern das Signal ist (bei sinusförmigen Eingangssignal) gleichbleibend (grau).nomad-3 hat geschrieben:Hilft das? Trifft übrigens auch alles bei digitalem Audio zu.
Richtig, und dabei ist unser Problem noch garnicht aufgetreten. Denn eigentlich müsste das Schachbrett eine wesentlich höhere Ortsfrequenz aufweisen, als der Sensor, damit wird unser Aliasingproblem (z.B. Moiré) bekommen.nomad-3 hat geschrieben:Ich versuch es noch mal mit einem Gedankenexperiment:
Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…
Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…
Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum…
@WoWunomad-3 hat geschrieben:Gute Grüße,
Uli
Das örtlich hab ich mal in Klammern gesetzt, weil es nicht für denselben Prozess zutrifft. Das Nyquist-Shannon-Theorem findet überall Anwendung, wo sich Frequenzen überlagern.Das Nyquist-Shannon-Theorem begründet ein Phänomen, das nur auftritt, wenn die Abtastung im Verhältnis zum kontinuierlichen Signal sehr begrenzt (signulär) satt findet, (sei es nun zeitlich oder örtlich).
Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre! Seit Karajan mit Philips dieses Verbrechen, 44,1 KHz Auflösung für ausreichend zu erklären, beging, höre ich keine digitalen Aufnahmen mehr, nur noch Live Musik. Aber nicht diese verlogenen Auftritte von Pop/Rock/wasauchimmer Bands, bei denen zusätzlich noch das Playback im Hintergrund eiert.nomad-3 hat geschrieben:Die Kurve eines Audiosignals wird bei der Digitalisierung auch nicht kontinuierlich abgetastet – auch wenn gar keine (bzw. vernachlässigbar kleine) Pausen zwischen den Samples liegen. Dadurch wird eine ursprünglich kontinuierliche, analoge Kurve quantisiert. Es wird immer über einen bestimmten Zeitraum gemittelt, bei der CD z. B. über 22,67 Mikrosekunden. Du bekommst also kleinste Treppchen, die auf keine Weise mehr rekonstruierbar machen, wie eine Kurve ausgesehen (bzw. geklungen) hat, die feinere Details aufwies, als ein Sample groß ist. Das macht aber nichts, da die Auflösung auch mit Anti-Alias Filterung über der Hörgrenze liegt. Soweit in der zeitlichen Form.
Habe ich behauptet, dass ich es gut finde? Ich habe es als Vergleich herangezogen, weil ich schließlich auch Aliasing bei Kameras sehe und hasse!handiro hat geschrieben:Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre!