Hallo Zusammen,
nomad-3 hat geschrieben:"Das Theorem ist mir bekannt." Aber unverständlich ;-)
"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…
"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch!
Begründung?
nomad-3 hat geschrieben:"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch.
Begründung?
nomad-3 hat geschrieben:Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten).
Das ist klar, solange ich einen Abstand zwischen den Sensoren habe. Allerdings ist das hier bei den Canons ein Mischung von Gründen, da die wohl alle Bayersensoren haben, oder?
nomad-3 hat geschrieben:"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch.
Begründung? Der folgende Satz ist jedenfalls keine.
nomad-3 hat geschrieben:Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche!
Na endlich, genau das meine ich, Du veranschaulichst es ja selber weiter unten. Der »singuläre Ort« meint, der Pixelsensor hat eine Ausdehnung, von der im Theorem nicht ausgegangen wird! Das Theorem »lebt« davon, dass das Pixel keine Ausdehnung aber einen Abstand zu seinem Nachbarn hat.
nomad-3 hat geschrieben:Hilft das? Trifft übrigens auch alles bei digitalem Audio zu.
Genau! Stell Dir mal vor, die Digitalisierung der Schallschwingung passiert nicht zu einem singulären Zeitpunkt, sondern über den ganzen Zeitraum bis zur nächten »Abtastzeit«. Dann entsteht kein Aliaseffekt, sondern das Signal ist (bei sinusförmigen Eingangssignal) gleichbleibend (grau).
nomad-3 hat geschrieben:Ich versuch es noch mal mit einem Gedankenexperiment:
Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…
Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…
Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum…
Richtig, und dabei ist unser Problem noch garnicht aufgetreten. Denn eigentlich müsste das Schachbrett eine wesentlich höhere Ortsfrequenz aufweisen, als der Sensor, damit wird unser Aliasingproblem (z.B. Moiré) bekommen.
Aber bei Deinem Versuchsaufbau, würden wir dann (fast) immer eine graues Bild bekommen, da mehrere Schachbrettquadrate durch einen Sensorpixel aufgelöst werden müssten.
Dadurch, dass diese Pixel nun aber keinen Abstand zueinander haben, kann auch kein Aliasing entstehen. Und das Bild bliebe gleichmäßig grau ganz ohne Filter.
nomad-3 hat geschrieben:Gute Grüße,
Uli
@WoWu
Wenn durch das Binning virtuelle Pixel entstehen, die keinen Abstand zueinander hätten und deren Nutzsignal gemittelt würde, hätten wir ebenfalls keinen Filter nötig.
Hier mal einschönes Beispiel, das nur funktioniert,
weil es einen Abstand zwischen den Abtastpunkten gibt.
Mir fällt immer noch nur das Bayermuster als Grund für den Abstand von Pixelsensoren ein. Weil halt die Farben nicht alle Abstandslos gemessen werden.
Grüße
Lars