WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Diese Filter schneiden die Ortsfrequenz etwa 10% unterhalb der Nyquistfrequenz ab.
Je tiefer also die Frequenz liegt, umso tiefer muss das Filter greifen.
Weil hier der Unterschied der beiden Frequenzen aber sehr groß ist und die daraus resultierende Frequenz relativ niedrig, muss ein Filter greifen, dass stark in den Auflösungbereich eingreift.
Daher werden die Bilder so weich.
Wäre die Differenz klein, müsste man nur die oberen Frequenzbereiche begrenzen und die Unschärfe würde nicht so auffallen.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

@ LarsProgressi
Canon sagt: Binning. Skipping würde auch nicht zur Veränderung der S/N Ratio führen. Der Zuwachs an Empfindlichkeit deutet aber klar darauf hin.
Eine Ratio von 6:1 wäre mit Lineskipping nicht annäherungsweise zu erreichen.
Einmal davon abgesehen, dass kein Hersteller gut beraten wäre, auf Photonen, die am Sensor Elektronen erzeugt, in der Verarbeitung zu verzichten.
Das Märchen vom Lineskipping ist entstanden, weil ein paar Leute Patterneffekte, die beim Binning entstehen, nicht deuten konnten und sie der Einfachheit halber zu Skipping Effekten erklärt haben, ohne aber auch die Nebeneffekte die bei Bildmanipulatioen am Sensor entstehen, zu achten.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Hallo WoWu,

ja, ja. Du magst bei den Frequenzen ja Recht haben, aber nur ist das noch kein Grund für Moiré.

Die Filter arbeiten unterschiedlich und dadurch entstehen unterschiedliche Effekte. Einfache Filter haben halt für Videoprofis unangenehme Nebenwirkungen.

Insofern steht immer noch die Frage, ob die Filter nicht doch digital umgesetzt sind und wenigstens theoretisch durch eine Firmwareanpassung der AF101 geändert/verbessert werden könnten.

Grüße
Lars



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Lars,
Du kommst aber an den Gesetzmäßigkeiten nicht vorbei, egal ob Du HW Filter oder digitale Filter benutzt.
Die Nyquistfrequenz steht nun mal fest, Auflösung des Sensors ist eine Konstante und die Ortsfrequenz des Objektivs (bezogen auf das verwendete Teil) ebenfalls.
Ich gehe einmal davon aus, dass Panasonic die Werte ins Optimum gebracht hat, egal ob HW oder SW.
Betrachtet man auch einmal die Kurve der Camera, wie sie Slashcam veröffentlicht hat und gehen wir einmal davon aus, dass kein Messfehler vorliegt, dann sieht man auch bereits ganz klar, das nächste Schwebungsmaximum. Das bedeutet aber, wenn man die Auflösung der Filter heraufsetzen sollte, man unmittelbar in diesem Moiréanteil landen würde.
Daher halte ich es für obsolet, darüber zu spekulieren, ob Pana HW oder SW eingesetzt hat, denn mit einer Manipulation der SW landet man unmittelbar in der Traufe.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Hallo WoWu,

ich denke, Dir wieder widersprechen zu müssen.
Dass die Nyquistfrequenz fest steht, ist klar. Der optische Filter soll die »schlechten« Ortsfrequenzen herausfiltern, damit das Herabsetzen der Abstastfrequenz – und damit die herabgesetzte Nyquistfrequenz – kein Moiré erzeugt.

Das optische Filtern kann man aber auch lassen, wenn man gute, digitale Filter auf die native Sensorauflösung anwendet.

Im speziellen Fall (AF101) magst Du recht haben, _aber_ im Allgemeinen kann man auch (SW-) Filter bauen, die kein Moiré verursachen.

Andernfalls könnte man nie herunterskalieren ohne Moiré entstehen zu lassen.

Bei der AF101 ist der Filter vermutlich festgelegt. Dem will ich nicht wiedersprechen. Aber es könnte auch anders sein.

(Warum schreiben eigentlich einige AF100 und andere AF101?)

Grüße
Lars



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Nee, Lars da werden keine Frequenzen herausgefilter, weil die Fehlinformation bereits Teil des Signals ist. (herausgefiltert heisst ja immer Teile eines Spektrums, hier geht es aber um Pass-Filter)
Und auch Filter "verursachen" kein Moiré sondern wirken der Moirébildung entgegen.

Durch die unterschiedlichen Ortsfrequenzen werden überlappende Helligkeitswerte im Sensor generiert, was dazu führt, dass sie erst gar nicht korrekt am Sensorausgang vorliegen. Es handelt sich also um eine Fehlinformation, die gar keine korrekte Bilddarstellung mehr gewährleistet. Um diese Fehlinformation nicht mehr wirken zu lassen, wird das Signal spatial durch einen Low-Pass Filter so abgeschnitten, dass die Falschinformation nur noch so um die 15% des Bildsignals hat. Diese Filterabstiummung kann ich beeinflussen, bei Software sowohl im Einsatzpunkt (lege ich sie Tiefer, habe ich ein weicheres Bild, lege ich sie höher, habe ich Moiré) als auch in der Flanke (mache ich sie flacher, bekomme ich ein weicheres Bild und Moiré nimmt zu, mache ich sie Steiler, bekomme ich Überschwinger. Die aber sind unberechenbar, weil sie vom Bildinhalt abhängen).
Und das gilt für alle Filter, die an solchen Stellen eingesetzt werden.
Also selbst, wenn man per Hack eingreifen würde, kann man zwar Parameter verändern, handelt sich aber immer andere Nachteile ein.
Man kann das Bild dann zwar in der Form geschmacklich schöner finden aber das heisst nicht, dass es besser geworden ist.

AF100 benutze ich immer, weil wir im 60Hz Raum angesiedelt sind und solche Sachen natürlich unabhängig davon, ob ich AF 100, 101, 106 oder was auch immer benutze denn die letzte Kennziffer sagt ja nur etwas über das Verkaufsland, aber nur wenig über das Gerät aus.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



rush
Beiträge: 14042

Re: Test: Panasonic AG-AF101

Beitrag von rush »

Viele Panasonic-Geräte aus dem EU-Raum sind ja mittlerweile auch umschaltbar zwischen 50Hz u. 60 Hz
keep ya head up



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Hi Wolfgang,

da ich auch gerade beide Kameras (GH2 und AF101) gründlich teste, muss ich mal meinen Senf dazu geben.

Grundsätzlich hast Du auf der Seite der Physik (Nyquist/Shannon) völlig Recht – da kann man einfach nicht widersprechen und kein Vitaly wird irgendwas daran ändern.

Ich bin auch sicher, dass Sony mit der F3 richtig liegen wird, indem ein für Full-HD optimierter Sensor verwendet wird, der dann natürlich einen optimal angepassten OLPF bekommt (siehe EX1/3). Dass sie es inzwischen peinlich vermeiden, Pixeldaten dran zu schreiben, ist sicher naiven Pixelfanatikern geschuldet, die man nicht vergraulen möchte. Insofern ist übrigens der irgendwo im Thread geäußerte Wunsch nach 50 mpx auch Quark, da keine Optik der Welt das derzeit bei einem Sensor unterhalb Mittelformat auflösen könnte – schon mit den 4K (eigentlich 3,2) bei der RED kann ich teure Filmoptiken gegeneinander testen. Übrigens hat die RED einen perfekt auf 4K (eigentlich 4,5) abgestimmten OLPF, und das Material wird so aufgezeichnet (quasi bis zu 120 Fotos per Sekunde). In der Post kann ich dann jeden aufwändigen Skalierungsalgorithmus der Welt darauf loslassen, falls ich nur HD brauche – mit entsprechend guten Ergebnissen!

Zurück zu Panasonic. Wirklich interessant sind folgende Punkte:

– der Sensor der GH2 ist nicht identisch mit dem der AF100!
– die Abstimmung des OLPF ist für Foto optimiert, klar
– sieht man auch, wenn man in's Windowing (erw. Zoom) geht, keinerlei Moiré
– die Softwareskalierung ist besser und macht weniger Moiré
– die Spitzlichter werden besser verarbeitet (s. Good, Bad, Ugly)
– das Handling ist Sch…e und der Ton nur begrenzt brauchbar

Ich kann daraus nur folgendes schließen, dass völlig verschiedene Entwicklerteams daran gearbeitet haben oder unterschiedliche Marketingvorgaben hatten. So etwa:
Bei der GH2: "Zeigt Canon, wo der Hammer hängt!"
Bei der AF101: "Greift Euch einen mFT-Sensor aus dem Regal und baut schnellstmöglich eine Videokamera drumrum!"

In der reinen Bildqualität schlägt die GH2 die AF100. Schade nur, dass sie bei der offensichtlich vorhandenen Prozessorleistung nicht auch noch mehr Zeitlupe beim Windowing bieten und noch ein paar Bugs in der Firmware haben.

Mein Fazit: Wenn ein hochpixeliger Fotosensor einen darauf optimal abgestimmten OLPF besitzt, kann man trotzdem noch beim Herunterskalieren Mist bauen. Oder genug Rechenleistung reinpacken…

Gute Grüße,

Uli



groover
Beiträge: 663

Re: Test: Panasonic AG-AF101

Beitrag von groover »

@Uli
Wie groß ist eigentlich der Unterschied der beiden Geräte im Bezug auf Schärfe?
Sprich, ab welcher Größenordnung wir das sichtbar?

Ich wäre dir sehr dankbar wenn du etwas dazu sagen könntest.
Danke.
LG
groover
Zuletzt geändert von groover am Mi 16 Feb, 2011 11:35, insgesamt 1-mal geändert.



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Hallo Uli,

warum sollte man bei einem Sensor, der mit seiner Auflösung an das Endmaterial angepasst ist noch einen OLPF einsetzen? Des Bayers wegen?

Danke
Lars



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Du brauchst IMMER einen OLPF – bitte schau mal bei Wikipedia zu Nyquist/Shannon…



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

groover hat geschrieben:@Uli
Wie groß ist eigentlich der Unterschied der beiden Geräte im Bezug auf Schärfe?
Minimal, an sich siehst Du das nur auf 'nem ISO-Chart…

Beide sind viel besser als 5D oder 7D.

Das Objektiv hat mehr Einfluss in der Praxis. Wobei die Plastiktüten von Panasonic für den Preis knackscharf sind.



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Das Theorem ist mir bekannt.
Aber diese OLPF sind doch etwas, was erst bei digitalen Kameras verwendet wird, oder waren die schon in den analogen Kameras mit dabei?

Die Abstände der Pixelsensoren müssen ganz schön groß sein, wenn man IMMER einen Filter benötigt.

Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter. Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon). Also war für mich nur noch das Bayermuster als Grund für einen Filter in nicht Foveon-Kameras übrig.
Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe.

So verstehe ich das, wenn der Filter den Zweck hat, Moiré zu verhindern, aber vielleicht hat er eine andere Aufgabe?

Ansonsten werden natürlich oft IR-Filter eingesetzt, aber das ist ja was anderes.

Ich versteh's immer noch nicht.

Grüße
Lars



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

"Das Theorem ist mir bekannt." Aber unverständlich ;-)

"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…


"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch!

"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch. Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten).


"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch.
Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche!

Hilft das? Trifft übrigens auch alles bei digitalem Audio zu.

Ich versuch es noch mal mit einem Gedankenexperiment:

Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…

Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…

Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum…

Gute Grüße,

Uli



cantsin
Beiträge: 14324

Re: Test: Panasonic AG-AF101

Beitrag von cantsin »

nomad-3 hat geschrieben: Das Objektiv hat mehr Einfluss in der Praxis. Wobei die Plastiktüten von Panasonic für den Preis knackscharf sind.
Allerdings fragt sich, wieviel die Kamera dabei schoenrechnet. Das besondere des Micro Four/Thirds-Standards ist ja, dass Objektive kein optisch sauberes Bild mehr an den Sensor liefern muessen, sondern z.B. mit Tonnenverzeichnung, chromatischen Aberrationen etc. designt und in der Objektiv-Firmware ausgewiesen sind, so dass die Kamera die Bilddaten wiederum in ihrer Firmware korrigiert. Auch das 20mm-Pancake hat z.B. eine per Firmware/Software korrigierte Tonnenverzeichnung.
Zuletzt geändert von cantsin am Mi 16 Feb, 2011 16:13, insgesamt 1-mal geändert.



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Völlig korrekt, das wird ja auch bei Camcordern schon länger so gemacht (s. anfänglicher Firmware-Bug der EX-1). Ist aber auch nicht unvernünftig: Jedes Objektiv ist ein schwieriger Kompromiss zwischen CA, Verzeichnung, Vignettierung, Schärfe, Zoombereich und Lichtstärke (und Preis…).

Wenn ich jetzt weiß, dass ich drei Faktoren in Software rausrechnen werde, kann ich mich auf die verbleibenden Faktoren konzentrieren, hier also Schärfe und Zoombereich (die Lichtstärke ist ja bei den Zooms nicht so dolle) oder Schärfe und Lichtstärke (beim Pancake). Wen wunderts da noch, dass ich für relativ kleines Geld so gute Bilder bekomme.

Vergleicht das mal mit einem Optimo-Zoom für den Preis einer Eigentumswohnung!



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Das Problem ist nicht der Sensor oder die Filtermaske, das Problem entsteht zwischen Objektiv und dem Sensor. Diese Abstimmung ist relevant.
Stimmen die Ortsfrequenzen des Objektivs und des Sensors überein, wird es zu keiner Mischfrequenz kommen. Weichen aber die beiden Frequenzen voneinander ab, so treten Additionen/Subtraktionen auf. Man spricht auch von der "Rückfaltung des Signalspektrums in sich selbst".
Ein großer Sensor hat entsprechend viele Pixels, sodass sich über den Sensor rd. 60-80 Lp/mm ergeben. darauf sind die Objektive abgestimmt und liefern diese Leistung ebenfalls.
Binne ich nun aber den Sensor aus 4x4 zu 1x1, mache ich aus 16 Pixels also 4 Pixels, erhalte ich nur noch eine Sensorauflösung von rd. 15-20 Lp/mm. Das Objektiv hat aber nach wie vor 60-80 Lp/mm. das bedeutet, dass ein (großes) Pixel auch Anteile aus Auflösungen bekommt, die für den Nachbarpixel bestimmt sind. Die Leinpaare sind also kleiner als ein Pixel und nicht abgestimmt auf das Pixelraster.
Es enteht also aus der Frequenz des Objektivs und der Frequenz des Sensors, eine dritte Frequenz. Die Schwebung. Diese Schwebung ist das eigentliche Problem.
Das ist die Rückfaltung. Wenn diese sich mit dem Signal mischt, spricht man von Aliasing. Das Signal enthält dann also diese Fehlinformation, also die Bildfehler.
Mit dem Low-Pass Filter versucht man nun, die Ortsfrequenz des Objektivs so zu begrenzen, dass sich Sensor und Optik wieder annähern. Man schneidet also die hohen Frequenzen, also die "Schärfe" ab, um weiter in die Nähe von 20 Lp/mm zu kommen.
Und das wars schon.... es entsteht weniger Rückfaltung und damit im Bild weniger Aliasing. Leider wird es aber eben auch unscharf dadurch und Filter können diese Frequenz aus einem bereits gemischten Signal nicht mehr entfernen, weil die Frequenz auch mit dem Detailinhalt variiert. Siehe Aliasing im Bild. Man kann nur die Rückfaltung minimieren.
Die Bayermaske und alles, was dahinter passiert ist eigentlich irrelevant für das Thema.
Auf der Grafik sieht man, dass die Auflösung mit zunehmender Ortsfrequenz nicht größer wird, sondern dass Falschinformationen ein zufälliges Bild erzeugen.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Zuletzt geändert von WoWu am Mi 16 Feb, 2011 14:06, insgesamt 1-mal geändert.



freezer
Beiträge: 3299

Re: Test: Panasonic AG-AF101

Beitrag von freezer »

@ WoWu

Wenn Du mir Deine e-Mail-Adresse gibst, dann schicke ich Dir einen Link auf meinem Server von Testaufnahmen mit der Sony F3. Ich kann das Rohmaterial aus rechtlichen Gründen leider nicht einfach online stellen, da Persönlichkeitsrechte gestreift werden.

Dann kannst Du Dir selbst ein Bild von der Aufnahmequalität machen.

lg, Robert

-> robert (.) niessner (@) laufbildkommission (.) com
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Hallo Robert,
Das würde ich gern.
Nimm doch einfach den:
info(at)auberge-tv.com

Vielen Dank im vorab.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



jogol
Beiträge: 779

Re: Test: Panasonic AG-AF101

Beitrag von jogol »

@WoWu
Super erklärt.



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Hallo Zusammen,

nomad-3 hat geschrieben:"Das Theorem ist mir bekannt." Aber unverständlich ;-)

"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…


"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch!
Begründung?
nomad-3 hat geschrieben:"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch.
Begründung?
nomad-3 hat geschrieben:Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten).
Das ist klar, solange ich einen Abstand zwischen den Sensoren habe. Allerdings ist das hier bei den Canons ein Mischung von Gründen, da die wohl alle Bayersensoren haben, oder?

nomad-3 hat geschrieben:"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch.
Begründung? Der folgende Satz ist jedenfalls keine.
nomad-3 hat geschrieben:Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche!
Na endlich, genau das meine ich, Du veranschaulichst es ja selber weiter unten. Der »singuläre Ort« meint, der Pixelsensor hat eine Ausdehnung, von der im Theorem nicht ausgegangen wird! Das Theorem »lebt« davon, dass das Pixel keine Ausdehnung aber einen Abstand zu seinem Nachbarn hat.
nomad-3 hat geschrieben:Hilft das? Trifft übrigens auch alles bei digitalem Audio zu.
Genau! Stell Dir mal vor, die Digitalisierung der Schallschwingung passiert nicht zu einem singulären Zeitpunkt, sondern über den ganzen Zeitraum bis zur nächten »Abtastzeit«. Dann entsteht kein Aliaseffekt, sondern das Signal ist (bei sinusförmigen Eingangssignal) gleichbleibend (grau).
nomad-3 hat geschrieben:Ich versuch es noch mal mit einem Gedankenexperiment:

Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…

Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…

Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum…
Richtig, und dabei ist unser Problem noch garnicht aufgetreten. Denn eigentlich müsste das Schachbrett eine wesentlich höhere Ortsfrequenz aufweisen, als der Sensor, damit wird unser Aliasingproblem (z.B. Moiré) bekommen.

Aber bei Deinem Versuchsaufbau, würden wir dann (fast) immer eine graues Bild bekommen, da mehrere Schachbrettquadrate durch einen Sensorpixel aufgelöst werden müssten.
Dadurch, dass diese Pixel nun aber keinen Abstand zueinander haben, kann auch kein Aliasing entstehen. Und das Bild bliebe gleichmäßig grau ganz ohne Filter.
nomad-3 hat geschrieben:Gute Grüße,

Uli
@WoWu
Wenn durch das Binning virtuelle Pixel entstehen, die keinen Abstand zueinander hätten und deren Nutzsignal gemittelt würde, hätten wir ebenfalls keinen Filter nötig.

Hier mal einschönes Beispiel, das nur funktioniert, weil es einen Abstand zwischen den Abtastpunkten gibt.

Mir fällt immer noch nur das Bayermuster als Grund für den Abstand von Pixelsensoren ein. Weil halt die Farben nicht alle Abstandslos gemessen werden.


Grüße
Lars



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

ich weiss nicht, was Du als "ABSTAND" bezeichnest. Die lichtunempfindliche Fläche zwischen den Pixels oder die Anzahl der Pixels über eine Strecke (Fläche) ?
Das hat mit dem Mosaikfilter zunächst mal nichts zu tun.
Beim Binning entsteht nicht weiter, als dass die einzelnen Pixel so ausgelesen würden, als wären sie 4x so groß.
Ein Sensor hat also eine entsprechend kleinere Ortsfrequenz. Das Objektiv aber nicht, weil sich daran nichts ändert.
Aus diesen beiden Größen entsteht die Rückfaltung. Das hat mit dem Farbmosaik lediglich dadurch zu tun, dass anschliessend die drei Pattern unterschiedliche Rückfaltungen aufweisen und dadurch (streng genommen) 3 Rückfaltungen entstehen. Aber das spielt in dieser oberflächlichen Betrachtung nur eine nachgelagerte Rolle.
Betrachtet man nur einen Wert, so entsteht das folgende Bild.
Das Beispiel zeigt einmal nur das Missverhältnis 7:10, was in unserem Fall noch sehr viel größer ist. Daran sieht man aber schon, die Entstehung des Bildfehlers.
Man erkennt, dass auf 10 Pixels ca. 7 Hell / Dunkel Balkenpaare/ Linienpaare kommen.
Die Balkenbreiten sind jetzt kleiner als ein Pixel (etwa Faktor 0,7), so dass auf ein Pixel ein heller, aber auch noch ein gewisser Anteil eines dunklen Streifens fällt.
Das Pixel kann dies natürlich nicht mehr unterscheiden und mittelt die Helligkeit.
Daher haben die aufeinander folgenden Pixels jetzt verschieden helle Grautöne je nach Flächenanteil der hellen und dunklen Balken auf dem Pixel.
Die Helligkeitsverteilung darunter zeigt, dass jetzt nur noch drei (grob gestufte) Übergänge von maximaler Helligkeit bis maximaler Dunkelheit pro 10 Pixels erfolgen. Eigentlich sollten es aber 7 Linienpaare pro 10 Pixels sein, wie im Abbildungsmuster.
Das Bild hat von dem Punkt an keine Ähnlichkeit mit dem Objekt mehr, es besteht nur noch aus Fehlinformation! Wenn man bedenkt, dass die höchste übertragbare Linienpaarzahl gleich 5 Linienpaare pro 10 Pixels ist, so erkennt man auch die Gesetzmässigkeit für diesen eigentümlichen Informationsverlust:
Die, über die maximale Linienpaarzahl von 5 Lp/10 Pixel hinausgehenden Linienpaare (7 Lp/10 Pixel - 5 Lp/10 Pixel = 2 Lp/10 Pixel), werden von der maximal wiedergebbaren Linienpaarzahl abgezogen (5 Lp/10 Pixel - 2 Lp/10 Pixel = 3 Lp/10 Pixel) und ergeben so die tatsächlich wiedergegebene (falsche) Struktur von 3 Lp/10 Pixels. Die Kontrastübertragungsfunktion wird also an der maximal wiedergebbaren Linienpaarzahl gespiegelt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



LarsProgressiv
Beiträge: 225

Re: Test: Panasonic AG-AF101

Beitrag von LarsProgressiv »

Hallo WoWu,

mit Abstand meine ich die Fläche zwischen den Pixeln.

Die mathematischen Begründungen sind ja alle samt richtig. Das bezweifle ich ja garnicht.

Aber dennoch!
Ich vermute, dass beim Binning nur Pixel mit gleichem Farbfilder miteinander gekoppelt werden. Dadurch entstehen große Lücken zwischen den Sensoren, wenn es sich um einen Bayersensor handelt. Das ist der (einzige) Grund, warum diese Rückfaltungen den bekannten Effekt bewirken. Und das hat sehr viel mit dem Mosaikmuster zu tun.

Nehmen wir mal an, die Foveonsensoren haben einen vernachlässigbaren Abstand zwischen den Pixeln. Dann behaupte ich, dass Deine Rechnungen immernoch richtig sind, aber die Rückfaltung keine Rolle mehr spielt. Auch beim Binning nicht mehr.
Dann müssten, wenn diese OLPF keine andere Funktion haben, keine OLPF notwendig sein.

Du wiederholst Dich, das bedeutet, Du gehst davon aus, dass ich Dich oder die Mathematik Deiner Ausführungen nicht verstehe. Schade, das ist nämlich leider meist der Grund, warum Leute wie ich argumentieren können, bis sie umfallen, weil sie nicht ernst genommen werden.

Ich schreib's nochmal. Das Nyquist-Shannon-Theorem begründet ein Phänomen, das nur auftritt, wenn die Abtastung im Verhältnis zum kontinuierlichen Signal sehr begrenzt (signulär) satt findet, sei es nun zeitlich oder örtlich. Das bedeutet nämlich, dass es einen nicht zu vernachlässigenden Abstand (zeitlich oder örtlich) zwischen den Messungen gibt.

Grüße
Lars



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

@ Lars
Deine Befürchtung bezüglich der Akzeptanz ist absolut unbegründet. ich schätze Deine Einwände und versuche, sie nachzuvollziehen.

Was ich aus Deinen Erläuterungen jetzt sehe, ist dass wir über zwei unterschiedliche Phänomene diskutieren, weil das, was Du anführst grundsätzlich richtig ist, aber auf die Quantisierung zutrifft.
Das Nyquist-Shannon-Theorem begründet ein Phänomen, das nur auftritt, wenn die Abtastung im Verhältnis zum kontinuierlichen Signal sehr begrenzt (signulär) satt findet, (sei es nun zeitlich oder örtlich).
Das örtlich hab ich mal in Klammern gesetzt, weil es nicht für denselben Prozess zutrifft. Das Nyquist-Shannon-Theorem findet überall Anwendung, wo sich Frequenzen überlagern.
Dein Einwand, und auch der bezüglich der Filter (oben) trifft für den Prozess : Abtastfrequenz : Samplingfrequenz 100%ig zu.
Auch dass ein Signalverlauf ziemlich genau zurückgerechnet werden kann. Das war vermutlich das von Dir beschriebene Filter.
Das heisst, zwischen einem kontinuierlichen und einem zeitdiskreten Signal.
Da bin ich völlig bei Dir !!
Auch kann ich so Deine Darstellung unterbringen, dass eine Abtastung punktförmig erfolgen muss, damit eine Zuordnung optimal erfolgen kann. Zeitlich wäre das unendlich kurze Zeit und räumlich der unendlich kleine Raum. Das beschreibt den Öffnungsfehler( und bei entsprechend langen Signalen auch zum Fenster-fehler).
Das aber führt zum Taktverhältnis, also Impulsbreite und Abtastperiode.
Es ist also alles richtig, was Du schreibst, nur eben ein anderer, nachgelagerter Prozess. (Quantisierung) wo natürlich ebenfalls Fehler auftauchen, allerdings anderer Natur und wo selbstverständlich auch N/S Theorem zur Anwendung kommt.

Nur ... das ist eben nicht der Fehler, um den es hier geht ...
(Du sprichst über die Abtastung der zur Quantisierung und ich spreche über die Abtastung am Sensor).
Hier liegt nämlich ein analoges Problem vor, nämlich zwischen Auflösungsvermögen eines Objektives und dessen Projektion auf eine Sensoroberfläche und den daraus resultierenden Fehlern, die rein optischer Natur sind und daher auch lediglich analog, durch ein gegenständliches Filter oder die Anpassung des optischen Weges behoben werden können.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Die Kurve eines Audiosignals wird bei der Digitalisierung auch nicht kontinuierlich abgetastet – auch wenn gar keine (bzw. vernachlässigbar kleine) Pausen zwischen den Samples liegen. Dadurch wird eine ursprünglich kontinuierliche, analoge Kurve quantisiert. Es wird immer über einen bestimmten Zeitraum gemittelt, bei der CD z. B. über 22,67 Mikrosekunden. Du bekommst also kleinste Treppchen, die auf keine Weise mehr rekonstruierbar machen, wie eine Kurve ausgesehen (bzw. geklungen) hat, die feinere Details aufwies, als ein Sample groß ist. Das macht aber nichts, da die Auflösung auch mit Anti-Alias Filterung über der Hörgrenze liegt. Soweit in der zeitlichen Form.

Entsprechend geht es aber bei der flächigen Form, also beim Bild, nicht um den Abstand der Sensorflächen, sondern darum, dass der einzelne Sensor kein Bild, sondern einen Helligkeitswert liefert. Er mittelt also den Wert über eine Fläche, wo ursprünglich ein kontinuierlicher Helligkeitsübergang existiert haben kann.

Bitte beachten: An dieser Stelle sprechen wir noch gar nicht von Pixeln (die haben nämlich qua Definition gar keine Ausdehnung), sondern von Fotozellen. Darauf will m. E. auch Wolfgang hinaus, wenn er von zwei verschiedenen Quantisierungen schreibt. Gespeichert wird also nur ein Wert, wo vorher eine Fläche war.

Und nun versuch bitte noch mal, das mit dem Schachbrettmuster nachzuvollziehen: Da es garantiert keine perfekte Abbildung aller Flächen auf die jeweiligen Fotozellen gibt, sondern zumindest noch Verzeichnungen des Objektivs und kleinste Winkelfehler bei der Aufstellung, bekommst Du mitnichten ein Schachbrett oder reines Grau, sondern die interessantesten Muster aus Grautönen, die absolut nichts mit dem Schachbrett mehr gemein haben…



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Genau das zeigt die Grafik, die ich oben eingestellt habe.
Nur würde die Auflösung des Objektiv exakt der Pixel - Auflösung (bleiben wir der Einfachheit halber dabe) entsprechen, gäbe es auch wieder das Schachbrettmuster und keine Rückfaltung.
Genau da liegt eben das Problem und das lässt sich eben nur beseitigen, wenn ich die beiden Parameter anpasse, oder den Fehler durch ein Filter überdeck.
Nur dann sind eben auch die oberen Frequenzen weg und damit auch die Datails.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Eben.
Wenn das Objektiv nicht mehr auflöst als der Sensor, bildet es praktisch selbst den OLPF. Es soll ja auch Leute geben, die auf der Canon bewusst "Flaschenböden"benutzen, um weniger Moiré zu haben.

Wobei das in der Praxis mit dem Objektiv auch nicht so einfach ist, da eigentlich jedes in der Mitte besser auflöst als am Rande, während der Sensor natürlich überall die gleiche Abtastung aufweist. Man müsste also die Auflösung so gering halten, dass es auch in der Mitte kein Aliasing gäbe…
Zuletzt geändert von nomad-3 am Mi 16 Feb, 2011 20:31, insgesamt 1-mal geändert.



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

Ja, so funktionieren ja praktisch alle Camcorder mit ihren knopfgroßen Scherben.

Aber hier legt das Problem eben genau anders herum.
Das Objektiv löst so um die 80 Lp/mm auf und gebinned wären nur so um die 20-30 nötig .... Es bring eben nix, eine Videoauflösung mit Objektiven zu realisieren, die für höhere Auflösungen gedacht sind ..... ausser eben, man liebt Moiré ....
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



handiro
Beiträge: 3259

Re: Test: Panasonic AG-AF101

Beitrag von handiro »

nomad-3 hat geschrieben:Die Kurve eines Audiosignals wird bei der Digitalisierung auch nicht kontinuierlich abgetastet – auch wenn gar keine (bzw. vernachlässigbar kleine) Pausen zwischen den Samples liegen. Dadurch wird eine ursprünglich kontinuierliche, analoge Kurve quantisiert. Es wird immer über einen bestimmten Zeitraum gemittelt, bei der CD z. B. über 22,67 Mikrosekunden. Du bekommst also kleinste Treppchen, die auf keine Weise mehr rekonstruierbar machen, wie eine Kurve ausgesehen (bzw. geklungen) hat, die feinere Details aufwies, als ein Sample groß ist. Das macht aber nichts, da die Auflösung auch mit Anti-Alias Filterung über der Hörgrenze liegt. Soweit in der zeitlichen Form.
Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre! Seit Karajan mit Philips dieses Verbrechen, 44,1 KHz Auflösung für ausreichend zu erklären, beging, höre ich keine digitalen Aufnahmen mehr, nur noch Live Musik. Aber nicht diese verlogenen Auftritte von Pop/Rock/wasauchimmer Bands, bei denen zusätzlich noch das Playback im Hintergrund eiert.

Warum gibts denn überhaupt noch Live Musik? Es ist doch schon alles 3 und 4mal digitalisiert.
Warum wird auch heute noch auf Celluloid gefilmt? Weil es so praktisch und billig ist?

Überhaupt hinkt der Vergleich noch mehr wenn man bedenkt, dass ein gesundes Ohr tausende male schneller ist als ein gesundes Auge!



WoWu
Beiträge: 14819

Re: Test: Panasonic AG-AF101

Beitrag von WoWu »

@ handiro

Auch wenn´s jetzt hier nicht ganz zum Thema gehört, aber ich gebe Dir da Recht, weil der Mensch Oberwellen sehr wohl wahrnimmt, weil sie auch Sub-Harmonische bilden, die nicht nur mit den Ohren wahrgenommen werden.
Das ist nach dem Low-Pass Filter ein für allemal weg, mal ganz davon abgesehen, dass auch ein Burmester keinen Konzertsaal ersetzen kann und die optische Wahrnehmung unmittelbar mit der akustischen Wahrnehmung korrelieren muss.
Wenn ein Mensch in einen Raum geht, weiss er sofort, wie er klingt.
Da muss noch nicht ein Ton gefallen sein.
Dazu kommt noch der Umstand, dass der Mensch sich nach etwas 20 Minuten nicht mehr in der Situation wohl fühlt, wenn optische Wahrnehmung und akustische Wahrnehmung nicht mehr korrelieren.
Daher sind Aufzeichnungen, egal ob akustisch oder optisch immer ein äußerst mangelhaftes Abbild.

Aber das ist jetzt ganz sicher ein anderer Thread.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

handiro hat geschrieben:Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre!
Habe ich behauptet, dass ich es gut finde? Ich habe es als Vergleich herangezogen, weil ich schließlich auch Aliasing bei Kameras sehe und hasse!

Wenn unser Bildungssystem in der Lage wäre, es zu finanzieren, würde ich unsere Studenten auch lieber noch auf Zelluloid ausbilden, wie ich es 15 Jahre getan habe. Aber wir geben mit 3% des BSP eine der niedrigsten Raten der Industrieländer für unsere Zukunft aus… (Soweit mein Off-Topic Beitrag)

So, wie Ton bestenfalls mit 24/96 vernünftig digitalisiert werden kann, ist auch nur eine RED oder Alexa als Alternative zu Film akzeptabel. Leider sind das aber Alternativen, die sich kaum jemand der Leser bei Slashcam leisten kann.



groover
Beiträge: 663

Re: Test: Panasonic AG-AF101

Beitrag von groover »

wie ich diesen thread genial finde.

Schon lange habe ich nicht mehr mit solch Begeisterung so gerne mitgelesen.
Danke an die Beteiligten.

Ich verstehe eigentlich nur mehr die Hälfte (oder noch weniger) aber das macht nichts, ich lese manche Sätze zwei doppelt.

Eine Frage hab ich hier.
Heißt das jetzt, dass die GH2 und die AF101 auch mit sehr guten teuren Objektiven die Bildleistung nur "etwas" aufbessern im Vergleich zu Standardobjektiven, weil die Lp/mm im optimalen Verhältniss zum Sensor arbeiten sollen?

Zitat WoWu:
"Das Objektiv löst so um die 80 Lp/mm auf und gebinned wären nur so um die 20-30 nötig .... Es bring eben nix, eine Videoauflösung mit Objektiven zu realisieren, die für höhere Auflösungen gedacht sind ..... ausser eben, man liebt Moiré .... "



Was mich interessiert ist, ab welcher Größe realisiert denn das menschliche Auge beim Betrachen ob etwas unscharf ist und Moire im Spiel sind?

LG
groover



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Erst mal muss man die Kameras getrennt betrachten, weil die GH2 natürlich als Fotokamera von guten Objektiven sehr wohl profitiert. Ich habe es mal mit einem Rokkor 50mm 1,4 PG probiert (Kenner wissen, was ich meine) und die Bilder sehen toll aus.

Die AF101 wird weniger davon profitieren, andererseits haben wir ja nicht behauptet, sie habe gar keinen Aliasing-Filter – er ist nur nicht optimal ausgelegt. Meine persönliche Vermutung ist, dass sie einen Filter für die volle Auflösung hat und ein relativ schlechtes Downscaling mangels Prozessorleistung. Aber an dieser Kamera wird man doch hochwertige Filmobjektive eher einsetzen, um die Schärfe gut ziehen zu können und weniger Atmen zu bekommen.

Aliasing sieht man nur bei bestimmten Motiven, Schärfe eigentlich immer. Und noch etwas: Eigentlich ist jede Optik nur für einen Punkt perfekt scharf. Dass man überhaupt von einer Schärfentiefe sprechen kann, bezieht sich bereits auf das Auflösungsvermögen des menschlichen Auges.



groover
Beiträge: 663

Re: Test: Panasonic AG-AF101

Beitrag von groover »

alles klar........

Gibt es bei der AF101 nicht eine Möglichkeit die Schärfe intern noch etwas anzuheben?
LG
groover



nomad-3
Beiträge: 29

Re: Test: Panasonic AG-AF101

Beitrag von nomad-3 »

Ja, klar: rechts, links, rauf, runter – so viel Du willst!
Aber das ist elektronische Kantenschärfung, die auch sämtliche Artefakte wie Aliasing und Rauschen mit anschärft…

Ich dreh' sie immer ziemlich weit runter!



 Aktuelle Beiträge [alle Foren]
 
» Behind The Boom with Boom Operator Ken Strain | URSA Exclusive
von pillepalle - Fr 21:34
» Eigenes kartenspiel mit software erstellen.
von balkanesel - Fr 21:16
» Sendung Ersatzteile aus nicht EU Ländern nach Deutschland
von soulbrother - Fr 21:01
» Lumix S5II Bildzittern, Pulsieren
von Peter-LS - Fr 20:58
» Neues Blackmagic DaVinci Resolve 19 bringt über 100 neue Funktionen
von Frank Glencairn - Fr 20:58
» Was schaust Du gerade?
von Frank Glencairn - Fr 20:32
» - Erfahrungsbericht - DJI Pocket 3
von Frank Glencairn - Fr 20:09
» Davinci Resolve, Color Card und Monitorkalibrierung
von Frank Glencairn - Fr 19:25
» Ich brauche dringend Teilnehmende an meiner Studie für meine Masterarbeit
von freezer - Fr 19:05
» Motor Smart: Intelligenter AutoFocus-Motor von PDMovie nutzt LiDAR und KI
von roki100 - Fr 18:04
» AMD Radeon RX 7900 GRE mit 16GB und 256 Bit - preiswerte Grafikkarte für DaVinci Resolve?
von iasi - Fr 17:27
» Videointerview mit dem eigenem KI-Zwilling
von Frank Glencairn - Fr 16:44
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von roki100 - Fr 15:16
» Fadenvorhang animieren- wie mache ich das?
von hml94 - Fr 14:05
» Flackern bei der Digitalisierung - USB Grabby
von Laboriosa - Fr 13:36
» Aktuelle rechtliche Situation für AI generierte Inhalte
von Frank Glencairn - Fr 10:57
» Kamera Kaufberatung Budget ca. 2000€
von suchor - Fr 9:47
» LVX AURORA VISTA Primes - Re-Housing und Vintage Tuning jetzt auch in Europa
von slashCAM - Fr 9:39
» Was hast Du zuletzt gekauft?
von klusterdegenerierung - Fr 7:14
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Frank Glencairn - Fr 7:02
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Darth Schneider - Fr 5:57
» Linsen (Vintage, Anamorphic & Co.)
von Funless - Do 23:58
» H264 4K Minischneideprogramm Empfehlung? Freeware?
von Videopower - Do 22:31
» VideoGigaGAN - Adobe zeigt generative KI Super Resolution für Bewegtbilder
von r.p.television - Do 21:25
» Hi 8 Videos schärfer machen
von Manschy - Do 20:52
» WORKFLOW: Stockfootage & Resolve
von freezer - Do 19:20
» AMDs Notebook APU Strix Halo - besser als Apples M3 Pro Chip?
von berlin123 - Do 17:34
» AJA: ColorBox 2.1 ACES-Workflow und DRM2 für das DIT-Cart erklärt
von slashCAM - Do 15:48
» Insta360 X4 360°-Action-Kamera filmt in 8K
von -paleface- - Do 14:19
» Ambisonics in Resolve
von Axel - Do 12:09
» MP4 Video verlustfrei exportieren
von Frank Glencairn - Do 10:54
» NAB 2024 Neuigkeiten
von Frank Glencairn - Do 10:23
» Was hörst Du gerade?
von soulbrother - Do 8:55
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von cantsin - Do 8:39
» Messevideo: Atomos NINJA PHONE erklärt
von Frank Glencairn - Do 6:06