Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

Was passiert eigentlich wenn ne Fotoknipse tatsächlich ~4K auflösen könnte?!?!



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

@IASI
Jede Kamera zeigt Unterschiede zu einer andern Kamera in der Bildqualität.
Insofern ist Deine Frage also nicht zu beantworten.
Aber Du weißt hoffentlich, dass ein hoch auflösendes Objektiv auf gering auflösenden Kameraköpfen auch kontraproduktiv sein kann.
Wer also mit seinem Objekriv über unterschiedliche Kameraköpfe hinweghidelt ist sowieso Anfänger und hat das Prinzip noch nicht verstanden.

Ansonsten bin ich zielorientiert.
Mir ist das ziemlich schnurz, mit welchem technischen Aufwand 4K optischer Auflösung erreicht werden, wenn sie denn erreicht sind.

Nur mit dicken goldenen Ziffern auf dem Karton werden sie eben nicht erreicht.
Das, was wir derzeit haben, ist anständiges HD in einigen Kameras .... lange noch nicht in den meisten Kameras.

Aber da soll jeder selbst mal den Versuch machen.
Das es Sinn macht, haben wir gesehen.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

Starshine Pictures hat geschrieben: Mo 26 Jun, 2017 09:12 Hier liegt eventuell ein Missverständnis vor! Die C100 ist KEINE 4K Kamera! Sie bringt "nur" FullHD. Allerdings ist ein 4K Sensor verbaut. Ich habe den "4k Test" nur gemacht um zu schauen wie stark die Differenz zwischen FullHD und 4k Matrix ist und wie Viel kleiner die Pixel wären. Und was man sehen kann ist, dass die C100, obwohl die Kamera mit dem besten FullHD out of the box am Markt glänzt, den FullHD Auflösungstest nur mit einem Fragezeichen besteht (Colorchecker vs. Dachrinnenschelle). Trotz der einzigartigen Sensorauslesung. Aber das ist ja in der Theorie nichts neues. Ist aber trotzdem interessant mal Selbst zu testen.
Ähhh ... wie machst du mit einer HD-Kamera einen UHD/4K Test?
Jott hat geschrieben: Mo 26 Jun, 2017 10:01 Trotzdem wird dein Test mit einer HD-Kamera ab sofort immer als Beweis dafür herhalten, dass es 4K nicht gibt! :-)
Na der war gut! :)

Roland Schulz hat geschrieben: Mo 26 Jun, 2017 14:04 Wowu´s Gleichung lautete:
WoWu hat geschrieben: So 25 Jun, 2017 15:50 NyquistFrequenz= 1 / ( 2*Pixelgröße)
Eine Frequenz definiert sich durch eine zeitliche, periodische Veränderung [Einheit Hertz/Hz durch 1/T in 1/s].
In WoWu´s Gleichung wurde aber die "Frequenz" [1/s] mit dem Kehrwert der zweifachen Pixelgröße [Fläche/µm²] gleichgesetzt ;-), das ist nicht nur "wunderlich" sondern physikalisch gesehen auch Nonsense!
In der Physik und der Wissenschaft allgemein ist es eine Totsünde ungleiche Einheiten gleich zu setzen, es ist einfach falsch!
Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben. Ohne von dieser Materie oder Theoriebildung jetzt viel zu verstehen, die Formel kann aus diesen grundsätzlichen Überlegungen heraus so tatsächlich nicht stimmen. Das kann vielleicht noch eine nicht-physikalische Praktikerformel sein...
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

Im Contaxt ging es um die Abtastgrenze.
Nach Nyquist-Abtasttheorem muss zum Sampling eines Signals mehr als die doppelte Frequenz gegeben sein, um sich dem Ausgangssignal sauber anzunähern.
Analog gilt das Abtasttheorem auch genauso bei Bildern, wobei die Abtastfrequenz dann in Pixeln oder Linienpaaren/mm bestimmt werden kann.
Es bring doch in diesem Zusammenhang überhaupt nichts, das in MHz anzugeben.
Denkt Ihr eigentlich irgendwann auch mal mit ?

Man kann eine theoretische Betrachtung natürlich auch aus dem Context lösen und dann darüber lamentieren.

Rolands Postings poppen bei mir übrigens nicht mehr auf.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 28451

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von iasi »

WoWu hat geschrieben: Mo 26 Jun, 2017 17:28 @IASI
Jede Kamera zeigt Unterschiede zu einer andern Kamera in der Bildqualität.
Insofern ist Deine Frage also nicht zu beantworten.
Aber Du weißt hoffentlich, dass ein hoch auflösendes Objektiv auf gering auflösenden Kameraköpfen auch kontraproduktiv sein kann.
Wer also mit seinem Objekriv über unterschiedliche Kameraköpfe hinweghidelt ist sowieso Anfänger und hat das Prinzip noch nicht verstanden.

Nun - je mehr Variabeln desto schwieriger der Vergleich.
Jede Wette, dass bei Verwendung unterschiedlicher Objektive die Diskussion über Auflösungsvermögen losbrechen würde.
Aber mal ganz praktisch betrachtet: Ein MasterPrime dürfte an einer Alexa wohl kaum kontraproduktiv wirken. Mir ist nicht wirklich klar, ab welcher (geringen) Auflösung du einen kontraproduktiven Effekt erwartest.

Übrigens steht auf den "Verpackungen" die Pixelzahl - was ist denn deiner Meinung nach daran so falsch?
Es dürfte wohl den meisten Leuten klar sein, dass eine Alexa65 mit ihren 6k bessere Ergebnisse liefert, als eine 8k-Telefonkamera. Was stört dich denn immer so sehr an der Angabe eines Wertes, der schließlich nicht falsch ist.

Letztlich muss ich auch feststellen, dass du durch das, was du oben schreibst, zugibst, dass hochauflösende Sensoren aus den immer höher auslösenden Objetiven schlicht mehr herausholen können.
Ich weiß: Nun kommst du sicherlich wieder mit Bilddetails, die dabei nicht vorhanden seien.
Den Beweis dafür hast du aber auch noch nicht angetreten - deine theoretischen Auslassung genügen dafür nicht, zumal die Praxis wohl anderes zeigt.



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

Das erklärt noch immer nicht wieso die von dir genannte Formel den Reziprokwert einer Längenangabe in eine Frequenz - als Anzahl pro Zeit - umsetzt.

Das geht tatsächlich physikalisch einfach nicht.

War deine Formel vielleicht doch einfach nur falsch? Kann ja mal passieren.
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

@ Iasi,
es ist eher anders herum, dass die Praxis zeigt, dass die Theorie stimmt denn die Praxis hat bisher keine 4K Bildauflösung geliefert, wo 4K drauf stand und die ganzen 4K Enthusiasten das auch immer angenommen haben.
Komm mir also nicht mehr mit der Praxis, es sei denn, Du machst mit Deiner Kamera mal keine bunten Bilder, sondern einen nachvollziehbaren Auflösungstest.
Was das Kontraproduktive von hoch auflösenden Optiken auf unangepassten Kameraköpfen betrifft, solltest Du Dich nocheinmal mit dem Thema Aliasing auseinandersetzen.
Denn Aliasing ist keine Bildauflösung.
Ich weiß nicht, wieviel Jahre wir nun schon über die Zusammenhänge zwischen Objektiv und Sensorbeschaffenheit posten ... aber es ist ziemlich traurig, dass Du nach 9 Jahren immernoch damit kommst.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

Und, läßt sich diese Frage nach der Formel noch klären? Denn das wüßten hier sicherlich einige doch gerne.
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

Du bist nur wieder auf Zoff gebürstet. Kennen wir ja schon.
Du hast schon verstanden, was ich oben erklärt habe.
Wenn nicht, dann lamentier nur weiter.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



domain
Beiträge: 11062

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von domain »

http://www.vision-doctor.com/optische-q ... esung.html

Unter Frequenz oder Ortsfrequenz wird hier wohl das Auflösungsvermögen eines Kamerasystems verstanden.

"Die theoretische Auflösung eines Kamerasensors wird dabei durch die Nyquist-Frequenz beschrieben:

NyquistFrequenz= 1 / ( 2*Pixelgröße)

... Pixelgrößen moderner Kamera-Sensoren in der industriellen Bildverarbeitung von ca. 3,5 bis 14µm reichen. Dies ergibt ein theoretisches physikalisches Auflösungsvermögen von 7 bis 28µm bei der Abbildung feinster Strukturen."

Also so ungewöhnlich ist die von WoWu angeführte Formel auch wieder nicht und sagt einfach aus, dass man min. doppelt so viele Pixel braucht um eine angepeilte Auflösung theoretisch zu erreichen



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

Es geht ihnen auch nicht um die "Formel", sondern darum, ihren Stuhlgang abzusondern.
(Sorry)
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



nic
Beiträge: 2028

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von nic »

Jetzt wird es sehr skurril hier...



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

Entschuldigung, hier wurde von dir eine recht einfache Formel genannte.

Diese Formel hält den einfachsten physikalischen Fragen - dem Abgleich der physikalischen Dimensionen - nicht stand.

Das hat nichts mit Stuhlgang oder Lamentieren zu tun - sondern einfach mit trivialer physikalischer Richtigkeit. Was ist so schwer daran das richtig zu stellen bzw. aufzuklären?

Aber wenn dir das bei der einfachen Formel nicht möglich ist - ok ist mir auch recht.
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

alles klar ... und tschüss

@7nic
Das Niveau dürfte doch nicht unbekannt sein.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



domain
Beiträge: 11062

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von domain »

Die Nyquistfrequenz kommt aber auch in einem anderen Zusammenhang zum Vorschein, nämlich z.B. bei der Abtastfrequenz von CD`s von 44.1 kHz. Die Bitbreite spielt dabei eigentlich keine Rolle, sondern ermöglicht nur feinere Abstufungen.
Also beträgt die dort erfassbare höchste Tonfrequenz ca. 22 Kilohertz.
WoWu hat das Nyquisttheorem vollkommen korrekt dargestellt, was sollen da alle unprofessionellen Einwürfe?



dienstag_01
Beiträge: 14443

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von dienstag_01 »

Domain hat geschrieben:WoWu hat das Nyquisttheorem vollkommen korrekt dargestellt, was sollen da alle unprofessionellen Einwürfe?
So ganz wundert mich das nicht ;)



domain
Beiträge: 11062

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von domain »

Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)



nic
Beiträge: 2028

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von nic »

Ich bin kein Physiker. Bisher dachte ich aber, dass die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße liegt. Und, dass damit eine höhere Abtastrate natürlich eine immer höhere theoretische optische Auflösung erlaubt. Wenn es die Optik zulässt, natürlich. Durch den OLPF werden noch feinere Strukturen (unterhalb der Auflösungsgrenze, sollte die Optik höher auflösen als der Sensor) um Aliasing zu vermeiden dann abgeschnitten. Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen) und, dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist... Letztlich erhalte ich für jedes Sensel aber immer einen echten eigenen Wert, der sich von denen in seiner Nachbarschaft unterscheidet. Und diese Zwischenwerte fehlen mir eben bei geringerer Abtastung. Selbst wenn Kontrastkanten unterhalb der Auflösungsgrenze - egal ob vom Sensor oder der Optik - systembedingt nicht abgebildet werden. Sprich: wird die Pixelmatrix größer, verringert sich die Auflösungsgrenze.

Also, so lange ich mich innerhalb dieser Parameter bewege und weiß, dass ich in 6K weniger als 3K Kontrastkanten horizontal abbilden kann (was dann natürlich auch bei einem Versuchsaufbau berücksichtigt werden sollte), ist doch alles okay?

Oder wo liegt der Denkfehler?



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

Im Grunde besteht kein Denkfehler, nur Oversampling ( und das entspricht ja der Erhöhung der Abtastrate) bringt kein einziges neues Bilddetails, erhöht aber den Verarbeitungsqualität- und Übertragungsaufwand drastisch.
Liegt nämlich die Nutzbandbreite sehr nahe bei der Abtastfrequenz so werden sehr hohe Anforderungen an die Flankensteilheit des Tiefpassfilters gestellt.
Diese analogen Filter können häufig nur mit großem Aufwand abgeglichen werden.
Oversampling erlaubt es aber die Anforderungen an das analoge Tiefpassfilter drastisch zu reduzieren in dem die steilflankige Bandbegrenzung auf ein präzises Digitalfilter hoher Ordnung verlagert wird.
(In der Praxis wird häufig ein Oversampling­ Faktor 2 oder 4 gewählt).
Somit braucht man weniger steile analoge Filter vor dem Abtasten.
Nach der Abtastung wird dann das digitale Filter angewendet und gleichzeitig die Abtastfrequenz reduziert.
Aber da ist die Entwicklung mittlerweile einen andern Weg gegangen, auch um OLPF einzusparen.
Dabei geht man davon aus, dass die gestörten Signale noch alle Nutzinformationen enthalten und mit einem Mathematischen Modell rechnet man diese heraus, rekonstruiert sie und fügt sie wieder ins Bild ein.
Auf der basis der Eingangsdaten wird quasi eine höhere Abtastrate simuliert.
Mit so einem Raumverfahren im Frequenzbereich können so die Samples rekonstruiert werden.
Aber all das trägt natürlich nicht dazu bei, dass die klassischen Engpässe, z.B. das Objektiv überwunden werden.
Nicht ohne Not ist man daher dazu übergegangen zu patchen oder andere Arten der Konstruktion vorzunehmen, die allerdings nicht mehr viel mit einer optischen Reproduktion zu tun haben.
Scharfe Bilder ...ja, optische Bilder... sehr begrenzt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von mediavideo »

7nic hat geschrieben: Mo 26 Jun, 2017 20:19 Ich bin kein Physiker. Bisher dachte ich aber, dass die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße liegt. Und, dass damit eine höhere Abtastrate natürlich eine immer höhere theoretische optische Auflösung erlaubt. Wenn es die Optik zulässt, natürlich. Durch den OLPF werden noch feinere Strukturen (unterhalb der Auflösungsgrenze, sollte die Optik höher auflösen als der Sensor) um Aliasing zu vermeiden dann abgeschnitten. Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen) und, dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist... Letztlich erhalte ich für jedes Sensel aber immer einen echten eigenen Wert, der sich von denen in seiner Nachbarschaft unterscheidet. Und diese Zwischenwerte fehlen mir eben bei geringerer Abtastung. Selbst wenn Kontrastkanten unterhalb der Auflösungsgrenze - egal ob vom Sensor oder der Optik - systembedingt nicht abgebildet werden. Sprich: wird die Pixelmatrix größer, verringert sich die Auflösungsgrenze.

Also, so lange ich mich innerhalb dieser Parameter bewege und weiß, dass ich in 6K weniger als 3K Kontrastkanten horizontal abbilden kann (was dann natürlich auch bei einem Versuchsaufbau berücksichtigt werden sollte), ist doch alles okay?

Oder wo liegt der Denkfehler?
Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:
- Du stellst im Wesentlichen nur unbelegte Vermutungen zu technisch/naturwissenschaftlichen Zusammenhängen an. Man kann solche Zusammenhänge aber nur logisch herleiten bzw. belegen.

Da sind absurd gravierende grundsätzliche Denkfehler drin:
1. Was soll so eine absurde Aussage? - die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße
- Wie kommst du darauf? Soll das heißen man muss die Sensorauflösung durch 2.2-2.4 teilen oder was? Das wären ca. 40-45% der Sensorauflösung, also wie von mir laut deinen Aussagen für 8k Sensoren vermutet wurde und du das dann als den größten Mist bezeichnet hast?

2. Was soll so eine absurde Aussage? - Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen)
- Seit wann hat Full-Well der Sensel was direkt mit der Auflösung zu tun? 1000 e- mehr oder weniger spielen für die Auflösung garantiert keine Rolle.

3. Was soll so eine absurde Aussage? - dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist...
- Wie kommst du auf diese Grenze bei S35 und 6k?

Du hast mal ein wenig mit Kameras "Praxis gespielt" und merkst jetzt, dass das ohne mathematisch/technisch/wissenschaftliches Grundlagenwissen wohl doch nicht geht - oder? - Willkommen im Club von Jott, iasi und Jan Reif ...

Genau das habe ich mir genau so vorgestellt. Das was ich schreibe ist wörtlich von dir "der größte Mist" - Was ist das hier dann von dir?
Schämst du dich denn überhaupt nicht jetzt im Forum auch noch so unbeholfen um dringende Hilfe für dein Verständnis zu fragen?
Du polterst hier herum und hast wohl offensichtlich noch nie eine Entwicklungsabteilung von innen gesehen, nicht mal die Klinke in der Hand gehabt. Und High-Tech bzw. Forschung ist noch mal ein ganz anderes Niveau ...

Oder hast du mal bei mir rückwärts die Posts nachgelesen, mit jemand darüber gesprochen und kommst irgendwie ins grübeln über deine "Praxis-Meinung"?
Zuletzt geändert von mediavideo am Mo 26 Jun, 2017 21:37, insgesamt 1-mal geändert.



Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

Hier geht so einiges durcheinander:
Wowu's Formel ist und bleibt wie dargestellt aus den bereits genannten Gründen falsch, einige haben's erkannt, andere noch nicht. Die Physik basiert auf der Mathematik, eine Gleichung muss auf beiden Seiten erfüllt sein, mit grundsätzlich verschiedenen Einheiten funktioniert das nicht!

Von Frequenzen sollten wir sprechen wenn wir periodische Signale haben, Audiosignale zum Beispiel. Hier muss ich eine Periode mindestens zweimal abtasten, sonst kann ich sie nicht (in Annäherung) reproduzieren.

Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGB Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Ich brauche im Gegensatz zur Akustik auch keine Schwingungen um ein Signal überhaupt wahrnehmen zu können, sehen kann ich homogene Bildanteile genau so gut!
Viele Bezüge stammen zudem auch noch aus der Modulation, deshalb Vorsicht mit Nyquist!


Schade Wowu, alter Sportsfreund, das ein oder andere Thema haben wir hier zusammen gut gerockt, ich auf der einen, Du auf der anderen Seite ;-)!
Hast auch hier wieder was dazugelernt - na ja, irgendwann muss auch mal "Ruhestand" sein.
Mir ist klar dass das mit mir mitunter auch stressig sein kann, der Joker (hier Auflösungsnachweis durch nichtinterpolierbaren Text) meist zum Ende oft schwer im Hals sitzt. Hat trotzdem Spaß gemacht!


Vielen Dank an Wolfgang (A) für die Unterstützung hier! Wir zwei hatten uns auch schon bis auf's Messer in den Haaren ohne gemeinsamen Nenner.
Sowas hier lebt davon wenn man dann trotzdem persönliches oder besser "sportliches" beiseite lassen kann und die Richtigkeit gewinnt.
Das zeigt wirklich Stärke und gibt so einer Diskussion zumindest wieder etwas Qualität zurück!
Danke dafür!!



nic
Beiträge: 2028

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von nic »

mediavideo hat geschrieben: Mo 26 Jun, 2017 21:26
Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:
- Du stellst im Wesentlichen nur unbelegte Vermutungen zu technisch/naturwissenschaftlichen Zusammenhängen an. Man kann solche Zusammenhänge aber nur logisch herleiten bzw. belegen.

Da sind absurd gravierende grundsätzliche Denkfehler drin:
1. Was soll so eine absurde Aussage? - die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße
- Wie kommst du darauf? Soll das heißen man muss die Sensorauflösung durch 2.2-2.4 teilen oder was? Das wären ca. 40-45% der Sensorauflösung, also wie von mir laut deinen Aussagen für 8k Sensoren vermutet wurde und du das dann als den größten Mist bezeichnet hast?

2. Was soll so eine absurde Aussage? - Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen)
- Seit wann hat Full-Well der Sensel was direkt mit der Auflösung zu tun? 1000 e- mehr oder weniger spielen für die Auflösung garantiert keine Rolle.

3. Was soll so eine absurde Aussage? - dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist...
- Wie kommst du auf diese Grenze bei S35 und 6k?

Du hast mal ein wenig mit Kameras "Praxis gespielt" und merkst jetzt, dass das ohne mathematisch/technisch/wissenschaftliches Grundlagenwissen wohl doch nicht geht - oder? - Willkommen im Club von Jott, iasi und Jan Reif ...

Genau das habe ich mir genau so vorgestellt. Das was ich schreibe ist wörtlich von dir "der größte Mist" - Was ist das hier dann von dir?
Schämst du dich denn überhaupt nicht?
Du polterst hier herum und hast wohl offensichtlich noch nie eine Entwicklungsabteilung von innen gesehen, nicht mal die Klinke in der Hand gehabt. Und High-Tech bzw. Forschung ist noch mal ein ganz anderes Niveau ...

Oder hast du mal bei mir rückwärts die Posts nachgelesen, mit jemand darüber gesprochen und kommst irgendwie ins grübeln über deine "Praxis-Meinung"?
Ich könnte jetzt auf jede deiner Anmerkungen antworten, aber dann würdest du mich sicher einfach noch etwas persönlicher angreifen.
Zuletzt geändert von nic am Mo 26 Jun, 2017 22:17, insgesamt 1-mal geändert.



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

Na, da bin ich auf die Begründung aber mal gespannt.
Denn wenn man das Rayleight Kriterium bei 6K, apsc und f5.6 anwendet, ist man bereits deutlich bei Auflösungsreduktion angekommen.

Was die Auflösung aus SNR Gründen betrifft ist es schon eine Abwägung, wo man das Limit setzt.
Irgendwo wird es sein, also stimmt die Antwort zunächst mal und ist richtig gedacht.

Beim 2,5 fachen der Pixelgrösse könnte man Diskutieren, weil es unterschiedliche Annäherungen gibt. Aber wo soll da nun wieder der Denkfehler liegen ?

Bin gespannt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von mediavideo »

Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..



nic
Beiträge: 2028

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von nic »

Roland Schulz hat geschrieben: Mo 26 Jun, 2017 21:35
Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGB Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.
Also misst natürlich trotzdem ein jedes Sensel seinen individuellen Wert.

Insofern ist es natürlich sehr schwer Bilddetails überhaupt zu definieren.



nic
Beiträge: 2028

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von nic »

mediavideo hat geschrieben: Mo 26 Jun, 2017 21:50 Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..
Ich habe dich korrigiert, als du unsinnige Behauptungen in großer Menge gepostet hast und zu allem Überfluss meine Aussagen aus dem Zusammenhang gerissen hast, um sie für deine Ausführungen zu missbrauchen.

Willst du dich jetzt
mit noch ein paar unsinnigen Anschuldigungen dafür revanchieren? Na dann bitte...



WoWu
Beiträge: 14819

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von WoWu »

mediavideo hat geschrieben: Mo 26 Jun, 2017 21:50 Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..
Das mit dem gegoogelt würde ich mal dahingestellt sein lassen. Dazu ist der Gesamtkomplex zu dicht und ich finde nicht, das signifikante Kritikpunkte vorhanden sind.
Und das mit dem Poltern ist uns allen schon so gegangen.
Ich halte es daher für viel wichtiger, sofern inhaltlichen Differenzen vorliegen, der Sache doch lieber auf den Grund zu gehen.
Es gibt immer ein paar Detail, die man in seinen eigenen Überlegungen übersehen haben könnte und die wird man nie erfahren, wenn man Point Blank zieht.
Lass uns doch lieber die Sache diskutieren.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

WoWu hat geschrieben: Mo 26 Jun, 2017 19:09 alles klar ... und tschüss

@7nic
Das Niveau dürfte doch nicht unbekannt sein.
Es ist schon eine absurde Entgleisung anderen Niveaulosigkeit zu unterstellen, wenn man selbst von "Stuhlgang" und "Lamentieren" spricht.

Und sich eben immer mit der "Wissenschaft" schmückt, und dann mit einer inhaltlich unhaltbaren Formel derart daneben haut, die eher auf Grundschulniveau angesiedelt ist (was die Übereinstimmung physikalischer Dimensionen angeht).
Lieben Gruß,
Wolfgang



Frank Glencairn
Beiträge: 26509

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Frank Glencairn »

Gentlemen - please...

Leute get raus und dreht was
Sapere aude - de omnibus dubitandum



wolfgang
Beiträge: 6683

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von wolfgang »

domain hat geschrieben: Mo 26 Jun, 2017 20:14 Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)
Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.

Denn um die Aussagen dieser Theorie geht es noch nicht mal, sondern darum dass diese Formel so nicht stimmen kann. Da fehlt was, wurde was vergessen - aber das richtig zu stellen ist ja offenbar nicht möglich.

Und mit Zoff hat das nichts zu tun, sondern mit grundlegenden Unstimmigkeiten. Der Unterschied ist dir unklar?

Und nein: es geht auch nicht darum was zu drehen, das macht man nicht in einem Forum. Nur ist viel von dieser Diskussion eben arg absurd.
Lieben Gruß,
Wolfgang



Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

7nic hat geschrieben: Mo 26 Jun, 2017 21:53
Roland Schulz hat geschrieben: Mo 26 Jun, 2017 21:35
Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGB Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.
Also misst natürlich trotzdem ein jedes Sensel seinen individuellen Wert.

Insofern ist es natürlich sehr schwer Bilddetails überhaupt zu definieren.
Ein OLPF ist nicht zwingende Bedingung, schon gar nicht bei monochromen Kameras. Eine Tiefpassfilterung kann aber schon durch die Optik gegeben sein.



Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

wolfgang hat geschrieben: Mo 26 Jun, 2017 23:01
domain hat geschrieben: Mo 26 Jun, 2017 20:14 Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)
Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.

Denn um die Aussagen dieser Theorie geht es noch nicht mal, sondern darum dass diese Formel so nicht stimmen kann. Da fehlt was, wurde was vergessen - aber das richtig zu stellen ist ja offenbar nicht möglich.

Und mit Zoff hat das nichts zu tun, sondern mit grundlegenden Unstimmigkeiten. Der Unterschied ist dir unklar?

Und nein: es geht auch nicht darum was zu drehen, das macht man nicht in einem Forum. Nur ist viel von dieser Diskussion eben arg absurd.
+1!
Was mir hier auch ziemlich auf den Keks geht ist dass "einige" Fehler und/oder gewonnene Einsichten nicht eingestehen und stattdessen an ner anderen Stelle weiternageln. Da kann man auch langsam ne Wissenschaft draus machen!



dienstag_01
Beiträge: 14443

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von dienstag_01 »

wolfgang hat geschrieben:Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.
Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenz



Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

dienstag_01 hat geschrieben: Mo 26 Jun, 2017 23:17
wolfgang hat geschrieben:Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.
Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenz
...ganz ruhig, wir haben ja gleich Dienstag!
Manche schnallen es nicht...



Roland Schulz
Beiträge: 3565

Re: Kommt es auf Auflösung an? - Interview mit Geoff Boyle

Beitrag von Roland Schulz »

So, für alle die noch wach sind, mir hier ständig für meine Beiträge danken und auch meine hier entstandene Arroganz feiern ( ;-) !! ) noch nen kleinen Nachbrenner vorm Schlafengehen.
Da Wowu endlich resigniert hat ;-p und mich auf seine Ignorelist gesetzt hat kann ich dass auch mit ruhigem Gewissen posten, der zweimalige Zusammenbruch des persönlichen Weltbilds an nur einem Tag hätte sonst ggf. schwerwiegende, gesundheitliche Folgen nach sich ziehen können ;-).

Es existieren (Video-)Kameras und Objektive, welche nicht nur eine höhere Auflösung als FHD leisten, sondern sogar echte 4K/UHD Auflösung liefern, dabei sogar schon für ganz günstiges Geld im "Baumarkt" zu erwerben sind!

Die Ergebnisse werden sich für den ein oder anderen der die Pace noch mitgehen kann von selbst erschliessen, deshalb erstmal die "Schlagzeilen". Vorweg, das Ergebnis hat mich selbst überrascht:
a6500_res_BW.jpg
a6500_res_BG.jpg
a6500_res_BR.c.jpg
EDIT: 4:2:0 Simulation ergänzt
(click for big)

Was hat sich dieser Troll hier nun wieder ausgedacht ;-) ?!?! Verglichen werden sollte, in wie weit die Auflösung einer Kamera an die zugehörige Systemgrenze heranragt. Soll heißen, schafft eine 4K Kamera wirklich 4K oder wie weit ist das "subjektiv" von der theoretischen Systemgrenze entfernt. Ich betone nochmal, es geht hier um keine "Messung"!

Ablauf wie folgt: Ein synthetischer, hochauflösender Testchart wurde erzeugt. Damit von der Kamera keine Linien interpoliert, fortgeführt etc. werden können (da ist wirklich was dran, auch ich bin davon überzeugt) wurde Text als Vergleichsmittel gewählt. Dieses hochauflösende Testchart wurde auf einem iPad (Retina) dargestellt.

Mit dem Prüfling, hier eine Sony a6500 und einem "hochwertigen" Objektiv (Sony/Zeiss SEL24F18Z) wird der Bildschirminhalt des iPads idealerweise orthogonal abgefilmt, dabei aber so, dass das iPad nur einen kleinen Teil des Videobildes einnimmt, um die relative Auflösung des iPad Bildschirms viel höher werden zu lassen als die Kameraauflösung.

Aus dem aufgenommenen XAVC-S UHD/25p/100Mbps Video wird nun der darstellende Bereich des iPad Bildschirms gecropped, die Dimension (Größe h*v[px]) wird notiert.
Der hochauflösende, synthetische Testchart wird nun ebenfalls auf die exakt gleiche Größe des Kameracrops skaliert. Der Testchart hat nun die in dieser Auflösung maximal mögliche Detaillierung. Die Darstellung entspricht "100%" der Pixelmatrix, unabhängig der Aufnahmeauflösung.

Der Crop der Kamera und der skalierte Testchart werden nun nebeneinandergelegt. Das gesamte Bild wird zum einfacheren Vergleich per Pixelwiederholung auf 200% skaliert.

Ergebnis: Ich denke man kann den ersten Vergleich (Schwarz/Weiss) durchaus als identisch in Bezug auf die Auflösung bewerten. Der Text verliert in beiden Hälften die Lesbarkeit an der gleichen Stelle.
Da die Auswertung faktisch auf 100% Pixelebene erfolgt, die Aufzeichnung dabei in UHD erfolgt ist bleibt festzustellen, dass der Prüfling volle UHD Luminanzauflösung bei SW Bildinhalten aufweist!

Sehr ähnlich sieht es beim Auflösungsvergleich mit grünem Bildinhalt aus. Die Lumaauflösung erreicht wieder volle UHD Auflösung, einige "Farbfehler" bedingt durch das Debayering u.a. sind jedoch an einigen Stellen zu erkennen.

Zuletzt die schlimmste Tortur - rot auf blau. Bedingt durch das Bayerpattern gibt es weniger rote und blaue Sensel als grüne. Weiterhin haben wir nicht nur eine Luminanzänderung (Y-Kanal) in der Quelle, sondern auch eine Farbänderung (UV-Kanal). Die Reduzierung der Auflösung der Kameraaufnahme im Vergleich zur Quelle ist erheblich! Ursachen sind die genannten roten und blauen Sensel, welche in geringerer Anzahl als grüne vorkommen, die Farbunterabtastung in 4:2:0 sowie ggf. die Optimierung des Debayeringalgorithmus zugunsten des Lumakanals.


Ich persönlich finde die Leistung trotzdem sehr gut, ich hätte nicht mit diesem Ergebnis gerechnet. Zugegeben handelt es sich bei der a6500 bereits um eine Oversamplingkamera, welche ihr ausgegebenes 4K Bild aus einem 6K-Bayer-Bild gewinnt und damit ohne Frage Vorteile hat.

Wie das ganze jetzt mit einer nur 8MP 4K Kamera ausgehen wird darf gerne jemand anders testen.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Zuletzt geändert von Roland Schulz am Di 27 Jun, 2017 06:41, insgesamt 1-mal geändert.



 Aktuelle Beiträge [alle Foren]
 
» Vermutlich 8k 60fps bei Sony A7V?
von dienstag_01 - Mi 18:04
» Kostenlose Tentacle Music Video Sync App vereinfacht die Musikvideoproduktion
von j.t.jefferson - Mi 17:53
» Lohnt es sich als kleiner Filmemacher Equipment zu vermieten?
von iasi - Mi 14:38
» S: Videokamera
von Astradis - Mi 12:21
» SmallRig x Potato Jet Tribex Stativ, Sennheiser IE 100 Pro, LaCie Ruggend SSD 5 4TB und mehr …
von slashCAM - Mi 11:09
» Blackmagic Camera 9.6: Micro Studio Camera 4K G2 jetzt mit PYXIS-Support
von slashCAM - Mi 10:39
» Gibt es für Actioncams eine Art Anti-Fisheye Linse?
von rush - Mi 9:30
» Apple entwickelte spezielle iPhone-Kamera für Aufnahmen aus dem Formel 1 Cockpit
von tom - Di 22:54
» Seit Update auf DaVinci Resolve Studio 20: Problem mit Film Look Creator
von Darth Schneider - Di 22:43
» Star Trek: Third Rate - Fan Film
von Nathanjo - Di 22:35
» Adobe bringt kostenlose Profi-Kamera App mit KI-Funktionen
von blueplanet - Di 20:40
» DJI Mavic 4 Pro in der Praxis: 10Bit 6K 50p Log, 360° Gimbal – für wen lohnt sich die C2 Drohne?
von Franky3000 - Di 17:26
» Firmware-Updates für die Panasonic Lumix S1RII, S1II und S1IIE
von cantsin - Di 15:37
» Nvidia GeForce RTX 5050 im Anflug - 10 Bit 4:2:2 Decoding für 200 Euro?
von slashCAM - Di 10:24
» Magic Lantern mit deutlichem Lebenszeichen - Frische Motivation und frischer Code
von Da_Michl - Di 9:44
» Bildsensor mit Perowskit verdreifacht mögliche Auflösung
von CotORR - Di 8:48
» Was schaust Du gerade?
von roki100 - Mo 23:27
» 36% mehr DSLMs ausgeliefert im April als im Vorjahr
von iasi - Mo 23:00
» Neuer XAVC-L Standard für ARD/ZDF – Interlacing noch Thema?
von vaio - Mo 21:26
» Higgsfield.ai - Aufwändige Videoeffekte auf Knopfdruck aus der KI-Cloud
von Drushba - Mo 18:34
» Manueller Video Modus nicht mehr erreichbar.
von milesdavis - Mo 15:45
» Rode Wireless Go 3 - Ton zu leise
von rush - Mo 10:49
» BM Micro Studio Camera G2 erhält Pyxis Monitor Kompatibelität
von Darth Schneider - Mo 9:19
» Was hast Du zuletzt gekauft?
von Axel - Mo 6:52
» Dynamic Range iPhone?
von Axel - Mo 6:30
» Suche Omnidirektionales Mikrofon-Setup für Sony FX3
von pillepalle - Mo 6:25
» Bildschirmaufnahme mit VLC Player oder andere Software?
von gunman - So 21:07
» Unzuverlässiger Autofokus HC-X2E
von Jott - So 20:39
» UHD Progressive zu HD Interlaced Workflow - Hardware-Lösung für Preview?
von SonyTony - So 13:06
» Kompakte OM-5 Mark II bekommt zwei neue Bildprofile
von cantsin - So 10:25
» Nikon Z5 II mit interner RAW-Aufzeichnung - Debayering, Rolling Shutter und Dynamik
von cantsin - So 9:09
» Film wurde nur mit Handys gedreht...
von Jott - Sa 20:48
» Insta360 Studio - Bildjustagen verschwunden nach update
von soulbrother - Sa 20:09
» Was hörst Du gerade?
von 7River - Sa 15:33
» Welche USB-C SSD für 4k120 prores am iPhone 16 Pro?
von Totao - Sa 11:43