Ähhh ... wie machst du mit einer HD-Kamera einen UHD/4K Test?Starshine Pictures hat geschrieben: ↑Mo 26 Jun, 2017 09:12 Hier liegt eventuell ein Missverständnis vor! Die C100 ist KEINE 4K Kamera! Sie bringt "nur" FullHD. Allerdings ist ein 4K Sensor verbaut. Ich habe den "4k Test" nur gemacht um zu schauen wie stark die Differenz zwischen FullHD und 4k Matrix ist und wie Viel kleiner die Pixel wären. Und was man sehen kann ist, dass die C100, obwohl die Kamera mit dem besten FullHD out of the box am Markt glänzt, den FullHD Auflösungstest nur mit einem Fragezeichen besteht (Colorchecker vs. Dachrinnenschelle). Trotz der einzigartigen Sensorauslesung. Aber das ist ja in der Theorie nichts neues. Ist aber trotzdem interessant mal Selbst zu testen.
Na der war gut! :)
Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben. Ohne von dieser Materie oder Theoriebildung jetzt viel zu verstehen, die Formel kann aus diesen grundsätzlichen Überlegungen heraus so tatsächlich nicht stimmen. Das kann vielleicht noch eine nicht-physikalische Praktikerformel sein...Roland Schulz hat geschrieben: ↑Mo 26 Jun, 2017 14:04 Wowu´s Gleichung lautete:Eine Frequenz definiert sich durch eine zeitliche, periodische Veränderung [Einheit Hertz/Hz durch 1/T in 1/s].
In WoWu´s Gleichung wurde aber die "Frequenz" [1/s] mit dem Kehrwert der zweifachen Pixelgröße [Fläche/µm²] gleichgesetzt ;-), das ist nicht nur "wunderlich" sondern physikalisch gesehen auch Nonsense!
In der Physik und der Wissenschaft allgemein ist es eine Totsünde ungleiche Einheiten gleich zu setzen, es ist einfach falsch!
Nun - je mehr Variabeln desto schwieriger der Vergleich.WoWu hat geschrieben: ↑Mo 26 Jun, 2017 17:28 @IASI
Jede Kamera zeigt Unterschiede zu einer andern Kamera in der Bildqualität.
Insofern ist Deine Frage also nicht zu beantworten.
Aber Du weißt hoffentlich, dass ein hoch auflösendes Objektiv auf gering auflösenden Kameraköpfen auch kontraproduktiv sein kann.
Wer also mit seinem Objekriv über unterschiedliche Kameraköpfe hinweghidelt ist sowieso Anfänger und hat das Prinzip noch nicht verstanden.
So ganz wundert mich das nicht ;)Domain hat geschrieben:WoWu hat das Nyquisttheorem vollkommen korrekt dargestellt, was sollen da alle unprofessionellen Einwürfe?
Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:7nic hat geschrieben: ↑Mo 26 Jun, 2017 20:19 Ich bin kein Physiker. Bisher dachte ich aber, dass die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße liegt. Und, dass damit eine höhere Abtastrate natürlich eine immer höhere theoretische optische Auflösung erlaubt. Wenn es die Optik zulässt, natürlich. Durch den OLPF werden noch feinere Strukturen (unterhalb der Auflösungsgrenze, sollte die Optik höher auflösen als der Sensor) um Aliasing zu vermeiden dann abgeschnitten. Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen) und, dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist... Letztlich erhalte ich für jedes Sensel aber immer einen echten eigenen Wert, der sich von denen in seiner Nachbarschaft unterscheidet. Und diese Zwischenwerte fehlen mir eben bei geringerer Abtastung. Selbst wenn Kontrastkanten unterhalb der Auflösungsgrenze - egal ob vom Sensor oder der Optik - systembedingt nicht abgebildet werden. Sprich: wird die Pixelmatrix größer, verringert sich die Auflösungsgrenze.
Also, so lange ich mich innerhalb dieser Parameter bewege und weiß, dass ich in 6K weniger als 3K Kontrastkanten horizontal abbilden kann (was dann natürlich auch bei einem Versuchsaufbau berücksichtigt werden sollte), ist doch alles okay?
Oder wo liegt der Denkfehler?
Ich könnte jetzt auf jede deiner Anmerkungen antworten, aber dann würdest du mich sicher einfach noch etwas persönlicher angreifen.mediavideo hat geschrieben: ↑Mo 26 Jun, 2017 21:26
Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:
- Du stellst im Wesentlichen nur unbelegte Vermutungen zu technisch/naturwissenschaftlichen Zusammenhängen an. Man kann solche Zusammenhänge aber nur logisch herleiten bzw. belegen.
Da sind absurd gravierende grundsätzliche Denkfehler drin:
1. Was soll so eine absurde Aussage? - die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße
- Wie kommst du darauf? Soll das heißen man muss die Sensorauflösung durch 2.2-2.4 teilen oder was? Das wären ca. 40-45% der Sensorauflösung, also wie von mir laut deinen Aussagen für 8k Sensoren vermutet wurde und du das dann als den größten Mist bezeichnet hast?
2. Was soll so eine absurde Aussage? - Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen)
- Seit wann hat Full-Well der Sensel was direkt mit der Auflösung zu tun? 1000 e- mehr oder weniger spielen für die Auflösung garantiert keine Rolle.
3. Was soll so eine absurde Aussage? - dass durch die Beugung an der Blende ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist...
- Wie kommst du auf diese Grenze bei S35 und 6k?
Du hast mal ein wenig mit Kameras "Praxis gespielt" und merkst jetzt, dass das ohne mathematisch/technisch/wissenschaftliches Grundlagenwissen wohl doch nicht geht - oder? - Willkommen im Club von Jott, iasi und Jan Reif ...
Genau das habe ich mir genau so vorgestellt. Das was ich schreibe ist wörtlich von dir "der größte Mist" - Was ist das hier dann von dir?
Schämst du dich denn überhaupt nicht?
Du polterst hier herum und hast wohl offensichtlich noch nie eine Entwicklungsabteilung von innen gesehen, nicht mal die Klinke in der Hand gehabt. Und High-Tech bzw. Forschung ist noch mal ein ganz anderes Niveau ...
Oder hast du mal bei mir rückwärts die Posts nachgelesen, mit jemand darüber gesprochen und kommst irgendwie ins grübeln über deine "Praxis-Meinung"?
Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.Roland Schulz hat geschrieben: ↑Mo 26 Jun, 2017 21:35
Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGB Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Ich habe dich korrigiert, als du unsinnige Behauptungen in großer Menge gepostet hast und zu allem Überfluss meine Aussagen aus dem Zusammenhang gerissen hast, um sie für deine Ausführungen zu missbrauchen.mediavideo hat geschrieben: ↑Mo 26 Jun, 2017 21:50 Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?
Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..
Das mit dem gegoogelt würde ich mal dahingestellt sein lassen. Dazu ist der Gesamtkomplex zu dicht und ich finde nicht, das signifikante Kritikpunkte vorhanden sind.mediavideo hat geschrieben: ↑Mo 26 Jun, 2017 21:50 Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?
Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..
Es ist schon eine absurde Entgleisung anderen Niveaulosigkeit zu unterstellen, wenn man selbst von "Stuhlgang" und "Lamentieren" spricht.
Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.
Ein OLPF ist nicht zwingende Bedingung, schon gar nicht bei monochromen Kameras. Eine Tiefpassfilterung kann aber schon durch die Optik gegeben sein.7nic hat geschrieben: ↑Mo 26 Jun, 2017 21:53Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.Roland Schulz hat geschrieben: ↑Mo 26 Jun, 2017 21:35
Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGB Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Also misst natürlich trotzdem ein jedes Sensel seinen individuellen Wert.
Insofern ist es natürlich sehr schwer Bilddetails überhaupt zu definieren.
+1!wolfgang hat geschrieben: ↑Mo 26 Jun, 2017 23:01Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.
Denn um die Aussagen dieser Theorie geht es noch nicht mal, sondern darum dass diese Formel so nicht stimmen kann. Da fehlt was, wurde was vergessen - aber das richtig zu stellen ist ja offenbar nicht möglich.
Und mit Zoff hat das nichts zu tun, sondern mit grundlegenden Unstimmigkeiten. Der Unterschied ist dir unklar?
Und nein: es geht auch nicht darum was zu drehen, das macht man nicht in einem Forum. Nur ist viel von dieser Diskussion eben arg absurd.
Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenzwolfgang hat geschrieben:Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.
...ganz ruhig, wir haben ja gleich Dienstag!dienstag_01 hat geschrieben: ↑Mo 26 Jun, 2017 23:17Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenzwolfgang hat geschrieben:Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.