Sorry, aber wenn Du immer noch nicht differenzieren kannst zwischen Bilddetails und Pixels, dann wundern mich Deine unsubstantiellen Einlassungen mittlerweile auch nicht mehr.Roland Schulz hat geschrieben: ↑Fr 15 Jun, 2018 14:58 Wolfgang,
- was sind „4K Bilddetails“?!
- was stellt ein 4K Display dar?!
- was nimmt eine „ideale“ (3 Chip/Oversampling) 4K Kamera auf?!
Ich finde das unglaublich spannend. Mit dem "wer hat den Größten" kann ich zwar persönlich nichts anfangen, aber es ergeben sich für mich trotzdem immer wieder neue Fragen aber auch Einsichten.Frank Glencairn hat geschrieben: ↑Fr 15 Jun, 2018 15:03 Ich wünschte ihr würdet soviel Wert auf eure Bilder legen, wie auf die Auflösung.
@FrankFrank Glencairn hat geschrieben: ↑Fr 15 Jun, 2018 15:03 Ich wünschte ihr würdet soviel Wert auf eure Bilder legen, wie auf die Auflösung.
Naja, genau da wird es doch erst spannend. Welche Optiken, Sensoren und Pixelraster braucht man, um die feinsten noch differenzierbaren Details in einem definierten Sichtfeld aufzeichnen und darstellen zu können?WoWu hat geschrieben: ↑Fr 15 Jun, 2018 14:52@ Nic7nic hat geschrieben: ↑Fr 15 Jun, 2018 09:22 Ich bin mir der Beschränkungen dieses "Tests" durchaus bewusst. Und ich möchte und kann daraus keine großartigen Schlüsse ziehen. Aber die Kamera stand gerade da und mich hats selbst interessiert was dabei herauskommt. Und der Aufwand hielt sich in Grenzen.
Was mich etwas überrascht hat, aber mir letztlich auch einleuchtet, ist die Tatsache, dass ein 8K-Sensor in einem 8K-Raster die 4K-Ausgangspixelmatrix sichtbar besser auflöst als ein aus den 8K-Daten gewonnenes 4K-Raster. Und das, obwohl die MTF der eingesetzten Optik bei 4K lp/ph gegen 0 geht, aber eben nicht 0 ist.
Vergleich.png
Für mich heißt das letztlich: Der Ansatz von Red, Panavision, Panasonic und BMD ein ordentliches 4K-Bild durch (massives) Oversampling zu generieren, erscheint mir sinnvoll. Sofern die DR bei ordentlichen 12+ Blenden bleibt.
Dein Posting betritt jetzt natürlich ein neues, anderes Diskussionsfeld, nämlich die Darstellungsqualität (in diesem Fall) von 4K Bildern.
Die zuvor geführte Diskussion ging darum, ob eine 4 bzw. 8K Kamera auch 4 bzw. 8 K Bilddetails generiert.
Die Frage dürfte geklärt sein, dass das nicht der Fall ist.
Deine Frage geht nun darüber hinaus, in welcher Qualität die 4K Bilddetails entstehen und ob durch ein Oversampling in der Aufnahmetechnik hier von Vorteil ist.
Es geht also nicht mehr um die Frage der Auflösung sondern um die Frage des Workflows.
Hier genau wird man aber das Ausgangsmaterial betrachten müssen, denn genau an dieser Stelle werkeln nämlich Algorithmen, denen es nicht egal ist, ob sie ein „real world“ Bild angeboten bekommen oder lein Linepaar mit 100% Luminanzwert und 0% Luminanzwert.
Der vorliegende Test gibt das aber nicht wirklich her, weil er eben nur s/w und auch nur aus einzelnen Punkten besteht.
Darüber hinaus hast Du, wenn ich den Vergleich richtig verstehe, auch nur ein Signal, nämlich das Ergebnis aus dem Test als Ausgangsmaterial für die jeweiligen Downsampling benutzt.
Das wird natürlich nix, denn einmal hast Du nur eine Unterabtastung und vergleichst die mit einer mehrfachen Unterabtastung.
Dieses Thema hat übrigens Steve Yedlin in seiner Demo sehr eingehend dokumentiert. Aus den unterschiedlichen Resultaten (seiner und Deiner) Tests kann man die ( von mir oben angesprochene) Schwäche eines solchen s/w Testes auch ersehen.
Aber, wie gesagt, das hat mit dem eigentlichen Topic hier nichts mehr zu tun und ist ein ganz neues Fass.
Deine Meinung in Ehren zu solchen "neurotischen Diskussionen", aber sowas gibt es wirklich nur in deutschsprachigen Foren. Klar, man muss hier nicht mitlesen. Aber irgendwann hat man überhaupt keine Lust mehr, bei Slashcam überhaupt noch was zu lesen.....rudi hat geschrieben: ↑Fr 15 Jun, 2018 11:14Ich folge der Sache hier schon offenen Auges und ich habe sie bislang auch noch nicht Offtopic gestellt, weil ich finde hier wird sehr detailliert diskutiert, was ja letztlich Sinn dieses Forum ist. Ich verstehe dazu Roland Schulz´ Verhalten vollkommen, weil er bei manchen Forumsteilnehmern mit seinen Argumenten gegen eine Wand läuft, die jenseits der eigentlichen Argumentation steht. Unter anderem weil die anderen gar nicht mehr auf seine - in meinen Augen sehr guten und fundierten- Argumente eingehen.blickfeld hat geschrieben: ↑Do 14 Jun, 2018 23:59 @slashcam:
ich bin ja ein fan davon, dass ihr euch selten einmischt, aber der kindergarten der hier abläuft ist ziemlich unerträglich. besonders das verhalten von herrn schulz ist einfach komplett over the top. ich meine, es ist schon sehr amüsant, aber es wäre mal wieder zeit für ne offtopic säuberungsaktion, oder etwa nicht? weil nerviger kann es kaum noch werden...
Sicher, sogar sehr viel besser, aber genau das wird in diesem Thread aus irgend welchen Gründen vehement bestritten. Mach dir selber einen Reim draus.
Da bin ich völlig bei Dir.Naja, genau da wird es doch erst spannend. Welche Optiken, Sensoren und Pixelraster braucht man, um die feinsten noch differenzierbaren Details in einem definierten Sichtfeld aufzeichnen und darstellen zu können?
Auf genau diese Antwort hätte ich gewettet - man stellt die allesentscheidende Frage und erhält vom alles in Frage stellenden Dr. Wunderlich wieder keine einlenkende Antwort.WoWu hat geschrieben: ↑Fr 15 Jun, 2018 15:13Sorry, aber wenn Du immer noch nicht differenzieren kannst zwischen Bilddetails und Pixels, dann wundern mich Deine unsubstantiellen Einlassungen mittlerweile auch nicht mehr.Roland Schulz hat geschrieben: ↑Fr 15 Jun, 2018 14:58 Wolfgang,
- was sind „4K Bilddetails“?!
- was stellt ein 4K Display dar?!
- was nimmt eine „ideale“ (3 Chip/Oversampling) 4K Kamera auf?!
Dummes Zeug kommt aktuell wieder nur von weit weit her...
Momentan gehen allerdings die Hersteller von Kinokameras genau diesen Weg: Oversampling und starker OLPF, um Aliasingeffekte zu minimieren und trotzdem noch die Zielauflösung zu erreichen. Arri: 2,8k für FHD, Panasonic 5,7K für 4K, Sony: 6K für 4K, Red und Panavision: 6K für 4K und 8K für 6K, BMD 4,6K für 4K...WoWu hat geschrieben: ↑Fr 15 Jun, 2018 16:20Da bin ich völlig bei Dir.Naja, genau da wird es doch erst spannend. Welche Optiken, Sensoren und Pixelraster braucht man, um die feinsten noch differenzierbaren Details in einem definierten Sichtfeld aufzeichnen und darstellen zu können?
Die Methoden sind natürlich zahlreich, aber Du hast das Oversampling angesprochen.
Grund dafür war in erster Linie das Vermeiden von Moire.
Früher hat man das mit OLPF gemacht, die hohen Ortsfrequenzen abzuschneiden, die in der nähe der Abtastfrequenz lagen, um Aliasingeffekte zu vermeiden.
Den Erfolg kennen wir. Dann hat man mit Oversampling begonnen, um das ganze in einem doppelt so hohen Abtastbereich zu machen um durch die höhere Abtastfrequenz die dazu halb so hohen Frequenzen des Bildes noch nutzen zu können.
Hat geklappt, aber den Nachteil, dass die Abtastfrequenz verdoppelt werden musste.
Dazu kamen die mehrfach verdoppelten Pixelmengen und Bildfrequenzen, so dass die Abtastfrequenz in jubelnde Höhen rauschte (auch wegen des Oversamplings denn bei doppelter Bildfrequenz vervierfacht sich das Ganze).
Dazu kam, dass die Filter immer aufwendiger wurden und für Filter einer definierten Ordnung trotzdem die Bildfrequenz wieder immer dichter an die Abtastfrequenz geriet.
Insofern verlor das Oversampling nicht nur seinen Reiz, sondern auch seine Wirkung.
Heute regeneriert man gestörte Signale in einem mathematischen Modell im Frequenzraum, indem man samples benutzt, die im gestörten Signal enthalten sind (also keine Patches).
Mit diesem Raumverfahren im Frequenzbereich können so die Samples aus dem Signal isoliert und dem Bild wieder hinzugefügt werden.
Solche Funktionen kann jeder in der Fourier Transformationen nachlesen.
Das schenk ich mir hier.
Im angefügten Beispiel sieht man den Effekt. Die Wirkung kann mit Oversampling nicht erreicht werden. Auch spezialisierte Oversampling Verfahren des Fraunhofer Instituts, die präzises (75-80% des Füllfaktors) haben keine besseren Ergebnisse generiert.
Damit wären wir also wieder bei der Auflösung.
Ergebnis ist, dass es keines Oversamplings bedarf, um die Bilder von auflösungsreduzierenden Artefakten frei zu machen und damit klarer in der Darstellung.
Fakt ist aber auch, dass Oversampling den Störabstand verbessert und damit das Bild auch klarer wird. Nur muss man dabei bedenken, dass die einfache Verdopplung der Abtretung lediglich (Wurzel2), also 1db Verbesserung bringt. Bei den derzeit ohnehin hohen Abtastfrequenzen bringt das Oversampling also nur den Verlust an Rechenpower bei sehr begrenzten Ergebnissen.
Daher spielt sich der Prozess der Bildverbesserung heutzutage nicht mehr in den alten Formen ab sondern auf der Rechnerebene und solange nur bestehende Bildbestandteile korrigiert und nicht durch Patches ersetzt werden, ist meiner Meinung nach, auch nichts dagegen einzuwenden, weil die optischen Bilddetails erhalten bleiben.
Vielleicht noch zur Ergänzung:
Die beiden Bilder haben eine identische Auflösung. Lediglich die Aliasing Artefakte wurden herausgerechnet.
Antwort?!!
Nein. Über dieses Thema habe ich mir Graeme Nattress von Red schon öfter diskutiert. Sein Hauptargument für das Oversampling ist das Vermeiden von Moiré unter allen (realistischen) Umständen, nicht das demosaicing. Der OLPF streue die hohen Frequenzen dermaßen, dass das debayering fast kaum mehr ins Gewicht fällt.WoWu hat geschrieben: ↑Fr 15 Jun, 2018 17:02 .... gingen.
Denn das, was wir heute im Markt als fertige Produkte sehen sind Entwicklungen der vergangenen Jahre und sicher kein Trend.
Die größeren Sensoren (bei vergrößerten Pixels (7y) sind auch kein Zeichen von Oversampling sondern der möglichst fehlerfreien optischen Umsetzung.
Und die 6 für 4 usw. sind ein Opfer der Farbmaske, nicht der Moirebildung.
Denn wir haben (in Deinem Test) ja gesehen, wie die Pixels (trotz Oversampling) hinterher aussehen.
Die Frage ist einfach zu dumm, weil es nicht eine einzige Antwort darauf gibt denn wenn Du 2 Bil für eine Linse ausgibst ist das Ergebnis ein Anderes, als für ein 99€ Gerät.Roland Schulz hat geschrieben: ↑Fr 15 Jun, 2018 17:30 WOWU: was ist die kleinstmöglich darstellbare Bildinformation?!!
Wer will noch eine Antwort??!
...heute Abend ist „Endspiel“!
Tatsächlich hab ich eine Agfa Klick - kommt aber tatsächlich eher selten zum Einsatz :-)WoWu hat geschrieben: ↑Fr 15 Jun, 2018 15:29@FrankFrank Glencairn hat geschrieben: ↑Fr 15 Jun, 2018 15:03 Ich wünschte ihr würdet soviel Wert auf eure Bilder legen, wie auf die Auflösung.
Dein Wunsch in allen Ehren, aber einen gewissen Grad an Abhängigkeit wirst Du auch nicht leugnen können denn Du fotografierst ja auch nicht mehr mit einer „Agfa Klick“.
Die Frage ist eben nur ... und da kann ich Frank schon verstehen, wo hört es auf interessant zu sein.Frank B. hat geschrieben: ↑Fr 15 Jun, 2018 23:13 Das sind dann aber zwei unterschiedliche Blickrichtungen. Ein Werkzeug (hier eine Kamera) kann immer aus zwei Perspektiven betrachtet werden.
1. Es tut, wozu ich es brauche - aus der Sicht des Konsumenten
2. Es muss viele Ansprüche bedienen und möglichst viele Anwender ansprechen - aus der Sicht des Produzenten
Das sagt aber im ersten Ansatz nur aus, dass Unterschiede aus unterschiedlichen Werkzeugen (Algorithmen und Geräten) zu unterschiedlichen Ergebnissen führen.cantsin hat geschrieben: ↑Fr 15 Jun, 2018 22:47 Bin hier bei Roland. Das mit der A7Riii im Pixelshift geschossene Foto mit der Texttafel habe ich mal testweise in Photoshop und mit Imagemagick auf 75% runterskaliert und anschließend wieder jeweils auf die Ursprungsgröße zurückskaliert (also dieselbe Methode, die Yedlin verwendet, um Pseudo-4K von echtem 4K zu unterscheiden), aber das führt zu klarem Detailverlust bzw. nicht mehr vorhandenen Differenzierungen von Linien bei kleinen Schriftgrößen, die im Original noch vorhanden sind.
Frank, es geht im Grunde genommen gar nicht um Recht oder nicht.Frank B. hat geschrieben: ↑Fr 15 Jun, 2018 23:42 @Wowu
Angenommen, du hättest Recht, wäre 8K sinnlos. Demzufolge: Wäre es sinnvoll, hättest du nicht Recht.
Ich bin als Laie nicht in der Position hier die eine oder andere Meinung zu favorisieren.
Du räumst allerdings ein, dass mit 8K endlich 4K möglich wäre. Das allerdings klingt für mich etwas anders als noch vor ein paar Jahren. Da hattest du aufgrund von Objektiveigenschaften (MTF) die Darstellung von 4K ausgeschlossen. So hatte ich es jedenfalls verstanden.
Für mich als Laie ist es auch nicht wirklich entscheidend, ob MEIN 4K echtes 4K ist, sondern, dass es ggü. MEINER vorhergehenden FHD Kamera eine größere Detailtreue bietet. Es ist in meinen Augen also schon ein Fortschritt. Das Argument, dass die vorangegangene Kamera gar kein echtes FHD bot, ist mir dabei ebenso unwichtig wie die tatsächliche Auflösung meiner jetzigen Kamera.
Manchmal finde ich es auch entlastend, ein Amateurfilmer zu sein. ;)