Und jetzt mal Butter bei die Fische was die Theorie angeht, das sei mit "Super Resolution" errechnet (Wegrechnen von Unschärfe durch Analyse benachbarter Frames, ganzes Bild künstlich scharf, weil der Algorithmus ja nicht erkennen kann, ob Unschärfe/Shallow DoF gewollt ist).
Alle 4K-Kameras verhalten sich völlig normal beim Filmen, kein abweichendes Schärfeverhalten im HD- oder 4K/UHD-Modus. Sieht man auch hier: leichte Unschärfe außerhalb der Fokusebene. Im Livebild sowieso, wo ja keine Zeit für das vermutete Rechnen bleibt.
Hinzu kommt: die Super Resolution-Theorie versagt hier sowieso, weil ja die Stativaufnahme eines Stilllebens die Anwendung eines solchen Algorithmus gar nicht ermöglicht (lauter identische Frames).
Es ist Dir sicher entgangen, dass es derzeit 7 (gebräuchliche), unterschiedliche Methoden gibt, Super Resolution zu errechnen.
Das, was Du also "bei die Fische" gibst ist bestenfalls Griebenschmalz,-leicht ranzig-.
Aber es ist ja ganz einfach:
Falsifizier doch mal die optischen Gesetze, wenn Du schon "Butter bei die Fische" geben willst.
Dann haben wir dieselbe Basis.
Zuerst du. Nicht rauswinden. Die Widersprüche kommen von dir, so wie die Theorie auch. Permanent andere anzuranzen mit "falsifizier doch" ist nichts Neues mehr. Falsifizieren kann deine Stories jeder, indem er eine der verdächtigen Kameras einfach mal in die Hand nimmt und sich die Ergebnisse anschaut, insbesondere das Schärfeverhalten. Da tritt NICHT das auf, was du bisher ständig beschrieben hast. Ganz einfach. Die optischen Gesetze spielen da schon mit, die Diffraktion schlägt nur später zu als von dir errechnet, aus ein paar Gründen, die dir eigentlich klar sein sollten. Aber wer bin ich denn, dich zu korrigieren? :-)
Jott hat geschrieben: indem er eine der verdächtigen Kameras einfach mal in die Hand nimmt und sich die Ergebnisse anschaut
Und genau da liegt das Problem. Keine Kamera, keine Ergebnisse, nur im Trüben Fischen - wenn wir schon bei Fischen sind:-)
Wobei man sich dann ja immerhin einmal die Mühe machen könnte, abseits der Formelsammlung auch mal Ergebnisse anderer Praktiker anzuschauen. Die eigene Berechnung könnte nämlich auch mal daneben liegen. Wir sind ja schließlich alle nur Menschen.
Immer wieder das selbe. Es werden die abenteuerlichsten Theorien in den Raum geworfen, wichtig verpackt ohne Begründungen und die anderen müssen es durchrechnen.
Wowu, wie wäre es denn mal, wenn du uns deine Theorien einmal rechnerisch Begründen würdest, anstatt den Ball nach der Behauptung einfach den anderen zuzuschieben?
ich hab mir die Bilder auch nochmal angesehen. ich finde bei den zur verfügung stehenden Bildern ist das 4k Bild das in der Software scaliert wird deutlich schärfer und detailierter.
Wenn ich mir das 4k Bild in 1:1 Auflösung ansehe, dann habe ich auch das Gefühl es ist etwas zu scharf, oder besser gesagt ich habe das Gefühl es ist in der Kamera nachgeschärft, allerding wirklich nur ein klein wenig, die Lumix Menschen gehen da nicht mit nem Holzhammer dran.
Finde ich jetzt erstmal nicht negativ, ich hab da im Standbild jetzt nichts gesehen was mir unangenehm auffällt.
Aber ob es wirklich nachgeschärft ist oder nicht, ich kann mich durchaus irren und wir werden es sowieso nie erfahren, daher ist es mir eigentlich auch egal.
Ich wollte mir aber auch noch das Grain ansehen, und das ist wirklich ne totale Katastrophe wenn man das 2k Bild aus der Kamera nimmt, es ist ein einziger Matsch und die Kompression die da auf dem 2k Bild liegt sieht ja aus wie vor 15 Jahren, was ist denn da schief gegangen?
Kommt das so aus der Kamera oder ist das einfach beim Umwandeln passiert? Wenn es so aus der Kamera kommt, dann darf man wirklich niemals auf 2k mit der GH4 drehen.
Ich hab einfach mal Screenshots gemacht, beachtet, das ist alles auf 2facher Grösse im Nuke Viewer
fix it in post
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Rechnen ist das eine. Eine 4K-Kamera an einen Monitor anzuschließen das andere. Ist doch einfach: mit Offenblende anfangen, dann Stufe um Stufe abblenden. Die Diffraktion ist nicht weggerechnet, sie kommt ab einer gewissen Blende sehr wohl, und natürlich früher als bei den meisten HD-Kameras. Sieht man! Darauf muss man aufpassen. Wäre ja sogar schön, wenn es weggerechnet wäre! Und noch eins: scharf stellen ist schwierig, man liegt sehr leicht daneben. Würde ja nicht passieren bei künstlichem Scharfrechnen.
wowu redet nicht von klassischem Nachschärfen, Otaku. Das wird selbstverständlich gemacht wie schon immer, in den meisten Kameras zum Glück regelbar, bei Raw in die Post ausgelagert.
Aber darum geht's hier gar nicht, sondern um angebliche Eingriffe ins Bild, die sich auf die grundlegende Ästhetik auswirken sollen (alles scharf, keine unfokussierten Bereiche mehr). Man muss nur mal am Fokus drehen und eine klassische Schärfeverlagerung machen, um zu sehen, dass diese Behauptung nicht nachvollziehbar ist. Aber dazu muss man nun mal eine solche Kamera anwerfen.
Zuletzt geändert von Jott am Fr 10 Okt, 2014 17:47, insgesamt 1-mal geändert.
ich hab ja auch geschrieben, das ich das Gefühl habe und das es wenig ist, das ist was anderes als zu sagen: ja da ist ein Scharfrechner im Spiel und das Ding sieht aus wie ein Samsung Galaxy.
Ich gestehe aber durchaus ein das ich mich irren kann, ich schaue ja auch nur drauf und gleiche es im Kopf mit dem ab was ich so kenne, das ist nicht gerade wissenschaftlich.
Chrompower hat geschrieben:
in 2k exportiert, also SCHON herunterskaliert
?? Wieso als 2K importiert wenn es 4K ist??
Ergibt keinen Sinn! Du mußt es als 4K importieren und als 1080 exportieren!
Das hab ich gemacht, also 4k Material in 2k exportiert.
@ Otaku
Ja, das kommt bei Full HD so aus der Kamera.
Schärfe war bei den Aufnahmen übrigens auf minus 5 eingestellt, also das absolute Minimum was man bei der GH4 einstellen kann.
Bei dem Low-Light Test sieht man es zwar auch schon gut, aber bei hellem Tages-Licht und feinen Strukturen ist das so wie Tag und Nacht zwischen Full HD Aufnahme und 4k.
Deshalb filme ich absolut immer in 4k. (Außer bei Slow-Mo)
Und werde zukünftig nicht mehr in der Post auf 2k herunterskalieren.
Ja beim Drehen auf 4k, da kann ich dich sehr gut verstehen, das würde ich bei der GH4 jetzt nach dem Test auch immer machen.
Post auf 4k mache ich nur wenn ich dafür bezahlt werde, freiwillig niemals mehr als 2k. Im Hobby Modus kann mein Rechner garkein 4k ;-)
Aber Geschmacksache, wenns für dich so gut funktioniert, warum nicht.
Für mich ist 4k Post auch nicht schlecht, es ist nur pain in the back weil es halt alles richtig zäh wird und mir den Server zumüllt.
@ Jott
Erklär' doch einfach mal, warum ein Diffraktionsscheibchen, das 8 µ gross ist und über 2 4µ Pixels strahlt, sich nicht auf die Auflösung auswirkt.
Sowas Einfaches wirst Du doch sicher sagen können, wo Du doch alles über die Kamera weisst und sie täglich in der Hand hast.
Klär uns alle doch mal auf.
Welche ?
Auf dem Gebiet haben die optischen Firmen, wie Zeiss lange in der Mikroskopie geforscht und als einziges Ergebnis "Super Resolution"-Algorithmen mit entwickelt.
Vielleicht hart Pansonic ja geschafft, was Zeiss nicht fertig gebracht hat und die optischen Gesetze ad Absurdum geführt.
Aber Jott wird uns das sicher gleich erklären.
WoWu hat geschrieben:Welche ?
Auf dem Gebiet haben die optischen Firmen, wie Zeiss lange in der Mikroskopie geforscht und als einziges Ergebnis "Super Resolution"-Algorithmen mit entwickelt.
Vielleicht hart Pansonic ja geschafft, was Zeiss nicht fertig gebracht hat und die optischen Gesetze ad Absurdum geführt.
Aber Jott wird uns das sicher gleich erklären.
Ja, das scheint in der Tat der Fall zu sein. Sowie es auch alle anderen Kamerahersteller geschafft haben. Zeiss ist auch nicht mehr das ,was es mal war.
Die optischen Gesetze belegen das.
Oder kannst Du erklären, warum, ein Diffraktionsscheibchen das über 2 Pixels (oder mehr) geht, die Auflösung nicht beeinflussen soll.
Jott konnte es ja offenbar nicht erklären.
Ich denke, Du spekulierst nur, dass Panasonic da die Gravitation aufgehoben hat. Nur belegen kannst Du es nicht.
Da glaube ich eher Zeiss.
Und nicht umsonst hat ARRI für 4K einen Sensor eingesetzt, der die entsprechend grossen Pixels für eine optische Umsetzung hat.
Hätten sie ja nicht tun müssen, wenn es mit MFT und 4µ Pixels auch geht.
Sie hätten sich ja nur eine GH4 kaufen müssen oder Panasonic fragen, wie's geht.
Oder hast Du dafür auch eine Erklärung ?
Arri hat 4 mal den Alexa Sensor zusammen geschmissen, weil dieser sich bewährt hat. Lichtempflindlichkeit spielt sicherlich auch eine Rolle bei der Wahl. 4müh Pixel hättens aber auch getan. Hätte niemand gesehen.
Des Rätsels Lösung würde nur wieder die üblichen Beleidigungen nach sich ziehen. Die dürfen gerne mal andere mitnehmen! :-)
Ansonsten drehen wir den Spieß doch einfach um und sagen: verifizier doch! Mit Aufnahmen - aus einer der Kameras, die du auf dem Kieker hast - die deine Theorie belegen.
Nur kurz ein paar Sätze von Nobelpreisträger Gerd Binnig. "Andere mit Wissen zu beeindrucken, das hat mich nie beeindruckt. Man braucht natürlich Wissen, aber nicht unbedingt Fachwissen. Ich wusste nichts über Mikroskopie, nichts über Programmierung, sondern bin eher naiv an ein Problem herangegangen. Der andere Weg wäre, mit viel Fachwissen das zu machen, was andere schon gemacht haben, und es zu verbessern. Aber das war nie mein Weg. Ich wollte immer Neuland betreten." PM Magazin 5/14
Der gebürtige Frankfurter Binnig sah als erster Mensch atomare Strukturen mit seinem Rastertunnelmikroskop, er arbeitete damals für IBM in der Schweiz. Mit dem Rasterkraftmikroskop kann man Atome sogar manipulieren.
ich kenne Herrn Binning ja nicht, aber jeder Regisseur sagt im Prinzip das Gleiche: ich hab zwar von nix ne Ahnung, ist aber egal, es gibt ja Schergen wie dich die das für mich übernehmen, und am Ende verdiene ich sogar noch mehr als du.
Tja gut, aber was belegt das jetzt? Das einer der keine Ahnung hat (wie er es selbst sagt) es bis zum Nobelpreis Gewinner bringen kann, und dann noch auf Dicke Hose macht.
Jan, es ist nicht so ganz klar, was Du mit solchen Worten sagen willst und dass es sich um Nobelpreisträger handelt sagt heute allerdings gar nichts mehr.
Henry Kissinger hat auch 1973 den Friedensnobelpreis bekommen. Aber nach den Papieren, die heute aus den Archiven so auftauchen sollte er froh sein, wenn er nicht mehr in Den Haag als Kriegsverbrecher angeklagt wird.
Das sollte in eine andere Richtung zielen. Binnig hat nie mit Wissen geprotzt, obwohl er umfassende Kenntnisse besitzt. Nach seiner Meinung nach zählt das eigene kreative Denken viel mehr. Sich mit Wissen aus Fachbüchern vollzusaugen, wird keine neuen Technologien erbringen. Eigene Erfahrungen und Selbsttests sind da von Vorteil, was laut Lehrbuch nicht funktionieren soll, kann sehr wohl unter veränderter Form klappen.
Binnig zählt neben dem im letzten Jahr verstorbenen Schweizer Heinrich Rohrer zu den Vätern der Nanotechnologie.
Vielleicht darf man das ganze auch nicht zu technisch sehen und sich lieber mal ein schönes Ergebnis ansehen sollte, bei dem zumindest wenn man die 7-14er pancake weggelassen hätte (wegen der Schärfe), es doch glatt eine Blackmagic hätte sein können :-)
"Camera doesn´t matter proklamieren immer die, die nicht filmen."
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.