Frage von roki100:Mehr darüber:
https://www.premiumbeat.com/blog/resolv ... e-feature/
Ich bin zwar mit 1080p zufrieden, dennoch, wer mehr will, für den ist "Super Scale Feature" sicher interessant. Gerade für die alte BMPCC mit dem Super16 Sensor.
Aus der Doku:
"For instances when you need higher?quality upscaling than the standard Resize Filters allow, you can now enable one of three "Super Scale" options in the Video panel of the Clip Attributes window for one or more selected clips. The Super Scale pop?up menu provides three options of 2x, 3x, and 4x, as well as Sharpness and Noise Reduction options to tune the quality of the scaled result. Note that all of the Super Scale parameters are in fixed increments; you cannot apply Super Scale in variable amounts.
Super Scale options in the Video panel of the Clip Attributes
Chapter – 1 General Improvements 1-9
Selecting one of these options enables DaVinci Resolve to use advanced algorithms to improve the appearance of image detail when enlarging clips by a significant amount, such as when editing SD archival media into a UHD timeline, or when you find it necessary to enlarge a clip past its native resolution in order to create a closeup.
This is an extremely processor?intensive operation, so be aware that turning this on will likely prevent real?time playback. One way to get around this is to create a string?out of all of the source media you’ll need to enlarge at high?quality, turn on Super Scale for all of them, and then render that timeline as individual clips, while turning on the "Render at source resolution" and "Filename uses > Source Name" options."
Antwort von Frank Glencairn:
Ja, mach ich immer bei dem Material aus der original Pocket.
Erst auf 4K mit Superscale aufblasen, rausrendern, und dann wieder in die HD Timeline exportieren.
Keine Wunderwaffe, aber beseitigt oft Moire und Aliasing weitgehend.
Antwort von roki100:
Wow! Danke für den Tip.
Wenn ich fragen darf, wie alt ist Deine BMPCC bzw. wann gekauft?
Ich habe eben gerade BMPCC + ISO 1600 mit 2x (Medium) SuperScale getestet, sieht auf jeden Fall interessant aus für minimale FPN Reduzier ;) Man sieht es bei YouTube aber kaum oder gar nicht:
https://youtu.be/PX-QatshnSc
Antwort von Frank Glencairn:
Uralt, dürfte eine der ersten in Deutschland gewesen sein.
Antwort von mash_gh4:
"Frank Glencairn" hat geschrieben:
Erst auf 4K mit Superscale aufblasen, rausrendern, und dann wieder in die HD Timeline exportieren.
Keine Wunderwaffe, aber beseitigt oft Moire und Aliasing weitgehend.
ich kann mir nicht vorstellen, dass das wirklich den gewünschten effekt bewirkt.
am ehesten noch im falle von ganz einfachem aliasing, wo das ja wenigstens noch einigermaßen einleuchtend nachvollziehbar ist bzw. tatsächlich funktionieren sollte. leider gibt's aber auch hier das problem, dass die entsprechenden techniken die ungute eigenschaft besitzen, sprunghaft das aussehen der extrapolierten resultate zwischen den einzelnen frames zu ändern. in der praxis dürfte das fast immer dazu führen, dass die dadurch verursachten flimmern störender in erscheinung tritt als das ursprünglichen aliasing-effekte.
was aber moire und debayering bedingte farbsäume und artefakte betrifft, ist aber von diesem ansatz ohnehin ganz grundsätzlich keine verbesserung zu erwarten. die entsprechenenden farbigen werden leider einfach nur mitskaliert bzw. evtl. sogar massiv verstärkt!
die ganze geschichte ist ausgesprochen interessant, wenn man sich für die dabei verwendeten techniken interessiert. scaling spielt nämlich in neuronalen netzten -- speziell denen, die pooling operationen nicht einfach nur an hand dominierender werte bestimmen sondern bspw., wie im falle von FCN (fully convolutional networks), die auch die skalierungs- und rekonstruktionsparameter trainieren -- eine ganz wesentliche rolle. im prinzip wäre es daher vermutlich tatsächlich möglich, netzwerke mit material aus derartigen kameras, dass die selben objekte in verschieden abbildungsmaßstäben zeigt, so zu trainieren, dass sie derartige störungen an den grenzbereichen der auflösung zu unterdrücken lernen. derartige ansätze sind momentan speziell bei generativen algorithmen gerade ein ganz großes thema. allerdings wird das gleich einmal ziemlich kompliziert und hat dann nicht mehr viel mit derartigen ganz einfachen versuchen mit verfügbaren einfachen arbeitsmitteln gemein.
ich bin also ziemlich skeptisch, was deine empfehlung betrifft, aber vielleicht kannst du die praktische tauglichkeit ja tatsächlich an hand eines einfachen bild- oder videobeispiels belegen bzw. meine bedenken widerlegen.
Antwort von roki100:
ich bin scheinbar zu blöd Moire zu reproduzieren. :) Muss ich eine bestimmte Entfernung beachten? Was genau muss ich tun, um Moire im Bild zu haben?
Antwort von mash_gh4:
roki100 hat geschrieben:
ich bin scheinbar zu blöd Moire zu reproduzieren. :) Muss ich eine bestimmte Entfernung beachten? Was genau muss ich tun, um Moire im Bild zu haben?
im prinzip brauchst nur irgendein möglichst kontrastreiches muster, dass in etwa jene frequenzen bzw. raster zeigt, wie sie dein sensor verwendet. die interferenzen zwischen den beiden frequenzen treten dann ohnehin ziemlich schnell hervor...
mit solchen störungen ist man halt immer dann konfrontiert, wenn man sie gerade überhaupt nicht brauchen kann. dagegen ist es in der tat nicht unbedingt ganz einfach, sie absichtlich aus ihrem versteck hervorzulocken. ;)
Antwort von roki100:
:lol:
ich habe jetzt mit nem sieb versucht :lol: so seitlich gehalten, hin und her (langsam) geschwenkt...bekomme es aber einfach nicht hin. Oder sind da irgendwo Moire zu sehen?
zum Bild https://www2.pic-upload.de/thumb/36178278/Bildschirmfoto2018-10-28um10.35.11.png
(Objektiv MFT, Panasonic 25mm, F1.7)
Ist es vll. von Objektiv abhängig?
Wenn ich das es runter skaliere, sieht man Moire beim abspielen (jedoch ohne Farbige / Lila, Blau / was auch immer etc. Störung...), aber das ist denke ich normal?