AE ist da schon besser geeignet als Premiere.
jupp, geht. downscaling ist nie ein wirkliches problem. upscaling halt schon. aber 30 sekunden google hätten dir eine antwort gebracht. aber das scheint für viele ja echt ein riesen problem zu sein. ist auch schon schwer, diese suchmaschinen. ohne studium nicht zu bewältigen...
für solche Arbeiten nutze ich immer AviDemux.
andere kostenlos für sich arbeiten lassen, weil man zu faul ist, sich selbst erst ein wenig mit dem problem auseinander zu setzen ist ziemlich arm, meiner meinung nach. und diese attitüde finde ich einfach scheiße.
ich würde dir eine ffmpeg version empfehlen, bei der das 'zscale'-filter reinkompiliert ist. das ist leider nicht bei allen ausgaben bzw. fertig verfügbaren binaries des programms der fallt. jedenfalls kann man damit, auf basis der zimg-library sehr sauber in allen gängigen varianten videos skalieren.
Danke für die Tips. Den VideoEnhancer hatte ich auch schon ausprobiert, aber der bringt auch nicht bessere Ergebnisse, als Instant 4k, oder das händische Upscaling. Die zScale Geschichte in ffmpeg werde ich auf jeden Fall auch noch mal ausprobieren, aber ffmpeg ist nicht so mein Ding, deswegen habe ich da bisher immer einen Bogen drum gemacht.mash_gh4 hat geschrieben: ↑Di 06 Mär, 2018 23:29ich würde dir eine ffmpeg version empfehlen, bei der das 'zscale'-filter reinkompiliert ist. das ist leider nicht bei allen ausgaben bzw. fertig verfügbaren binaries des programms der fallt. jedenfalls kann man damit, auf basis der zimg-library sehr sauber in allen gängigen varianten videos skalieren.
was die angesprochen AI- bzw. superresolution-ansätze betrifft, gibt's halt leider auch das problem, dass sie verdammt rechenintensiv sind und bis dato kaum in fertigen video-plugins (bspw. in form von OpenFX plugins) greifbar sind [...kann ich dir aber durchaus basteln, wenn du über das nötige budget verfügst]. wenn du dir aber die mühe antun willst, kannst du natürlich die videos als bildsequenz exportieren, als batch-job z.b. mit rusty_sr skalieren, und dann wieder mit der tonspur zusammenführen bzw. als video exportieren. ob dabei wirklich etwas brauchbares herauskommt od. sich nicht auch sehr ungute sprunghafte veränderungen im resultat einstellen, auch wenn zwischen den ausgangsbilder nur ganz kleine unscheinbare veränderungen stattfinden, kann ich dir leider aus mangel an diesbezüglicher praktischer erfahrung noch nicht sagen. prinzipiell ist dieses problem, etwa von den bekannten style-transfers her, bekannt. um wirklich auch den sequentiellen kontext von videomaterial mit derartigen mitteln zu erfassen und gezielt handzuhaben, braucht es leider wieder eine ganz andere klasse von techniken (RNNs und LSTM) und ziemlich viel rechenpower. jedenfalls kann ich dir dazu auf die schnelle auch keine fertige od. zumindest vielversprechende lösung für diesen konkreten anwendungsfall nennen.
edit: hab jetz noch schnell ein bisserl gegoogelt, und doch einiges an fertigen tools in dieser richtung gefunden:
http://www.infognition.com/VideoEnhancer/
ffmpeg+zscale ist halt eher als ganz pragmatischer vorschlag zu verstehen. wunder darf man sich davon keinesfalls erwarten. es geht damit nur ziemlich zügig und mit im normalfall ausreichender qualität. allerdings skaliert die verwendete zimg-library in traditionellen video-farbräumen. das macht es zwar recht sauber, trotzdem ist es technisch gesehen nicht ganz optimal. die ergebnisse, bspw. im natron, wo ja auch von haus aus eine eine ganze menge an gängigen skalierungsfiltern angeboten wird, natürich aber auch im AE od. nuke non-commercial, könnten im vergleich dazu gleich einmal befriedigender ausfallen, weil die einfach in 32bit float in linearen bezugsräumen rechnen.
naja -- "super resolution"-ansätze bzw. die nutzung von autoencodern zur bildoptimierung sind in dieser hinsicht mittlerweile wirklich schon fast wieder ein alter hut. derartiges kann man mittlerweile mit praktisch allen gängigen ml-toolkits sehr einfach und effizient umsetzen. ich hab dir oben ganz bewust nur eine eher einfache cpu-basierende umsetzung genannt, weil deren verwendung in der praxis vermutlich weniger schwierigkeiten mit sich bringt, als irgendwelche deutlich leistungsfähigeren GPU-basierenden alternativen auch nur ansatzweise zum laufen zu bringen. ich kann mir gut vorstellen, dass diese form von aufgaben in zukunft weit weniger mit software, die auf den eigenen rechnern läuft, abgewickelt wird, als vielmehr auf rechencluster irgendwelcher dienstleister ausgelagert bzw. in der ferne gerechnet werden könnte. das macht bei solchen anspruchsvollen bzw. rechenintensiven aufgaben aus ökonomischer sicht einfach weit mehr sinn. aber vielleicht sehe ich das auch ein bisserl verzerrt, weil ich gerade für so ein unternehmen bzw. entsprechende GPU-cluster eine größeren job abwickle. da hat man es wirklich mit ganz anderen dimensionen, aber auch gezielten optimierungsmöglichkeiten in der der umsetzung zu tun, die sich dem einzelnen heimanwerder mit seinen doch recht bescheidenen, und untereinander völlig unterschiedlichen, GPGPU-setups gar nicht erst stellen.TK1971 hat geschrieben: ↑Di 06 Mär, 2018 23:54Wirklich interessant wäre halt ein Algorithmus, der durch Mustererkennung und AI eine "künstliche" Schärfung aufgrund vorhandener Details bewirkt, indem verwaschene Bildinhalte synthetisch aufpoliert und ergänzt werden. Wie lange das dauert wäre mir im Zweifelsfall relativ egal, wenn das Bildergebnis am Ende stimmt. Aber wahrscheinlich wird es noch eine Weile dauern, bis so etwas am Markt erscheint.