TK1971 hat geschrieben: ↑Di 06 Mär, 2018 23:54Die zScale Geschichte in ffmpeg werde ich auf jeden Fall auch noch mal ausprobieren, aber ffmpeg ist nicht so mein Ding, deswegen habe ich da bisher immer einen Bogen drum gemacht.
ffmpeg+zscale ist halt eher als ganz pragmatischer vorschlag zu verstehen. wunder darf man sich davon keinesfalls erwarten. es geht damit nur ziemlich zügig und mit im normalfall ausreichender qualität. allerdings skaliert die verwendete zimg-library in traditionellen video-farbräumen. das macht es zwar recht sauber, trotzdem ist es technisch gesehen nicht ganz optimal. die ergebnisse, bspw. im natron, wo ja auch von haus aus eine
eine ganze menge an gängigen skalierungsfiltern angeboten wird, natürich aber auch im AE od. nuke non-commercial, könnten im vergleich dazu gleich einmal befriedigender ausfallen, weil die einfach in 32bit float in linearen bezugsräumen rechnen.
trotzdem ist derartiges bekanntlich auch weiterhin nicht in allen high-end programmen, auch wenn sie sich der angesprochnen zeitgemäßeren grundsätzlichen herangehensweise bedienen, befriedigend umgesetzt.
siehe:
http://liftgammagain.com/forum/index.ph ... oor.10388/
TK1971 hat geschrieben: ↑Di 06 Mär, 2018 23:54Wirklich interessant wäre halt ein Algorithmus, der durch Mustererkennung und AI eine "künstliche" Schärfung aufgrund vorhandener Details bewirkt, indem verwaschene Bildinhalte synthetisch aufpoliert und ergänzt werden. Wie lange das dauert wäre mir im Zweifelsfall relativ egal, wenn das Bildergebnis am Ende stimmt. Aber wahrscheinlich wird es noch eine Weile dauern, bis so etwas am Markt erscheint.
naja -- "super resolution"-ansätze bzw. die nutzung von
autoencodern zur bildoptimierung sind in dieser hinsicht mittlerweile wirklich schon fast wieder ein alter hut. derartiges kann man mittlerweile mit praktisch allen gängigen ml-toolkits sehr einfach und effizient umsetzen. ich hab dir oben ganz bewust nur eine eher einfache cpu-basierende umsetzung genannt, weil deren verwendung in der praxis vermutlich weniger schwierigkeiten mit sich bringt, als irgendwelche deutlich leistungsfähigeren GPU-basierenden alternativen auch nur ansatzweise zum laufen zu bringen. ich kann mir gut vorstellen, dass diese form von aufgaben in zukunft weit weniger mit software, die auf den eigenen rechnern läuft, abgewickelt wird, als vielmehr auf rechencluster irgendwelcher dienstleister ausgelagert bzw. in der ferne gerechnet werden könnte. das macht bei solchen anspruchsvollen bzw. rechenintensiven aufgaben aus ökonomischer sicht einfach weit mehr sinn. aber vielleicht sehe ich das auch ein bisserl verzerrt, weil ich gerade für so ein unternehmen bzw. entsprechende GPU-cluster eine größeren job abwickle. da hat man es wirklich mit ganz anderen dimensionen, aber auch gezielten optimierungsmöglichkeiten in der der umsetzung zu tun, die sich dem einzelnen heimanwerder mit seinen doch recht bescheidenen, und untereinander völlig unterschiedlichen, GPGPU-setups gar nicht erst stellen.