Scheint sich jetzt aber durch die Hintertür mit neueren Sony-Kameras (wie der A7s III) und Catalyst Browse doch durchzusetzen...Frank Glencairn hat geschrieben: ↑Mo 12 Apr, 2021 22:43 Gyro gibt's doch seit Jahren, is aber bei der Zielgruppe irgendwie nicht so richtig gut angekommen.
naja -- derartige zusatzinformation in den metadaten, die tatsächlich die bewegungen der kamera in sehr hoher abtastfrequenz aufzeichnen, können natürlich tatsächlich ausgesprochen hilfreich sein, um deconvolution-kernels zu errechnen, mit denen man die bewegungsunschärfe wieder tlw. rückgängig machen kann. damit das sauber funktioniert, braucht man aber doch auch noch sehr viel zusätzliche informationen über das exakte ausleseverhalten des betreffenden sensors bzw. dessen aktueller konfiguration. ich kann mir also nur schwer vorstellen, dass man das in in absehbarer zeit auch in herstellerunabhängiger weise nutzen können wird.cantsin hat geschrieben: ↑Mo 12 Apr, 2021 22:59Scheint sich jetzt aber durch die Hintertür mit neueren Sony-Kameras (wie der A7s III) und Catalyst Browse doch durchzusetzenFrank Glencairn hat geschrieben: ↑Mo 12 Apr, 2021 22:43 Gyro gibt's doch seit Jahren, is aber bei der Zielgruppe irgendwie nicht so richtig gut angekommen.
Ich meinte auch eher, dass die NLE-Hersteller die in Catalyst Browse eingebauten Algorithmen von Sony lizenzieren, woran ja auch Sony ein geschäftliches Interesse haben dürfte (=mehr Kaufargumente für ihre Kameras, zumal Sony sowieso kein Softwarehersteller [mehr] ist und mit Catalyst Browse auch nichts verdient).
das halte ich persönlich für eher unwahrscheinlich.
man darf in dem zusammenhang nicht alles in einen topf werfen!pillepalle hat geschrieben: ↑Di 13 Apr, 2021 02:45 Auch wenn es in dem konkreten Beispiel um das Nachschärfen eines Fotos ging, gibt es die gleichen Funktionen, z.B. in After Effects, um Motionblur zu reduzieren. Das sieht zwar gut aus, hat aber nichts mehr mit der Wirklichkeit zu tun. Da bekommt 'Muttern' einfach irgendwelche Zähne und Ohringe aus anderen Fotos verpasst.
woran sich derartige CNNs tatsächlich orientieren, ist eine verdammt komplizierte frage. es ist jedenfalls keine bloße sammlung von beispielbildern bzw. schnippseln mit bildausschnitten, sondern vielmehr von wahrscheinlichkeiten bzw. zusammenhängen, wie man sie in realen bildern gewöhnlich antrifft.pillepalle hat geschrieben: ↑Di 13 Apr, 2021 04:26 Was wird denn da weniger hinein gedichtet? Die Restaurierung orientiert sich an umliegenden Strukturen, oder an einer Bibliothek, aber z.B. die Zweige eines in der Bewegungsunschärfe verschwischten Baumes können auch nur neu 'dazu erfunden' werden.
wozu man sie hier nutzt, hat wenig mit einem "nachbilden" zu tun, sondern vielmehr mit einem automatisierten beantworten der frage: "schaute dieses bild realistisch bzw. scharf und unverwischt aus?" bzw. "ist es jetzt besser/schlechter als vorher?", etwas also, dass du sicher auch einigermaßen treffsicher beantworten könntest, wenn man dir entsprechende korrekturversuche vorlegen würde. und es würde dir seltsamerweise auch gelingen, obwohl du das abgebildete noch nie vorher gesehen hast.pillepalle hat geschrieben: ↑Di 13 Apr, 2021 04:26 Eine KI kann die Wirklichkeit immer nur nachbilden, aber sie entspricht eben nicht mehr der Wirklichkeit.
im falle von blind deconvolution ist die sog. point spread function (PSF) unbekannt. man muss sie also durch ausprobieren bzw. trickreiche annäherung erst herausfinden. das macht die sache um einiges komplizierter, wenn das auch mit beliebigen vorher unbekannten bildinhalten und störungen, die man nur ganz grob eingrenzen kann -- bspw. eben auf bewegungsbedingte unschärfen -- , funktionieren soll...pillepalle hat geschrieben: ↑Di 13 Apr, 2021 04:26 Und die Dekonvolution, die Du als Beispiel anführst, hat ja nichts mit KI zu tun. Das ist eine rein mathematische Aufgabe.
ich seh das ein bisserl anders.pillepalle hat geschrieben: ↑Di 13 Apr, 2021 07:50 Da wo eine KI eingreift wird etwas nicht existierendes dazu erfunden.
Da tut sich aber momentan auch ne Menge - gib der Sache nochmal 2 Jahre....pillepalle hat geschrieben: ↑Di 13 Apr, 2021 07:50
Zur Zeit steckt das ja noch alles in den Kinderschuhen.
in zwei Jahren bekommen wir dann vielleicht die vor fast einem Jahr angekündigte 3XXX Serie zum normalen Preis ?Währenddessen bastelt Nvidia schon mal an der entsprechenden Hardware -
gib der Sache nochmal 2 Jahre....