Newsmeldung von slashCAM:
Auch das war zu erwarten. Nachdem sich mittlerweile Neuronale Netze in vielen Bereichen durch das natürliche Ergänzen fehlender Informationen hervortun lag ein Versuch mi...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronales Netz DAIN interpoliert Stop-Motion Frames
Antwort von ruessel:
ist nicht nur auf Trickfilm limitiert.....
Antwort von cantsin:
Wir werden es IMHO noch erleben, das Kameras ganz auf die Postproduktion mit AI-/neuronaler Netze-Deep Learning-Software hin konstruiert werden. Features wie hohe Bildwiederholraten und Farbtiefe könnten dann tatsächlich irrelevant werden - aber z.B. ein Paradigmenwechsel zu kürzeren Video-Verschlusszeiten kommen, um besseres Material für die Algorithmen zu erzeugen (mit nachträglichen reingerechnetem motion blur).
Antwort von balkanesel:
wir werden es erleben Kameras überhaupt nicht mehr benötigt werden^^
Antwort von cantsin:
balkanesel hat geschrieben:
wir werden es erleben Kameras überhaupt nicht mehr benötigt werden^^
Hatte mal vor vielen Jahren die Idee einer Kamera-App, die beim Auslösen nur die GPS-Koordinaten speichert und dann sich dann das dazu passende Bild aus dem Internet lädt...
Antwort von norbi:
In der Zukunft wird alles von Hand drehen können ohne Stabilisierung. Die neue Sony hat ja schon bereits Gyro-Sensoren drin und passende Software um Wackler rauszurechnen.
Am Schluss haben die Kameras grar kein Menü mehr nur noch den Aufnahmeknopf :D
Antwort von halb8film:
Das ist wirklich eine tolle Sache, da ergeben sich tolle Möglichkeiten durch das Interpolieren. Nur das Tool über einen fertigen Film zu legen wirkt bei harten Schnitten seltsam, oder sehe nur ich das? Theoretisch kann man auf diese Weise nun auch 'künstliche' Superzeitlupen erstellen ;-) Nur eines irritiert mich, gibt es in Adobe After Effects nicht schon seit Jahren die Möglichkeit, Zwischenbilder errechnen zu lassen? Fragt mich nicht mehr wo und wie genau, erinnere mich aber dieses bei speziellen Takes mal eingesetzt zu haben, um eine interpolierte Zeitlupe aus 25p Material herauszurechnen. Funktionierte da also auch schon. Das Tool hier habe ich auch mal geladen, mein Notebook mit GEFORCE 750M funktioniert damit leider nicht.
Antwort von Hayos:
halb8film hat geschrieben:
Nur das Tool über einen fertigen Film zu legen wirkt bei harten Schnitten seltsam, oder sehe nur ich das?
Ne ist das richtig. Laut dem Ersteller des (Lego)Videos sind die Entwickler des Tools aber schon dabei, eine Szenenerkennung mit einzubauen. Das Video ist ja von Februar, vielleicht ist die Funktion bereits drin?
Ich komme ja aus der Zeichentrickecke, da wäre ich auch mal gespannt, was das Ding da leistet...
Antwort von kling:
Diese KI-Anwendung hat durchaus ihre Berechtigung, beispielsweise bei der Verbesserung bzw. weiteren Dehnung von Zeitlupe-Sequenzen, für eine ruckelfreie Normwandlung oder bei der Transformation von Material aus der Stummfilm-Ära. Auch die Wandlung der unglücklich gewählten 15 B/sec. StopMotion-Frequenz in einen normalen 24 oder 25 B/sec.-Film ist eine lohnenswerte Sache. Aber niemals die künstliche Erzeugung von HFR-Filmen mit deren typischen billigen VideoLook! Denn jeder Film-Profi weiß, dass aufgrund humangenetischer wahrnehmungspsychologischer Gegebenheiten bei ca. 30 B/sec. der CineLook unweigerlich verloren geht.
Antwort von Axel:
Die Anwendung von Gyrodaten zur Erzeugung eines umgekehrten Bewegungspfads hat ja nach meinem Verständnis nichts mit KI zu tun, sondern eher mit brachialer Mathematik. Bewegungsunschärfe von oof zu unterscheiden und durch diesen MB eventuell verschwommene Objektkanten zu restaurieren, das ist sehr anspruchsvoll. Die Software muss wissen, ob das Motiv starr ist oder sich verformen kann und wo es im 3D-Raum ist. Sie muss praktisch aus den Pixelflächen erst Drahtgitter-Modelle erschließen. Bei einem Auto, das mit glänzend lackierter Karosserie auf einer Allee fährt, durch deren Baumkronen der Wind fährt, aufgenommen mit Zitterhänden: das wird in die Hose gehen, und herkömmliche Stabilisierung oder echte Zeitlupe wären besser.
Antwort von tom:
DAIN wurde auch schon verwendet, um zusätzlich zur Auflösung auch die Frameraten sehr alter Filme hochzurechnen, siehe dazu auch unsere News
Per AI hochskaliert: Ankunft eines Zuges in La Ciotat" (1896) in 4K mit 60fps
Antwort von meer:
Auch für 3d Artisten sehr wertvoll, gerade bei renderzeiten von 10+ Min. pro frame,dass teste ich gerade mal 🤪🙃
Antwort von srone:
zum schluss drehen wir in sd, dain und tecogan werdens schon richten...;-)
wie recht hatte wowu, als er all dies prophezeit hatte, die wahre abbildung der realität interessiert keinen mehr, hauptsache 4, 6, 8k irgendwie interpoliert, drüber dann das neue color-grading tool colour ai, und du hast dir die welt gemacht wie sie dir gefällt, erinnert an "pippi langstrumpf"...;-)
lg
srone
Antwort von meer:
srone hat geschrieben:
zum schluss drehen wir in sd, dain und tecogan werdens schon richten...;-)
wie recht hatte wowu, als er all dies prophezeit hatte, die wahre abbildung der realität interessiert keinen mehr, hauptsache 4, 6, 8k irgendwie interpoliert, drüber dann das neue color-grading tool colour ai, und du hast dir die welt gemacht wie sie dir gefällt, erinnert an "pippi langstrumpf"...;-)
lg
srone
Wir 3dler können das schon lange 😎