Mit DragNUWA 1.5 hat ein Team mit Verbindungen zu Microsoft ein neues KI-Modell vorgestellt, mit dem sich aus Standbildern Videos erzeugen lassen. Im Gegensatz zu bisherigen Ansätzen, lassen sich bei DragNUWA "einfach" Pfeile in das Bild malen, welche der KI Hinweise liefern sollen, wie und wohin sich ein Objekt im Video bewegen soll.
In der Vorgängerversion DragNUWA 1.0 durfte noch ein zusätzlicher Text-Prompt formuliert werden, der sogar dafür sorgen konnte, dass zuvor nicht im Bild vorkommende Objekte anschließend ins Bild wanderten. Dieser Prompt scheint bei der nun aktuellen Version 1.5 im Interface nicht vorhanden zu sein. Zumindest auf Hugging Face, wo eine Demo-Version zur Verfügung gestellt wird. Man kann sich das Modell jedoch auch selber auf dem heimischen Rechner installieren und ausprobieren.

DragNUWA 1.5 benutzt interessanterweise kein eigenes Modell, sondern basiert auf den Gewichten von Stable Diffusion, welches von den Programmieren auf die neuen Bewegungspfade getuned wurde. Wer sich für Details interessiert, findet das zugehörige Paper hier als PDF bei arxiv.org.
// Top-News auf einen Blick:
- Blackmagic DaVinci Resolve 20 Beta 2 bringt neue Funktionen und Bugfixes
- Blackmagic Camera for Android 2.1 bringt neue Features
- Neuer superschneller PoX Flash-Speicher könnte DRAM und SSDs ersetzen
- Achtung: Verpixelte Videos können wieder kenntlich gemacht werden
- KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer ...
- Beleuchtung für Foto und Video lernen mit kostenlosem Tool von Google

Klickt man sich durch die RAW GIFs, so sieht man dann auch schnell, dass DragNUWA 1.5 keine neuen Lösungen für die typischen KI-Bewegungs artefakte ins Spiel bringt. Dafür aber immerhin bereits einen schönen Eindruck, wie die Oberfläche zu einem KI-Animations Tool in naher Zukunft einmal funktionieren könnte.
