Seit kurzem werden Videos im Internet  gepostet, welche mit einer - mutmaßlich - neuen Funktion im KI-Videogenerator Runway Gen2 erstellt wurden. Im Juni wurde ja die zweite Generation des Modells  öffentlich zugänglich - eine Image-2-Video Funktion war mitangekündigt, sie erstellt soweit wir wissen jedoch bewegte Variationen auf das gezeigte Motiv. Wie es scheint hat die Community nun eine neue Art entdeckt, Clips aus Einzelbildern zu gewinnen.

Das besondere an diesen neuen Animationen ist, dass sie wie es scheint ganz ohne Prompt generiert wurden. Es wird einfach ein einzelnes Bild eingegeben, etwa eines aus einem KI-Bildgenerator wie Midjourney oder Stable Diffusion, und Runway Gen2 erkennt selbständig, welche Bildteile sich sinnvoll bewegen könnten. Dies setzt einiges an Objekterkennung und -einordnung voraus, etwa "weiß" Runway, dass Menschen ihre Köpfe drehen, oder Arme bewegen, dass Haare im Wind wehen und ähnliches. Doch auch der Kameraausschnitt wandert.
Auf diese Weise lassen sich einzelne Bilder zu kurzen Clips animieren, jeweils maximal 4 Sekunden (im Basis-Account). Dies funktioniert mit Zeichnungen ebenso wie mit fotorealistischen Aufnahmen, allerdings sicherlich nicht immer und gleich gut. Je komplexer der Bildaufbau, umso seltsamer das Resultat; menschliche Bewegungsabläufe gelingen (noch) nicht überzeugend. Einen Zombiefilm könnte man so wohl am ehesten generieren.
// Top-News auf einen Blick:
- Graphite - kostenloser Grafik-Editor von Photoshop bis Motion
 - Affinity Photo, Designer und Publisher ab sofort in einer kostenlosen App
 - DJI Neo 2 bringt Rundum-Hinderniserkennung samt LiDAR
 - Künftige Xbox Next: Vollwertiger Windows-PC mit Potenzial für Videobearbeitung
 - LG UltraFine 40U990A-W - 40 5K2K Monitor mit Thunderbolt 5
 
Folgendes Video zeigt, wie einfach sich solche Animationen erstellen lassen.


















