Die Top Video-KIs sind im ständigen Wettlauf um bessere Bilder und neue Funktionen, die Kreativen eine bessere Kontrolle über die per KI generierten Bilder geben - jetzt hat der amerikanische Startup RunwayML interessante neue Optionen vorgestellt, um komplexe Kamerafahrten zu realisieren, welche die generierten Videos noch cinematischer machen.
Es gab zwar schon die Möglichkeit, die Kamerabewegung zu steuern, doch war dies sehr grob umsetzbar und fehleranfällig in der Ausführung. Doch ab sofort kann im Gen-3 Alpha Turbo Modell mithilfe der neuen Steuerung die Kamera rein- oder rauszoomen, nach links oder rechts, nach oben oder unten geschwenkt oder auch im oder gegen den Uhrzeigersinn rotiert werden. Definieren läßt sich nicht nur die Richtung der Bewegung, sondern auch deren Intensität. Startpunkt eines neuen Clips ist ein vom User vorgegebenes Bild, welches dann per Kamerabewegung und Prompt animiert wird. Praktischerweise können für komplexere Kamerafahrten auch mehrere Kamerabewegungen kombiniert werden, zum Beispiel eine horizontale Kamerafahrt mit einem Rundumschwenk.
Wie schnell sich die Kamera jeweils bewegt, hängt dabei nicht nur von den eingestellten Werten, sondern auch von der Entfernung zum abgebildeten Subjekt ab. Runway rät dazu, die gewünschte Kamerabewegung durch ein zusätzliches Prompt weiter zu spezifizieren, etwa um vorzugeben, welcher neue Bildinhalt bei einem Kameraschwenk gezeigt wird oder was sich während der Kamerabewegung im Bild abspielen soll. Im Interface werden auch mehrere komplexe, vorgegebene Kamerabewegungen angeboten wie etwa ein "Close-Up Dolly In" oder ein "Close-Up Orbit Left" Shot. Hier eine Demonstration der neuen Kamerabwegungen:
Advanced Camera Control is now available for Gen-3 Alpha Turbo. Choose both the direction and intensity of how you move through your scenes for even more intention in every shot.
— Runway (@runwayml) November 1, 2024
(1/8) pic.twitter.com/jRE6pC9ULn
Runway hatte vor weniger als 2 Wochen erst mit Act-One eine neue Möglichkeit zur einfachen Animation von Gesichtern vorgestellt. Dabei läßt sich ein beliebiger Charakter in einer gewünschten Szene steuern, indem über eine Videovorlage die Mimik eines Darstellers auf ein Referenzbild übertragen und daraus dann einen kompletten Videoclip generiert wird.