"live creative loop" Runway generiert HD-Videos in Echtzeit auf Nvidias Vera Rubin-Architektur

// 10:11 Sa, 21. Mär 2026von

Runway vermeldet Fortschritte bei der Echtzeitgenerierung von Video - so gab es auf der KI-Konferenz Nvidia GTC eine Demo eines neu trainierten RealTime-Videomodells auf einem Vera Rubin-basiertem System. HD-Videos sollen sich damit praktisch unverzüglich generieren lassen: Der erste Frame erscheint demnach in weniger als 100ms.

Runway Real-Time Video Output
Runway Echtzeit-Videoausgabe


Das neue Echtzeit-Modell nutzt Runways General World Model GWM-1, um schnellere Resultate zu bieten, ähnlich wie etwa PixVerse-R1 oder auch Googles DeepMind Genie, wo interaktive Welten mithilfe von KI-Weltmodellen in Echtzeit ausgegeben werden. Rundways Fokus liegt hier jedoch weniger darauf, virtuelle Welten zum Erkunden herzustellen, sondern betont wird vor allem, dass sich der KI-Video-Workflow durch die neue Reaktivität grundlegend ändern wird. Denn während das System ausgehend vom ersten Prompt noch dabei ist, eine Sequenz fertig zu errechnen, können wie es scheint bereits weitere Kommandos abgegeben werden, um das Resultat laufend zu verändern. Runway spricht hierbei von einem "live creative loop". Das ist natürlich ein ganz anderer Flow, als häppchenweise ausgespuckte Schnipsel zu begutachten und in endlosen Iterationen (hoffentlich) zu verbessern.




Das im Promovideo gezeigte Beispiel - ausgehend von dem Einzelbild einer Frau werden laufend neue Clips errechnet, wo sie unterschiedlich agiert - illustriert allerdings auch, dass das rasche Generieren zu Lasten der erstellten Bildqualität erfolgt, wie ja auch schon bei PixVerse-R1 zu sehen war - die Figur weist deutlich mehr vom typischen "KI-Wabern" auf, als man es mittlerweile von aktuellen KI-Topmodellen gewohnt ist.



Die Portierung von Runway Gen-4.5 sowie des Weltmodells GWM-1 auf Nvidias neue Rubin-Plattform wurde bereits im Januar angekündigt. Sie wurde für die nächste Generation von KI-Modellen entwickelt, darunter auch die Videogenerierung, und beschleunigt mit einer Inference-Rechenleistung von 50 PF pro GPU die Echtzeit-Generierung von langen Videos.


Ähnliche News //
Umfrage
    Welche Kameraauflösung ist für Dich aktuell der Sweet Spot?






    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash