Runway vermeldet Fortschritte bei der Echtzeitgenerierung von Video - so gab es auf der KI-Konferenz Nvidia GTC eine Demo eines neu trainierten RealTime-Videomodells auf einem Vera Rubin-basiertem System. HD-Videos sollen sich damit praktisch unverzüglich generieren lassen: Der erste Frame erscheint demnach in weniger als 100ms.

Das neue Echtzeit-Modell nutzt Runways General World Model GWM-1, um schnellere Resultate zu bieten, ähnlich wie etwa PixVerse-R1 oder auch Googles DeepMind Genie, wo interaktive Welten mithilfe von KI-Weltmodellen in Echtzeit ausgegeben werden. Rundways Fokus liegt hier jedoch weniger darauf, virtuelle Welten zum Erkunden herzustellen, sondern betont wird vor allem, dass sich der KI-Video-Workflow durch die neue Reaktivität grundlegend ändern wird. Denn während das System ausgehend vom ersten Prompt noch dabei ist, eine Sequenz fertig zu errechnen, können wie es scheint bereits weitere Kommandos abgegeben werden, um das Resultat laufend zu verändern. Runway spricht hierbei von einem "live creative loop". Das ist natürlich ein ganz anderer Flow, als häppchenweise ausgespuckte Schnipsel zu begutachten und in endlosen Iterationen (hoffentlich) zu verbessern.
A breakthrough in real-time video generation.
— Runway (@runwayml) March 18, 2026
As a research preview developed with @NVIDIA and shared at @NVIDIAGTC this week, we trained a new real-time video model running on Vera Rubin. HD videos generate instantly, with time-to-first-frame under 100ms. Unlocking an entirely… pic.twitter.com/juafjvk0wm
// Top-News auf einen Blick:
- Sony A7R VI vorgestellt mit 66,8MP, Dual Gain und bis zu 120min 8K-Videoaufnahme
- Canon stellt EOS R6 V und RF 20-50mm F4 als PowerZoom-Kombination vor
- Panasonic Lumix L10 - Kompaktkamera mit GH7-Sensor und V-Log vorgestellt
- ZineControl - Monitoring und Fernsteuerung per App für die Nikon ZR
- Insta360 Luna Ultra mit dualer 8K-Kamera und abnehmbarem Display geleakt
- DJI Osmo Pocket 4P mit Dual-Kamera und 3x Zoom kommt am 14. Mai - nach Cannes
Das im Promovideo gezeigte Beispiel - ausgehend von dem Einzelbild einer Frau werden laufend neue Clips errechnet, wo sie unterschiedlich agiert - illustriert allerdings auch, dass das rasche Generieren zu Lasten der erstellten Bildqualität erfolgt, wie ja auch schon bei PixVerse-R1 zu sehen war - die Figur weist deutlich mehr vom typischen "KI-Wabern" auf, als man es mittlerweile von aktuellen KI-Topmodellen gewohnt ist.
Die Portierung von Runway Gen-4.5 sowie des Weltmodells GWM-1 auf Nvidias neue Rubin-Plattform wurde bereits im Januar angekündigt. Sie wurde für die nächste Generation von KI-Modellen entwickelt, darunter auch die Videogenerierung, und beschleunigt mit einer Inference-Rechenleistung von 50 PF pro GPU die Echtzeit-Generierung von langen Videos.



















