Gerade hatten wir erst unseren aktuellen Artikel über generative KI Videos freigeschaltet, da kommt Google schon mit dem nächsten interessanten Projekt um die Ecke.
Neural Dynamic Image-Based Rendering (kurz und kryptisch: DynIBaR) nennt sich eine Technik, die es ermöglicht, aus einer einzigen Kameraperspektive eine Kamerafahrt um ein Objekt wie bei einem eingeschränkten Bullet Time Effekt zu generieren. Da das KI-Modell hierbei viele Voraussagen über die Bildkomposition errechnet, fallen als Nebeneffekte auch noch Slow Motion, Bildstabilisierung sowie synthetische Tiefenschärfe/Bokeh ab.
Im folgenden Video lässt sich die mögliche Qualität von DynIBaR näher betrachten:
Interessant ist dabei, dass dieses KI-Modell letztlich bereits viele KI-Postproduktionsschritte auf einmal beherrscht, die wir in unserem Grundlagenartikel "Wie filmt man am besten für eine computational Postproduction?" beschrieben haben.
// Top-News auf einen Blick:
- DJI Mini 5 Pro soll so viel wie die Mini 4 Pro kosten
- Nikon Z6III bekommt u.a. Auto-Capture, USB-Streaming, Vogelmodus
- Blackmagic senkt Preise für URSA Cine 12K und 17k Kits radikal
- Google Gemini 2.5 Flash Image Nano Banana bringt Charakterkonsistenz und Multi-Imag
- Neue Sony FX3 und FX30 Firmware bringt BIG6-Startbildschirm, RAW-Video per HDMI und ...
- Google Pixel 10 Pro (XL) kommt mit Generativer KI direkt in der Kamera

Wir glauben tatsächlich, dass bereits in wenigen Jahren ein Filmkomposition über solche "Modifier" funktionieren kann und wird. D.h. man generiert für einen Film mittels generativer KI die notwendigen Standbilder für eine Art Storyboard und animiert diese dann über virtuelle Kamerafahrten und steuert dazu die Objektbewegungen wie Marionetten.
Klingt noch wie die entfernte Zukunft? Offensichtlich hat sie jedenfalls schon begonnen...