Gerade hatten wir erst unseren aktuellen Artikel über generative KI Videos freigeschaltet, da kommt Google schon mit dem nächsten interessanten Projekt um die Ecke.
Neural Dynamic Image-Based Rendering (kurz und kryptisch: DynIBaR) nennt sich eine Technik, die es ermöglicht, aus einer einzigen Kameraperspektive eine Kamerafahrt um ein Objekt wie bei einem eingeschränkten Bullet Time Effekt zu generieren. Da das KI-Modell hierbei viele Voraussagen über die Bildkomposition errechnet, fallen als Nebeneffekte auch noch Slow Motion, Bildstabilisierung sowie synthetische Tiefenschärfe/Bokeh ab.
Im folgenden Video lässt sich die mögliche Qualität von DynIBaR näher betrachten:
Interessant ist dabei, dass dieses KI-Modell letztlich bereits viele KI-Postproduktionsschritte auf einmal beherrscht, die wir in unserem Grundlagenartikel "Wie filmt man am besten für eine computational Postproduction?" beschrieben haben.
// Top-News auf einen Blick:
- Fujifilm GFX Eterna 55 erklärt: Aufnahmeformate, Großformat-Open-Gate, Fujinon 32-90
- Neue Vocas Matte Box MB-260 - kompakt und frei konfigurierbar
- Die Canon EOS C50 erklärt - 7K RAW, 120p 4K und Open Gate
- Blackmagic Camera App 3.0 für Android und iOS bringt viele Neuerungen
- Blackmagic DaVinci Resolve 20.2 bringt neben Apple ProRes RAW u.a. ...
- Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?

Wir glauben tatsächlich, dass bereits in wenigen Jahren ein Filmkomposition über solche "Modifier" funktionieren kann und wird. D.h. man generiert für einen Film mittels generativer KI die notwendigen Standbilder für eine Art Storyboard und animiert diese dann über virtuelle Kamerafahrten und steuert dazu die Objektbewegungen wie Marionetten.
Klingt noch wie die entfernte Zukunft? Offensichtlich hat sie jedenfalls schon begonnen...