Vorgestern berichteten wir in einem Artikel über die zukünftigen Interpolations-Fähigkeiten von Neuronalen Netzen und schon heute gibt es dazu etwas frisches auf die Augen: Gegenüber normalen Optical Flow Algorithmen, verfeinern hier KI-Netze den Bewegungsverlauf von Objekten, die sie zuvor in ungefähr 11.000 240 fps Videos gesehen haben.
Tatsächlich wirken die Ergebnisse noch einmal besser als aktuelle Slow-Motion Algorithmen aus der Post-Produktion, jedoch ist es noch schwer abzuschätzen, wie schlecht die Ergebnisse im Worst Case ausfallen können. Das obligatorische Paper zur Netztopologie gibt es hier.
Und -natürlich viel wichtiger- die gelungensten visuellen Ergebnisse gibt es hier zu bestaunen: