Zum etwas (im Bezug auf Video Neuigkeiten) eher kühlen und (vom Wetter gesehen) dennoch sehr heißen Wochenende mal wieder eine kleine News über die Fortschritte der künstlichen Intelligenz beim Image Style Transfer. Noch gibt es das zugehörige Paper nicht, aber zur SIGGRAPH 2017 soll es soweit sein. Mit einem entsprechenden Youtube-Video teasert Daniel Sýkora schon einmal seinen nächsten Schritt der Technologie von der CTU in Prag, die mit StyLit ja bereits in Kooperation mit Adobe vor einem Jahr auf der SIGGRAPH 2016 aufsehen erregten.
Was man nun in diesem neuen Video gut sehen kann scheint eine Art Image Style Transfer in Echtzeit zu werden, der wahrscheinlich vor allem in Videochats für Furore sorgen könnte:
// Top-News auf einen Blick:
- Sony Alpha 7 V ist da: 33MP Partially Stacked Sensor, 4K 60p ohne Crop und 16 Stops
- ByteDance Vidi2 produziert selbstständig fertige Videos aus Rohmaterial
- Blackmagic DaVinci Resolve 20.3 bringt Support für 32K-Workflows und mehr
- Bis zu 1.000 Euro sparen: Cashbacks auf Kameras von Sony, Nikon, Canon und Panasonic
- Sony und slashCam verlosen eine FX2 Cinema Line Kamera
- DJI Neo 2: Verbesserte Mini-Drohne für Solo-Creator und Einsteiger
Uns begeistert dabei jedoch vor allem, dass der Algorithmus auch Elemente wie Zähne (die in der Image Style Vorgabe nicht vorhanden sind) glaubhaft "mitsimulieren" kann. Gerade auch deswegen ist das Video daher vielleicht vor allem für KI-Zweifler interessant, die noch immer meinen, sowas könne man ja auch mit einem einfachen Premiere Pro Filter hinbekommen. Nein, kann man definitiv nicht...


















