Die SIGGRAPH 2017 wirft schon wieder ihre Schatten voraus und auch das Thema “Künstliche Intelligenz” nimmt einen immer breiteren Platz im Rahmen der präsentierten Forschungsergebnisse ein. Ein schönes und zugleich vielleicht auch beängstigendes Beispiel stammt vom “GRAIL” (Graphics and Imaging Laboratory of the University of Washington's Department of Computer Science and Engineering).

Hierbei wurde aus der Tonspur einer Videoaufnahme von Barack Obama die Mundbewegung in einer anderen Videoaufnahme von Barack Obama synthetisch erzeugt. Wenn man dies nicht vorher weiß, kommt einem der dabei neu erzeugte Videoclip authentisch vor. Zum besseren Verständnis hier einmal eine nähere Erklärung des Projektes:
// Top-News auf einen Blick:
- Preview auf objektbasierte Maskentools in der Premiere Pro Beta
- Blackmagic DaVinci Resolve Studio ab sofort auch mit monatlicher Lizenz
- Neu und kostenlos - Adobe Premiere für iPhone
- Canon teasert neue, kompakte Kamera - Cine-Modell zur IBC?
- Revolutionärer AF für Cine-Objektive: Tilta Autofokus-Adapter zapft interne Kamera-...
Aber auch im künstlerischen Sinne könnte die Technologie interessant werden. Gerade bei der Nachsynchronisation ließe sich eine deutsche Übersetzung gleich mit korrekten Lippenbewegungen darstellen. Und umgekehrt könnte somit auch der Export des deutschen Films in den englischsprachigen Raum befeuert werden. Denn dem wird oft nachgesagt, dass vor allem Amerikaner extrem allergisch auf Synchronfassungen reagieren, wenn die Lippenbewegungen nicht exakt ausfallen.
Und nicht zuletzt könnte diese Technologie auch grundsätzlich dabei helfen statt O-Ton in szenischen Produktionen die Stimmen in der Post einfacher per Overdub nutzen zu können. Auch kleinere Sprachfehler (die sonst eine Szene gleich unbrauchbar machen würden) ließen sich hiermit bequem ausbügeln, indem die Lippen mal kurz automatisiert “nachgeführt” werden. (T)ja, Leute, es wird so kommen, ob wir wollen oder nicht...