Mit generativer KI erstellte Figuren bewegen sich nicht immer so, wie man es selbst gerne möchte - wer mehr Kontrolle über animierte Charaktere haben möchte, greift zu Motion Capture und dafür hatte Runway bereits seit längerem ein KI-Tool. Es wurde vor kurzem aktualisiert und kann unter dem Namen "Act-Two" nun Bewegungsvorgaben aus einer Videovorlage noch besser auf eine Figur übertragen. Diese muss dafür nicht als 3D-Modell existieren, wie bei traditioneller Animation, sondern es reicht ein einzelnes (ggf. generiertes) 2D-Bild.

Unterstützt wird ein "Tracking" von Kopf, Gesicht, Körper und Händen - folgendes Video zeigt eindrucksvoll, was mit wenigen Klicks möglich ist:
// Top-News auf einen Blick:
- Preview auf objektbasierte Maskentools in der Premiere Pro Beta
- Blackmagic DaVinci Resolve Studio ab sofort auch mit monatlicher Lizenz
- Neu und kostenlos - Adobe Premiere für iPhone
- Canon teasert neue, kompakte Kamera - Cine-Modell zur IBC?
- Revolutionärer AF für Cine-Objektive: Tilta Autofokus-Adapter zapft interne Kamera-...
Dafür hat man bis auf einen Regler, mit dem sich einstellen lässt, wie eng sich die KI an die Vorgabe halten soll, keine Eingriffsmöglichkeiten. Die besten Resultate lassen sich laut Runway erzielen, wenn die Person im Vorlagevideo eine ähnliche Position im Bild einnimmt wie die Zielfigur, also aus dem gleichen Winkel zu sehen ist bei ähnlicher Einstellungsgröße.
Runway Act-Two soll ab sofort für alle Enterprise-Kunden sowie "Kreativpartner" zur Verfügung stehen (also wie es scheint noch nicht für normale Abonnenten).