Mit generativer KI erstellte Figuren bewegen sich nicht immer so, wie man es selbst gerne möchte - wer mehr Kontrolle über animierte Charaktere haben möchte, greift zu Motion Capture und dafür hatte Runway bereits seit längerem ein KI-Tool. Es wurde vor kurzem aktualisiert und kann unter dem Namen "Act-Two" nun Bewegungsvorgaben aus einer Videovorlage noch besser auf eine Figur übertragen. Diese muss dafür nicht als 3D-Modell existieren, wie bei traditioneller Animation, sondern es reicht ein einzelnes (ggf. generiertes) 2D-Bild.

Unterstützt wird ein "Tracking" von Kopf, Gesicht, Körper und Händen - folgendes Video zeigt eindrucksvoll, was mit wenigen Klicks möglich ist:
// Top-News auf einen Blick:
- Graphite - kostenloser Grafik-Editor von Photoshop bis Motion
- Affinity Photo, Designer und Publisher ab sofort in einer kostenlosen App
- DJI Neo 2 bringt Rundum-Hinderniserkennung samt LiDAR
- Künftige Xbox Next: Vollwertiger Windows-PC mit Potenzial für Videobearbeitung
- LG UltraFine 40U990A-W - 40 5K2K Monitor mit Thunderbolt 5
Dafür hat man bis auf einen Regler, mit dem sich einstellen lässt, wie eng sich die KI an die Vorgabe halten soll, keine Eingriffsmöglichkeiten. Die besten Resultate lassen sich laut Runway erzielen, wenn die Person im Vorlagevideo eine ähnliche Position im Bild einnimmt wie die Zielfigur, also aus dem gleichen Winkel zu sehen ist bei ähnlicher Einstellungsgröße.
Runway Act-Two soll ab sofort für alle Enterprise-Kunden sowie "Kreativpartner" zur Verfügung stehen (also wie es scheint noch nicht für normale Abonnenten).


















