Das auf der Siggraph 2019 vorgestellt Projekt "LiveCap: Real-time Human Performance Capture from Monocular Video" realisiert die erste Echtzeit-Animation eines bewegten Menschen samt Kleidung mittels Motion Capturing anhand von ganz normalen Videoaufnahmen z.B. einer Webcam - das Verfahren nutzt also keine zweite Kamera oder eine Spezialkamera, welche Tiefeninformationen aufzeichnet.

Mittels eines Live-Videos werden die Bewegungen einer Person samt Alltagskleidung in Echtzeit gecapturet. Es wird also anders als bei klassischen Motion Capturing Verfahren kein Spezialanzug mit Marken benötigt, um die Bewegungen der einzelnen Körperteile exakt einzufangen. Auch die Verformungen der Kleidung während der Bewegungen des Menschen werden eingefangen und können per digitalem Modell verwendet werden. Die Analyse der Bewegungen samt Ausgabe des animierten digitalen Modells durch ein neuronales Netz erfolgt in Echtzeit auf einem PC mit einer CPU sowie zwei Standard-GPUs, welche parallel genutzt werden.
// Top-News auf einen Blick:
- Graphite - kostenloser Grafik-Editor von Photoshop bis Motion
- Affinity Photo, Designer und Publisher ab sofort in einer kostenlosen App
- DJI Neo 2 bringt Rundum-Hinderniserkennung samt LiDAR
- Künftige Xbox Next: Vollwertiger Windows-PC mit Potenzial für Videobearbeitung
- LG UltraFine 40U990A-W - 40 5K2K Monitor mit Thunderbolt 5


















