Logo Logo
/// News

Move.ai - filmreifes Motion Capture ohne Tracker mit nur zwei iPhones?

[17:47 Fr,10.März 2023 [e]  von ]    

Seit kurzem ist eine iPhone-App verfügbar, Move.ai, mit welcher sich hochqualitative Motion Capturings ganz ohne Marker erstellen lassen. Um die Bewegungen einer (oder sogar mehrerer) Personen zu tracken, muss allerdings aus mehreren Perspektiven gefilmt werden. Daher werden 2 bis 6 iPhones benötigt, die via App miteinander verbunden werden.

move-ai-MoCap_group
Move.ai Motion Capturing am iPhone





Die Aufnahmen der verknüpften Geräte werden danach zum Move.ai Onlinedienst hochgeladen, also in der Cloud verarbeitet (genutzt wird AWS). Die fertigen Skeletons bzw. Tracking-Daten sind kompatibel mit einer Vielzahl Programme, aktuell Maya, MotionBuilder, Blender, Cinema4D, Unreal Engine, Unity und Houdini. Ausgegeben werden FBX- (Pre-/Retargeted), Blender- oder Maya HIK-Dateien. Auch die Fingerpositionen lassen sich tracken, laut Move.ai mit ca. 70% Trefferquote, während das Körpertracking zu 90% akkurat ausfällt.



Die MoCap-Aufnahme-Aufnahme läßt sich sehr einfach durchführen. Die filmenden iPhones müssen lediglich auf Stativen o.ä. befestigt sein und die zu trackende Person immer komplett im Bild haben. Je mehr Kameras verwendet werden, umso genauer kann getrackt werden, da sich Occlusionen (Überdeckungen) besser ausgleichen lassen. Es empfiehlt sich, bei der Wahl der Kleidung auf ausreichend Kontrast zum Hintergrund zu achten (allerdings ist schwarz ungünstig), auch sollte sie eher eng sein, siehe Help-Dokumente.

move-ai-MoCap_skeletons


Vor der Aufnahme muss eine Kalibrierung vorgenommen werden und auch zu Beginn jedes Takes müssen die Personen im Bild einige vordefinierte Aktionen machen, damit das Tracking funktioniert (in die Hände klatschen für den Sync und dann 2s mit den Armen in T-Positon stehen). Aktuell lassen sich mit Move.ai nur Menschen tracken (keine Tiere); an Objekten werden ferner nur (Fuss-)Bälle erkannt.

Als Webservice steht Move.ai bereits seit ein paar Jahren zur Verfügung, neu ist nun die iPhone-App - unterstützt werden die Modelle iPhone 8 - 14 mit iOS 16+. Wie der Name schon verrät, basiert die Anwendung auf KI-Algorithmen bzw. eine Kombination aus Maschinensehen und Deep Learning. So läßt sich auf umständliche MoCap-Workflows mit Tracking-Suits uä. verzichten.

move-ai-MoCap_iPhoneApp


Wer sich bei Move.ai anmeldet, bekommt zwei Gratis-Minuten Motion Capturing geschenkt, daher läßt sich das Tracking kostenlos ausprobieren. Nach Ablauf der Freiminuten kostet das Verarbeiten der Capturings 365 Dollar für 12 Monate. Allerdings gibt es keine MoCap-Flatrate, sondern wer mehr als 30 Minuten per Monat (oder 6 Stunden pro 6 Monate) verarbeiten möchte, muss zusätzlich 4 Cent pro Minute bezahlen.

Link mehr Informationen bei www.move.ai

  
[noch keine Leserkommentare] [Kommentar schreiben]   

  Vorige News lesen Nächste News lesen 
bildApple: Neue Macs vor dem Start - kommt endlich der neue Mac Pro mit M2 Ultra? bildGPT-4 kommt schon schon nächste Woche: KI für Text, Bild- und Video


verwandte Newsmeldungen:
Capturing:

Avatar 2 - freitauchende Stars und Motion Capturing unter Wasser 20.Dezember 2022
AJA stellt Io X3 Thunderbolt 3 Capture- und Playout-Box mit HDMI und 3G-SDI vor 6.Februar 2022
Blackmagic UltraStudio Monitor 3G und Recorder 3G: 3G-SDI- und HDMI Capturing und Playback per Thunderbolt 3 20.Juli 2020
Capture-Kugel ermöglicht völlig variable, nachträgliche Lichtanpassung von 3D-Körpermodellen 27.November 2019
LiveCap: Echtzeit-Motion Capturing per Webcam // Siggraph 2019 15.Juni 2019
AJA Io IP - Capture- und Playout-Box für IP-Workflows 16.November 2017
AJA Io 4K Plus Capturing Box mit Thunderbolt 3 // IBC 2017 15.September 2017
alle Newsmeldungen zum Thema Capturing

Machine Learning:

So sehen die per KI generierten Gewinnerfilme des Runway KI-Filmfestivals aus 27.März 2023
Wie man einen Videoclip mit KI-Tools produziert - in nur 3 Stunden 24.März 2023
Microsoft mit generativen KI-Modellen für jedermann im Browser - Bing Image Creator 23.März 2023
Adobe kündigt Firefly an: Generative KI-Modelle nun direkt von Adobe 21.März 2023
Runway Gen2: Stable Diffusion Schöpfer stellen neue Text-to-Video-KI vor 20.März 2023
VideoFusion: Erste Open Source Video-KI ist da - und läuft auch auf dem Heim-PC 20.März 2023
Bild-KI Midjourney V5 liefert fotorealistische Bilder - und endlich auch korrekte Hände 19.März 2023
alle Newsmeldungen zum Thema Machine Learning


[nach oben]

















passende Forenbeiträge zur News:

Archive

2023

März - Februar - Januar

2022
Dezember - November - Oktober - September - August - Juli - Juni - Mai - April - März - Februar - Januar

2021

2020

2019

2018

2017

2016

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000






































update am 27.März 2023 - 10:45
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*