Organic Motion, Hersteller von professioneller Motion Capturing Technik, testet die Verwendung von Microsofts Kinect System zum einfachen Motion Capturing in Echtzeit. Das bisher von Organic Motion entwickelte markerlose System beruht auf der Verwendung von bis zu 14 S/W in verschiedenen Winkeln angeordneten Kameras um die Bewegungen von Schauspielern im Raum mit einer Auflösung bis auf die Fingerbewegungen zu erkennen und auf animierte Modelle zu übertragen.
Microsofts Kinect System, das auf einer einzigen Kamera beruht, die zusätzlich zu Bildern auch Entfernungsinformationen zu jedem Pixel liefert, kann diese Anordnung wesentlich vereinfachen: unter Zuhilfenahme der Bilder von nur 3 zusätzlichen Webcams kann ein ganzer Köper (inklusive der von der Kinect Kamera nicht sichtbaren Stellen) in 3D rekonstruiert werden - und auch noch auf den sonst notwendigen retroreflektierenden Spezialhintergrund verzichtet werden. Das schon ganz ansehnlichre Ergebnis kann im folgenden Video bestaunt werden.
Der nächste logische Schritt ist die Verwendung von 2 Kinect Kameras (was auch von anderen Projekten schon getestet wird), um auf die zusätzlichen Webcams ganz zu verzichten um das System weiter zu vereinfachen und auch in einer billigeren (allerdings auch weniger zeit- und raumauflösenden als das Orginalsystem) Version anbieten zu können. Die Möglichkeite für ein präzises und erschwingliches Echtzeit Motion Capturing System wären gewaltig.
// Top-News auf einen Blick:
- DJI Osmo Pocket 4P - Dual-Kamera mit 17 Blendenstufen Dynamik, 3x Zoom und D-Log2
- Actioncam-Gigant GoPro erwägt Verkauf oder Merger
- Sony A7R VI vorgestellt mit 66,8MP, Dual Gain und bis zu 120min 8K-Videoaufnahme
- Canon stellt EOS R6 V und RF 20-50mm F4 als PowerZoom-Kombination vor
- Panasonic Lumix L10 - Kompaktkamera mit GH7-Sensor und V-Log vorgestellt
- ZineControl - Monitoring und Fernsteuerung per App für die Nikon ZR
Passend dazu: John Underkoffler, der das Gesten-Interface für Minority Report entworfen (oder besser visioniert) und damit der Entwicklung solcher Interfaces einen großen Schub verpasst hat, spricht in einem sehr interessanten TED Talk über die Zukunft des User Interfaces zwischen Mensch und Maschine. Er zeigt einige schöne Beispiele für eine Gestensteuerung, die eine wesentlich intuitivere Interaktion mit dem PC als per Tastatur oder Maus möglich macht (ab 11:11 auch was ganz Videoschnitt-spezifisches).



















