Logo Logo
/// 

Motion Tracking für das iPhone / iPad: CamTrackAR App von FXhome



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Mit seiner ersten App macht sich FXhome die Augmented Reality Technologie, welche sich in neueren Apple Mobilgeräten findet, zunutze und bietet Anwendern eine extrem einf...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Motion Tracking für das iPhone / iPad: CamTrackAR App von FXhome




Antwort von Banana_Joe_2000:

Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.

Hat das schon mal jemand ausprobiert?

Laienhafte Grüße,

banana



Antwort von Frank Glencairn:

Das wird wegen der ParallaxeParallaxe im Glossar erklärt, den unterschiedlichen Optiken, und Sensorgrößen nicht funktionieren.








Antwort von Jott:

Steht im Artikel, dass es nicht geht. Ist ja auch logisch.



Antwort von Gabriel_Natas:

Wenn es sowas in einer richtigen Kamera geben würde, das würde VFX-Shots ziemlich vereinfachen. Stellt euch eine Kamera mit eingebauter Linse vor, die dadurch, dass sie kein Wechselmount hat, Verzerrungsfrei aufnehmen kann und gleichzeitig mit einem TOF-Sensor Tracking- und Tiefendaten für alles, was die Kamera sieht, aufzeichnet.
Vielleicht als 1-Zoll-Sensor, 10-Bit-Aufnahme, lichtstarkes Objektiv ... :)

Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...



Antwort von Frank Glencairn:

Seit wann verzerrt ein Wechselmount?



Antwort von Gabriel_Natas:

"Frank Glencairn" hat geschrieben:
Seit wann verzerrt ein Wechselmount?
Es kommt auf das Objektiv an. Aber z.B. so ziemlich alle MFT Objektive verzeichnen und werden nur digital korrigiert. Wenn man so eine VFX-Kamera bauen würde, wäre es einfacher, wenn es nur ein Objektiv gibt, dass entweder gut gebaut ist oder für das die digitalen Entzerrungen bekannt sind. Bei Wechselobjektiven müsste ja auch der TOF-Sensor entsprechend das entsprechende Objektiv berücksichtigen, was es wieder komplizierter machen würde.
Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.



Antwort von CameraRick:

Gabriel_Natas hat geschrieben:
Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...
Das funktioniert leider auch nur solange bis Du mit Reflektionen, transparenten Ebenen oder Motioblur zu tun bekommst. Und die Maskierung innerhalb der Tiefendaten macht, je nach Auftrag, die Sache auch nicht unbedingt angenehmer. Ist halt nur Tiefeninformation und kein Deep Render.



Antwort von roki100:

Banana_Joe_2000 hat geschrieben:
Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.

warum das wenn es doch passende Programme gibt? Beispiel:

https://www.youtube.com/watch?v=KLF56y8ggng



Antwort von Frank Glencairn:

Gabriel_Natas hat geschrieben:

Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.
Vereinfachen ja, aber man wäre bei der Aufnahme mit einer BrennweiteBrennweite im Glossar erklärt halt sehr eingeschränkt.
Und die Kamera müßte dann auch in der RED/ARRI/BM Liga spielen, sonst kann ich gleich das iPhone nehmen.

Ich glaub da ist es einfacher und praktikabler das ganze herkömmlich - mit der selben Kamera wie den Rest des Filmes - zu drehen, und das Tracking in der Post zu machen.



Antwort von SteveScout:

Hallo an alle.
Die Frage von banana ist sehr berechtigt und war auch meine erste Frage. Und ja, das geht, aber ich habe es mit der App hier noch nicht probiert. Ist aber einiges an Aufwand. Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange BrennweiteBrennweite im Glossar erklärt benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren. Ist natürlich noch die Frage der Synchronität (wenn man visuell mit Klappe synct), aber das müsste man alles mal ausprobieren.

Wenn man keine Zeit und Möglichkeit hat, die Chips direkt übereinander zu alignen, gehe ich immer hin und schiesse von dem gesamten Aufbau Bilder für Photogrammetry, mit einem Lineal mit dabei. Dadurch weiss ich nachher im 3D-Raum ganz genau, wo die beiden Chips der beiden Cams aufeinander saßen und auch den Maßstab der Szene. Nun wird die getrackte 3D-Kamera an die Position des Witness-Cam-Sensors gelegt und eine neue Kamera an das Konstrukt an Position des Alexa-Sensors gebunden. Mit dieser 3D-Cam wird die Szene dann abgefilmt und fertig ist das Ganze.
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
lg,
Steffen



Antwort von CameraRick:

SteveScout hat geschrieben:
Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange BrennweiteBrennweite im Glossar erklärt benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren.
Ein klassischer Aufbau mit Witness-Cam ist natürlich auch technisch anders als eine automatisch generierte Kamera die dann auf Biegen und Brechen versucht wird zu verschieben, denn...
SteveScout hat geschrieben:
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
... hier liegt ja auch die Krux: wenn der Track schwimmt, ist er halt unbrauchbar.








Antwort von SteveScout:

Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..



Antwort von SteveScout:

Also ich finde in der App nichtmal die Möglichkeit die fps einzustellen .. evtl. bin ich zu dumm oder das gibt"s nur in der Vollversion. Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.



Antwort von CameraRick:

SteveScout hat geschrieben:
Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..
Kommt schon auf die Art des Shots an - Müll ist mir aber meist weniger Lieb als nichts, weil man viel Zeit verschwendet aus dem Müll was brauchbares zu machen. Wenn ein schwimmender Track reicht, tuts meist auch ein billigster 2D oder 3D Track direkt im Comper... :)
SteveScout hat geschrieben:
Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.
Oder besser noch, Telefon-typisch in variabler FPS :)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
CamTrackAR - 3D Tracker als iPhone App
Videoproduktion mit iPad als Camcorder und App für Videoschnitt?
Motion Tracking am Pantoffeltier
iPad/Audiobus3/ Launchpad App?
CyberLink PowerDirector iOS: mobiler Schnitt per iPad oder iPhone
motion tracking oder bewegungen verfolgen
Bildposition per Motion Tracking automatisch anpassen?
Motion Tracking & Shatter Effect
Edelkrone Motion Box für App-gesteuerte Kamera-Pirouetten // NAB 2018
iPad als zweiter Monitor mit DUET App
Motion Tracking - Bewegungsmuster erkennen und aufzeichnen (wie Heatmap)
TouchBar per iPad App Duet Display für jeden Mac
mochaVR Beta 2 -- Motion Tracking und mehr für 360° Videos
CineControl Multicam App -- mehrere ARRI Kameras vom iPad aus kontrollieren
Frage zu iPhone App MAVIS
Kostenlose iPad App DJI Ground Station Pro: Kamera-Flug Planer und Autopilo
DJI Mavic Mini: Flugsteuerungs-App Litchi rüstet Tracking und weitere Funktionen nach
iPhone App - Videocapture mit voller Qualität
iphone 7 - externes Mikrofon mit Video App nutzen
Verwandelt iPhone in Webcam: NDI HX Camera App jetzt kostenlos
Apple stellt iPhone 8, 8 Plus und X mit 4K 60p H.265 - sowie Face ID für iPhone X vor
Edelkrone SliderONE PRO: der mobile Motion Control Slider mit App
Alight Motion - Motion Design und Compositing für Android
Das 2000€ Euro iPhone RIG System
DJI Osmo Mobile2 - IPhone 7 + NDs klappt das?
Premiere Plugins und andere Tools von Motion Array für 90 Tage kostenlos

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom