Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Echtzeit Motion Tracking in Soft- und Hardware



Newsmeldung von slashCAM:


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten


Space


Antwort von Andi33:

Klingt gut, nur ist die Technik wirklich so neu?

Space


Antwort von Axel:

Klingt gut, nur ist die Technik wirklich so neu? Keine Ahnung. Neu ist wohl der DIY-Aspekt. Denkbar wäre eine kybernetische Form von Steadicam. Wie uns Stu Maschwitz in seinem DV Rebel erklärt, ist das Hauptproblem einer freihändigen Kameraführung - auch noch einer durch Steadicam stabilisierten - die Rotation. Wäre es nicht traumhaft, das Rig auf der Schulter liegen zu haben, und ein kleiner Roboter-Kopf, auf den die Kamera geschraubt ist, hält die Kamera immer in 0,0,0? Was Roboter in puncto Schnelligkeit leisten können, kann man z.B. hier sehen. Präzision in schwindelerregender Schnelligkeit. Den Film, bei dem zwei Roboter zusammenarbeiten und Fleisch, Zwiebeln und Paprika, die willkürlich über ein schnell laufendes Fließband ankommen, perfekt mittig auf Holzspieße drücken, finde ich leider gerade nicht. Ist fast beängstigend, denn intelligent sind die Dinger ja auch (eine Kamera filmt das Fließband, die Objekte müssen die Roboter selbständig unterscheiden). Jedenfalls klar, dass wir uns bei dieser Konkurrenz irgendwann alle unter der Brücke treffen.

Space


Antwort von pilskopf:

Nur dass ein Roboter nicht weiß, wie man am Ende den Film schneidet, wie msan eine Dramatik aufbaut und den Unterschied einer Zwiebel und einer Geige muss man ihm auch erst mal programmieren, wenn dann eine Flöte ins Spiel kommt, versagt er genauso wie wenn ein grüner Apfel ins Spiel kommt. Roboter sind immer nur so gut wie sie programmiert wurden.

Ich finde das Ding jetzt nicht so weltbewgend aber schlecht ist die Idee ja auch nicht. Ob das Ding auch mit einem Schwarzen funktioniert? :D Das gabs doch kürzlich erst dass eine Web Cam die Gesichtern folgen konnte bei einem Schwarzen versagt hatte.

Space


Antwort von deti:

Also das Thema ist weder neu, noch ist der CUDA-Code für's Motion-Tracking besonders komplex. Das hätte man auch gut mit einer ganz normalen CPU machen können. Die Sache funktioniert gut, sofern das zu verfolgende Objekt groß genug ist. Falls sich im Bild aber mehrere Objekte bewegen oder diese zu klein sind, versagt der Algorithmus. Hier käme der Aspekt des Bildverstehens ins Spiel, der auch heute noch nicht zufriedenstellend gelöst ist. Man darf solche Verfahren auch nicht mit der Lächelautomatik bei aktuellen Kameras verwechseln!

Wir haben schon vor einiger Zeit einen Remote-Head entwickelt, der sich mit Hilfe von Beschleunigungssensoren im Raum orientieren kann und so eine Position einigermaßen stabil halten kann. So richtig perfekt war diese Lösung nie und deshalb haben wir auch heute noch Kreiselstabilisatoren (Gyroskope) im Einsatz.

Deti

Space


Antwort von Axel:

deshalb haben wir auch heute noch Kreiselstabilisatoren (Gyroskope) im Einsatz. Habe gerade schon gegoogelt und bin komplett aus dem Häuschen. Hab das nur in Erinnerung gehabt für die Toskana-Flugszenen aus Tykwers Heaven, wo die Kamera an einem Hubschrauber hängt, mit so einem Ball dazwischen. Abgesehen von den ungefilterten Gyro+Steadi-Treffern: Kannst du mir irgendeinen aussagekräftigen Link zeigen? DIY wäre wohl zuviel verlangt?

Space


Antwort von deti:

Also technisch ist das Ganze sehr simpel: Diese Kreiselstabilisatoren sind ja nichts anderes als sehr gut ausgewuchtete Schwungscheiben, die direkt auf die Achse eines Elektromotors mit hoher Drehzahl aufgebracht wurden. Durch eine sehr hohe Masseträgheit bleibt diese Scheibe bei hoher Drehzahl stabil im Raum stehen (jeder kennt den Effekt z.B. von einer Fahrradfelge). Diese Scheibe bringt man z.B. unter- oder oberhalb der Kamera an, um die Auslenkung in der Horizontalen zu erschweren. Damit das System nun seine Position im Raum halten kann, wird es an einer kardanischen Aufhängung mit dem bewegten Objekt (z.B. dem Flugzeug, Hubschrauber, Tragseilen einer Spidercam, etc.) verbunden. Fertig.

http://www.ken-lab.com/
http://www.wolfgangsteiner.com/blog-do- ... id-29.html

Das Selberbauen ist absolut kein Problem - man müsste dazu eigentlich nur ein Schwebestativ mit Kreisel versehen. Wichtig ist eigentlich nur, dass der Kreisel sehr gut ausgewuchtet ist, denn bei den notwendigerweise hohen Drehzahlen entstehen sonst massive Schwingungen. Ein Gehäuse um die Schwungscheibe herum kann helfen Verletzungen zu vermeiden ;-)

Die Lösungen mit Gyroskop-/Beschleunigungssensoren und Servomotoren sind zwar nett und leicht, aber leider zu langsam für schnelle Ruckler, so wie sie an Board von Fahrzeugen entstehen.

http://www.youtube.com/results?search_q ... amera&aq=f

Deti

Space


Antwort von stefanf:

Ich mache automatisierte Videoüberwachung, und da ist Tracking kein so neues Ding.
Da wird dann aber unterschieden, ob es ein eFahne im Wind wird, eine Person oder Fahrzeug oder sonstwie was besonderes macht.
Da brauchts ordentlich Power...

Ansonst nen alter Hut.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Zeiss CinCraft Scenario vorgestellt für Kamera-Tracking in Echtzeit
Motion-Capturing in Echtzeit - ohne Marker
Motion Tracking am Pantoffeltier
RotoLight Titan X1: Lichtstarkes 1x1 Soft Light mit elektronischer Diffusion
Neu: Walimex pro Rainbow LED-RGBWW 50W, 100W und Pocket Soft Panels
Aputure stellt helles Nova P600c RGBWW LED Soft Panel mit 600W vor
Ursa Socks - Soft Sleeves
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
KI synchronisiert Lippen und Audio in Echtzeit
KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit
Frame.io Camera to Cloud: Cloud-basierter Echtzeit-Workflow von der Kamera bis zum Schnitt
Adobe After Effects 18.0 Update bringt Echtzeit-3D-Entwurfsvorschau und Multi-Frame Rendering
Frame.io startet Cloud-basierten Echtzeit-Workflow von der Kamera bis zum Schnitt
Audio Design Desk 1.7: Echtzeit-Editing Tool für SFX jetzt mit DAW Synchronisation
Audio Design Desk 1.9: Echtzeit-Editing Tool für Sound-Effekte jetzt mit neuen Funktionen und Lite Version
Kostenloses Nvidia KI-Tool: Gesichter einfach per Sprache in Echtzeit animieren
Blackmagic Design Ultimatte 12: Echtzeit-Compositing und Chroma Keying
Neue NVIDIA KI skaliert Videos in Echtzeit im Browser von 1080p nach 4K




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash