Logo Logo
/// 

Axibo PT4 Smart Motion System unterstützt die Unreal Engine für virtuelle Hintergründe



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Virtuelle Produktion macht von sich reden, hauptsächlich bei High-End-Produktionen: statt an echten Locations wird im Studio vor künstlichen Hintergründen gedreht, welche...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Axibo PT4 Smart Motion System unterstützt die Unreal Engine für virtuelle Hintergründe




Antwort von Rick SSon:

verstehe den sinn nicht, geht doch mit trackern jetzt schon easy.



Antwort von patfish:

"Rick SSon" hat geschrieben:
verstehe den sinn nicht, geht doch mit trackern jetzt schon easy.
1) Du brauchst keine Tracker (kein Cleaning)
2) Du brauchst kein 3D Tracking/Solving (riesiger Vorteil z.B. bei geringer Tiefenschärfe oder geringer Parallaxe im Shot)
3) Du kannst einen Shot beliebig oft wiederholen und z.B. jemanden in einem bewegten Shot klonen.
4) Du kannst durch Shots unterschiedlicher Skalierungen kombinieren (mit diesem Slider nur sehr beschränkt) also z.B. eine Person in einen leicht bewegten Miniaturen-Shot einfügen usw.

...es gibt also schon ein paar sinnvolle Dinge, die man damit machen könnte, wenn das System sauber funktioniert.

Ich frage mich schon seit Jahren (habe auch Unternehmen kontaktiert) , warum das nicht jeder automatisierter Slider/MotionControl (z.B: Edelkrone usw.) nicht unterstützt? Ich denke, das Auslesen der exakten XYZ Koordinaten + Rotationswerte ist rein über die Motor-Telemetrie gar nicht so einfach (nicht exakt genug). Dazu bräuchte es wahrscheinlich meist zusätzlich Messeinheiten z.B. Laser, welche das Unterfangen natürlich preislich in die Höhe treiben würden. Ich wäre gespannt, wie das hier genau gelöst wurde?








Antwort von Frank Glencairn:

Das Ding macht schon Sinn, vor allem wenn es um Qualität geht.

Selbst bei fetten Workstations kommt man mit der Echtzeit Qualität von Unreal schnell mal an die Grenze - und das schon bei HD - wobei sich das seit der 5 drastisch verbessert hat, die arbeitet allerdings noch nicht mit Aximetry zusammen.

Wenn man das hingegen in beliebiger Auflösung erst mal in aller Ruhe Vorrendern kann, und das Ergebnis dann quasi als fertigen Clip einfach in den Hintergrund legt, vereinfacht das so manches - ist auf der anderen Seite halt auch ne Einschränkung, weil man ja an die vorgegebene Kamerabewegung gefesselt ist.

Also für Produktshots und ähnliches durchaus von Vorteil, bei anderen Sachen, wo man flexibel die Kamera bewegen muss jetzt nicht so optimal.



Antwort von klusterdegenerierung:

Meega, habenwollen!




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Rechner für Unreal Engine 5
Gesichter einfach per iPhone animieren: MetaHuman Animator für Unreal Engine vorgestellt
Kurzfilm aus der Unreal Echtzeit-Engine - Rebirth von Quixel
unreal engine
Lumen in the Land of Nanite (Unreal 5 Engine Echtzeit Tech Demo auf Playstation 5)
The Matrix Awakens | Unreal Engine 5 Demo
Walking the Titanic in 4K | ULTRA REALISTIC DEMO in UNREAL ENGINE 5 RTX 4090
Axibo Pan/Tilt/Slide: Der erste intelligente AI Kamera-Slider
Eine Revolution der Filmproduktion: Die virtuellen Echtzeit-Hintergründe von "The Mandalorian"
Video Editing per KI läßt Objekte verschwinden und ersetzt Hintergründe
Dynamik und Belichtungsspielraum - Hintergründe zum slashCAM Dynamik Vergleich
Zeiss, Red, Nvidia, Intel und Canon pushen volumetrisches Video - kommt die virtuelle Kamera für alle?
Adobe: Creative Cloud Updates und C2C Workflows für die virtuelle Produktion
Neue Firmware für DJI Mini 2 bringt Unterstützung für den DJI Smart Controller
In DVD-lab PRO die "alternative Muxing engine" nutzen
Smart-Fernsteuerung für DJI Mavic vorgestellt -- Live-Streaming Option folgt // CES 2019
Virtuelle Kamera - GoPro FX Reframe-Plugin für Premiere Pro / After Effects
Sony stellt MicroLED Wand für virtuelle Filmsets wie bei "The Mandalorian" vor
Trackkmatte / Key für virtuelle Background
Samsung eröffnet weltweit größtes Micro-LED Filmset für virtuelle Produktionen mit 32K x 4K
Unreal als Compositing einsetzen
Unreal Build: Kostenloses Online Event zur virtuellen Filmproduktion
AJA FS-HDR v4.0 Update bringt TV-Modus für Colorfront Engine und v1.4 BBC HLG LUTs
Mavic 2 / Smart Controller Erfahrungen?
Virtuelle 3D Ansichten aus wenigen Photos berechnen // Siggraph 2019
Metabones Smart-Adapter T

















weitere Themen:
Spezialthemen


3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adapter/Konverter
Adobe After Effects
Adobe Premiere Pro
After effects
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
DJI
DSLR
DaVinci Resolve
Digital
EDIUS
ENG
EOS
Effect
Effekt
Empfehlung
Euro
Fehler
Festplatte
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG2
Magix
Magix Vegas Pro
Mikro
Mikrofon
Mikrophone
Movie
Musik
Musikvideo
NAB
Nero
Nikon
Objektiv
Objektive
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Plugin
Premiere
Produktion
Projekt
RAW
RED
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
Umwandeln
Vegas
Video
Video-DSLR
Videos
Videoschnitt
YouTube
Zoom