Es kommt auf das Objektiv an. Aber z.B. so ziemlich alle MFT Objektive verzeichnen und werden nur digital korrigiert. Wenn man so eine VFX-Kamera bauen würde, wäre es einfacher, wenn es nur ein Objektiv gibt, dass entweder gut gebaut ist oder für das die digitalen Entzerrungen bekannt sind. Bei Wechselobjektiven müsste ja auch der TOF-Sensor entsprechend das entsprechende Objektiv berücksichtigen, was es wieder komplizierter machen würde.
Das funktioniert leider auch nur solange bis Du mit Reflektionen, transparenten Ebenen oder Motioblur zu tun bekommst. Und die Maskierung innerhalb der Tiefendaten macht, je nach Auftrag, die Sache auch nicht unbedingt angenehmer. Ist halt nur Tiefeninformation und kein Deep Render.Gabriel_Natas hat geschrieben: ↑Mi 12 Aug, 2020 11:12 Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...
Banana_Joe_2000 hat geschrieben: ↑Mi 12 Aug, 2020 08:47 Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.
Vereinfachen ja, aber man wäre bei der Aufnahme mit einer Brennweite halt sehr eingeschränkt.Gabriel_Natas hat geschrieben: ↑Mi 12 Aug, 2020 12:19
Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.
Ein klassischer Aufbau mit Witness-Cam ist natürlich auch technisch anders als eine automatisch generierte Kamera die dann auf Biegen und Brechen versucht wird zu verschieben, denn...SteveScout hat geschrieben: ↑Mi 12 Aug, 2020 15:08 Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange Brennweite benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren.
... hier liegt ja auch die Krux: wenn der Track schwimmt, ist er halt unbrauchbar.SteveScout hat geschrieben: ↑Mi 12 Aug, 2020 15:08 Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
Kommt schon auf die Art des Shots an - Müll ist mir aber meist weniger Lieb als nichts, weil man viel Zeit verschwendet aus dem Müll was brauchbares zu machen. Wenn ein schwimmender Track reicht, tuts meist auch ein billigster 2D oder 3D Track direkt im Comper... :)SteveScout hat geschrieben: ↑Mi 12 Aug, 2020 15:57 Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch´s Bild laufen & Co ..
Oder besser noch, Telefon-typisch in variabler FPS :)SteveScout hat geschrieben: ↑Mi 12 Aug, 2020 18:24 Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.