Frage von dudelsack44:Tauche gerade in die spannende Materie des Stereo-3D ein. Mich würden eigene Erfahrungen da schon sehr reizen, allerdings weiß ich nicht, ob unsere Mittel dafür ausreichen... mal die etlichen Aspekte, die man beim Dreh (Scheinfenster-Übertretung usw.) beachten muss, außer Acht gelassen, reichen da zwei (unterschiedliche) Spiegelreflexkameras als unser Equipment aus?
Ist es wirklich so wichtig, beide Kameras exakt gleichzeitig auszulösen oder kann man nicht einfach in der Nachbearbeitung den einen Clip, entsprechend mit der Klappe synchronisiert, verschieben? (Gilt das nur für besonders schnelle Bewegungen im Bild?)
Können normale Bildschirme die Polarisationswiedergabe, sodass wir den Film am Ende mit typischen Kino-Brillen sehen können? (Projektion erfordert ja eine teure Silberleinwand, hellen Beamer etc....)
Habe hier zu Hause leider keine Anaglyph-Brille parat, daher die Frage: Sind die selbstgemachten 3D-Filme stark in der Wirkung oder hätte man sich den Effekt auch sparen können?
Ich würde mich über ein paar Antworten freuen. :-)
Antwort von kunstruessel:
Is wie beim Kochen!
Ausprobieren, abschmecken und reallisieren.
Was is der Zweck und was soll den Augen gesagt/gezeigt
werden?
Was hat das MIT TON zu tun und warum is es komplex.
Und warum geht es unseren Augen auf den Senkel, wenn sie
doch lieber entspannt auf die Leinwand gucken wollen wenn
und was auch immer.
Des ganze wäre für zb 3d-INDUSTRIE-FILME die in SHORTS
etwas cool erklären ( vor zurück slomo scroll- in den EINZELBILDER
sind unzählige textinfos etz versteckt) so um 180 sec.
wiki-3d-pädia-how-to-work....
egal.
mach es einfach.....
Antwort von dudelsack44:
Mkay, klingt schon einmal nicht danach, als wäre es unmöglich... mehr wollte ich ja eigentlich auch gar nicht wissen, schließlich findet man die nötigen techn. Infos im I-net.
Antwort von Thunderblade:
Mit 2 unterschiedlichen DSLRs???
Vergiss es. Das klappt nicht.
Der Unterschied zwischen Farben und Kontrast und Dynamic Range und dem ganzen Bildeindruck macht es unmöglich.
Bei 3D brauchst du aufjedenfall 2 identische Kameras.
Antwort von dudelsack44:
Der Unterschied zwischen Farben und Kontrast und Dynamic Range und dem ganzen Bildeindruck macht es unmöglich.
Das würde ich auf Basis des mir angelesenen Wissen anzweifeln: Bei Spiegel-Rigs taucht genau dieses Problem auf, z.T. erhält man noch unerwünschte Einstrahlungen durch den polarisierenden Spiegel. All dies muss in der Nachbearbeitung korrigiert werden.
Und ich glaube nicht, dass sich bei den DSLRs bzgl. Farben u. Kontrast so viel tut, dass es ein Ding der Unmöglichkeit ist, mit üblichen digitalen Filtern dagegenzuwirken...
Natürlich ist auch hier die Frage, welchen Anspruch man hat, aber wer schon von Vornherein einen Thread mit den Schlagworten
"einfache Mittel" +
"Anfänger" erstellt, macht sich da höchstwahrscheinlich auch keine zu großen Illusionen, von wegen Avatar-Homemovie. ;-)
Antwort von Frank Glencairn:
Besorg dir lieber ne richtige 3D Kamera, alles andere erfordert sehr viel Wissen, Geld und Erfahrung, auch in der Post. Das kann sonst sehr schnell in Frust enden.
Antwort von Thunderblade:
Das würde ich auf Basis des mir angelesenen Wissen anzweifeln: Bei Spiegel-Rigs taucht genau dieses Problem auf, z.T. erhält man noch unerwünschte Einstrahlungen durch den polarisierenden Spiegel. All dies muss in der Nachbearbeitung korrigiert werden.
Und ich glaube nicht, dass sich bei den DSLRs bzgl. Farben u. Kontrast so viel tut, dass es ein Ding der Unmöglichkeit ist, mit üblichen digitalen Filtern dagegenzuwirken...
Da täuschst du dich aber gewaltig. Du glaubst gar nicht was für eine unglaubliche Präzision bei 3D nötig ist. Selbst bei 2 baugleichen Kameras sind die Unterschiede teilweise noch viel zu groß.
Beispiel:
Bei typischen 3D Filmen sind selbst die Unterschiede zwischen indentischen High End State of the Art Objektiven (Master Primes, etc.) noch zu groß (Jedes glas hat unterschiedliche charackteristieken und farbstiche) sodass mal eben dutzende gleiche Objektive getestet werden bis man ein Paar findet welches am nächsten bei einander liegt etc.
Und wenn du jetzt mit 2 vollkommen verschiedenen Kameras kommst: Vergiss es!!!
Antwort von momentum:
Ist so. Selbst mit zwei identischen Kameras ist es für Amateure kaum machbar. Da ist eine Wall-E (Consumer-Camcorder mit zwei Objektiven, z. B. JVC GS-TD1E, Sony HDR-TD30VE) nötig. Alles andere endet mit Sicherheit im Frust, wenn nicht sogar im Kopfweh, in Schwindel und Übelkeit. Beachte auch, dass die beiden Objektive nicht weiter als etwa 6,5 cm auseinander liegen sollten, so wie unsere Augen. Schon das dürfte mit 2 DSLR kaum machbar sein.
Die Synchronisation der beiden Clips kann dagegen schon über eine Klappe erfolgen.
Ein Polfiltersystem braucht auch ein Sichtgerät (Monitor, Beamer), das diese Technik beherrscht. Normale 2D-Sichtgeräte können nur anaglyphisches s3D wiedergeben.
Bei gut gemachtem s3D, beispielsweise mit der genannten JVC GS-TD1, und sinnvollen Sichtgeräten (Pol oder Shutter) kann man auch selber für ein schönes 3D-Tiefenerlebnis zu Hause sorgen. Ansonsten teilen sich hier die Geister: Ob man s3D haben will oder nicht, das unterscheidet sich von Mensch zu Mensch. Ich persönlich würde darauf verzichten, wenn es nur anaglyphisch zur Verfügung stünde. Zum einen passt mir dabei das Farbwirrwarr nicht und zum anderen empfinde ich die Kanaltrennung bei diesem System als ungenügend, so dass es immer wieder zu Ghosting kommt.
Antwort von wolfgang:
Zwei unterschiedliche Kameras zu nutzen ist völlig absurd - um passende Gerätepaare heraus zu bekommen werden in den einschlägigen Foren sogar eigene Paarungsaktionen gemacht (nicht auf slashcam, hier sind eher wenige s3D Anwender vorhanden).
Aber natürlich geht es auch im Prosumerbereich mit einem Kamerapaar, ist aber eher aufwendig. Schöner sind Genlock-Geräte, aber im Prosumerbereich nutzt man solche Kamerapaare mit Lanc-Controllern, um die Synchronizität der Chips zu gewährleisen. Nicht zu verwechseln mit dem zweiten Punkt, dass eine Klappe ist nur gut für das nachträgliche Angleichen der Audiospuren ist, da diese Geräte immer ein paar Frames versetzt die Aufnahme ablegen.
Es stimmt nicht dass die beiden Objektive nicht mehr als 6,5 cm auseinander liegen dürfen - der IO berechnet sich nach anderen Gesetzpunkten (Schlagwort Bercovitz Formel). Die Disparität im Nah- oder Fernpunkt darf auf dem späteren Sichtgerät/Leinwand die 6.5 cm (plus eine vom Sichtgerät abhänge abstandsabhängige Zusätzgröße) nicht überschreiten, aber die Wahl der Basis hängt primär von Nah- und Fernpunkt ab, und auch der später erwarteten Größe des Sichtgerätes.
Antwort von momentum:
Es stimmt nicht dass die beiden Objektive nicht mehr als 6,5 cm auseinander liegen dürfenStimmt. Da habe ich mich etwas vertan. Andernfalls würden James Cameron & Co. ja dauerhaft daneben liegen. Ich meine aber, dass es für Anfänger sinnvoll ist, diese 6,5 cm anfänglich einzuhalten: Man reduziert damit doch mindestens das Risiko von problematischen Bildern und macht das s3D-Filmen etwas einfacher. Oder gilt nicht einmal das?
Antwort von Valentino:
Hatten vor zwei Wochen ein sehr guten S3D Workshop und das Thema S3D ist weit aus komplexer als es hier dargestellt wird.
Ein Teil meiner Thesis wird sich mit dem Thema befassen und wenn es so weit ist, lade ich gerne auch mal ein Video in SidebySide hoch.
In dem Video werden diverse Brennweiten, Konvergenzen und absichtlich herbeigeführte Fehler zu sehen sein.
Der Abstand der Kameras zu einander hängt sehr stark von Nahpunkt und Fernpunkt ab.
Bei Landschaftsaufnahmen kann dieser auch mal ein Meter betragen, bei Makro-Aufnahmen hingegen nur ein paar Millimeter. Meist liegt der Abstand der Kameras bei 4cm.
Um sich dem Thema etwas zu nähern, einfach mal mit Standfotos mit der DSLR und diesem Einstellschlitten experimentieren:
http://www.manfrotto.de/makro-einstellschlitten
Die Objekte dürfen sich nicht bewegen!
Daraus dann ein SidebySide in Photoshop erstellen und diese auf dem 3D Monitor oder Beamer betrachten.
Oder halt so eine Consumer WallE Kamera zulegen, die aber in ihren Funktionen, Basis(Abstand der beiden Optiken) nicht an die großen Spiegel-Rigs ran kommt.
Antwort von dudelsack44:
Mmhh.. ich kann es ja trotzdem mal ausprobieren, macht ja keine großen Umstände, wenn wir unsere Kameras einmal "nebeneinander stellen". Dass die S3D-Welt kompliziert ist, war mir klar, aber nicht, dass man soooo präzise vorgehen muss... (anscheinend ja selbst bei minimalen Ansprüchen)
Vielleicht mieten wir uns sonst mal zum Test so einen Camcorder.
Antwort von wolfgang:
Die 6.5 cm als Basis eines Kamerapaars sind eigentlich ohne jede besondere Bedeutung - das ist lediglich der durchschnittliche Augenabstand eines Erwachsenen. Hat nur insofern Bedeutung als die Augen des Betrachters nicht nach außen schielen können/dürfen, damit die Disparität am Präsentationsschirm kleiner bleiben muss. Aber für die Wahl des Abstands der Kameraoptiken - der Basis - ist das ein willkürlicher Wert, da es gilt eine Reihe von Faktoren in der Kombination zu beachten. Man nehme nur das Extrembeispiel von Hyperstereoaufnahmen, die etwa jemand von Wolken schießt - und dabei sich mit dem Flugzeug ein paar Kilometer bewegt, seine Teilbilder macht und die zurückgelegte Wegstecke des Fliegers als Basis nimmt. :)
Und ja, man muss bei s3D extrem präzise vorgehen, kann aber heute in der digitalen Nachbearbeitung eine Reihe von geometrischen Fehlern korrigieren - der Vegas Plugin ist hier etwa ausgesprochen gut. Das ändert aber nichts daran dass man trotzdem gut geometrisch und synchron laufende Kameras nutzen sollte.
Natürlich ist s3D massiv komplizierter als es jetzt hier andiskutiert worden ist. Aber in der Praxis muss man die Sache auch mal irgendwo beginnen. Der Manfrotto Einstellschlitten ist übrigens auch nur eine (schlechte) Notlösung, ohnedies nur für Fotographie geeignet und nicht für Video. Preiswerte Schienen für den Amateurbereich haben wir übrigens mal hier diskutiert:
http://www.videotreffpunkt.com/thread.p ... adid=13040