Konvergenz-Philosophien, Depth Grading und Schärfe-Interpolation

Lassen Sie uns nochmal auf die 3D-Aufnahmesituation zurückzukommen... Stichwort Konvergenz: Diese kann man einmal beim Drehen schon einstellen, aber auch später beim Depth Grading verändern. Wie ist denn das -- wenn ich eine Konvergenz beim Dreh einstelle, habe ich nachher einen genauso großen Spielraum, oder sollte man eher mit einer Konvergenz von Null drehen?



Das sind generell die zwei großen Philosophien in der Welt der 3D-Aufnahme -- im US-Bereich wird eher konvergiert, hier in Europa ist man eigentlich eher übereingekommen, parallel zu drehen, also mit null Konvergenz. Das war von Anfang an auch immer unser Ansatz, sozusagen der geometrisch korrekte Ansatz, mit zwei großen Vorteilen. Wenn man nicht konvergiert, zeigen die Bilder keine Parallaxverschiebungen, denn sobald man konvergiert, sind die Bilder gewinkelt, und es zeigen sich Parallaxen im Bild, die man dann wieder komplex ausgleichen muß in der Nachbearbeitung. Und zweitens hat man den größeren Spielraum, das gesamte Tiefenbudget hinterher in der Post anpassen zu können, auch dynamisch anzupassen, wenn sich in einer Einstellung so viele Dinge verändern, daß es erforderlich ist, die gesamte Tiefe zu korrigieren.



Also, daß man das gesamte Stereofenster nach vorne oder nach hinten schiebt?



Genau, das wird oft bei uns dynamisch animiert, und wenn das alles schon fixiert ist durch konvergiertes Drehen, nimmt man sich diese Möglichkeit zum großen Teil.



Geht es dann gar nicht, oder nur eingeschränkt?



Nur noch eingeschränkt. Man hat immer damit zu kämpfen, daß eine horizontale Linie in den Kameras verwinkelt erscheint. Man schaut einmal von rechts und einmal von links jeweils verwinkelt darauf, während es beim parallelen Drehen geoemtrisch korrekt abgebildet wird, und dadurch alles leichter zu verschieben ist.


Gegen das parallele Drehen wird als Argument angeführt, daß man natürlich für die Verschiebung der beiden Bilder skalieren muß, das heißt, ich muß etwas reinzoomen in die Bilder. Dadurch gibt es einen leichten Auflösungsverlust. Diesen Verlust habe ich aber eigentlich auch beim konvergierten Drehen, denn ich muß ja auch das Bild manipulieren, also die Pixel verschieben im Hinblick auf den Parallaxenausgleich. Also habe ich hier einen ähnlichen Eingriff in die Bilder, zwar nicht Skalieren, aber Warpen. Wenn man jetzt auch an höher aufgelöste Aufnahmeformate denkt, 2K, 4K, dann ist dieser Nachteil zu vernachlässigen und die Vorteile beim parallelen Drehen überwiegen auf jeden Fall.



Wie arbeitet man denn überhaupt beim Depth Grading, um nachträglich die Konvergenz einzustellen?



Mit cropping and scaling, man skaliert und verschiebt die Bilder zueinander. Man definiert immer durch die Lage der zwei Bilder zueinander, wo die Bildebene ist. Auf der Leinwandebene sind Referenzpunkte in den beiden Bildern auf einer Position -- der Konvergenzpunkt. Am Beispiel Text: wenn ich einen Titel mache und ihn genau auf der Leinwandebene positioniere, ist ein Buchstabe in beiden Bildern deckungsgleich. Wenn ich die zwei Bilder zueinander verschiebe, gibt es einerseits die positive Parallaxe, dann schiebt sich das nach hinten, oder eine negative Parallaxe, dann kommt es nach vorne raus.





Verschiebt man dabei nur gewisse Teile oder das gesamte Bild?



Den gesamten Bereich, aber durch Maskierung kann ich auch die einzelnen Ebenen voneinander trennen und verschieben. Wir hatten das zum Beispiel bei einer Einstellung, in der ein Rennfahrer im Auto sitzt mit Blick auf die Rennstrecke, da haben wir auch explizit die Rennstrecke separiert vom Innenraum gedreht, um die beiden Tiefenbereiche zu einander justieren zu können. So kann in jeder Situation die Tiefe optimal gestaltet werden.



Dreharbeiten zum 24h Rennen am Nürburgring
Dreharbeiten zum 24h Rennen am Nürburgring


Apropos Auflösungsverlust. Man ist bei 2D-Bildern ja einigermaßen empfindlich für die Auflösungsgröße, aber bei 3D scheint es so zu sein, daß man gar nicht richtig beurteilen kann, wie hoch sie ist -- diese einfachen 3D-Kameras arbeiten ja mit einer ziemlich geringen Auflösung etwa im Side-by-side-Verfahren, aber es soll nicht so eklatant auffällig sein beim Anschauen, wegen der räumlichen Staffelung.



Mit der Auflösung hatten wir eigentlich nie Probleme. Es gibt den Effekt, daß man die Bilder subjektiv schärfer sieht in 3D, weil die beiden Augen ein gewisses Grundrauschen in den Bildern, das in jedem Bild leicht anders ist, interpolieren, und dadurch ein subjektiv schärferes Bild generieren. Es findet also eine Art Interpolation im Gehirn statt: aus zwei verrauschten Objekten entsteht sozusagen ein Neues, Unverrauschteres.



Im Umkehrschluss, wenn man 3D wirklich in FullHD projiziert, bekommt man also nochmal ein scheinbar deutlich höher aufgelöstes Bild?



Ja, zwar wird aus zwei mal 2K immer noch nicht 4K, denn es ist ja derselbe Bildinhalt, aber der Seheindruck wird nochmal etwas schärfer.





Ähnliche Artikel //
Umfrage
    Welche Streaming-Dienste nutzt Du?













    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash