Aufzeichnungsformat MVC
Beim Aufzeichnungsformat ist Sony dabei sehr zeitgemäß, bzw. seiner Zeit sogar etwas voraus: Aufgezeichnet wird entweder in 2D mit bis zu 28 Mbit bei 50p, oder in 3D mit 50i. Hierbei beträgt die Datenrate ebenfalls ca. 28 Mbit. Dabei werden offensichtlich zwei Ströme in einen MTS-Container geschrieben, wobei der der Strom des linken Auges mit 17 Mbit aufgezeichnet wird und der des rechten Auges mit 11 Mbit dazugepackt wird. Schnittprogramme die dieses MVC 3D nicht (er)kennen, sehen nur einen 2D Strom des linken Auges mit 17 Mbit und können diesen so problemlos als AVCHD-File importieren. Wir haben mit der Veröffentlichung dieses Tests noch darauf gewartet, dass ein Schnittprogramm die MVC 3D Informationen aus dem Strom lesen bzw. wiedergeben konnte. Und das gelingt auch tatsächlich mit dem neuen Sony Vegas 10.0d. Während die Vorgängerversion die Files nur als 2D-AVCHD-Strom interpretierte, landen die gleichen MTS-Files in der neuen Version als 3D-Clips in der Timeline. Das anschließende Editing kann dann tatsächlich problemlos in 3D erfolgen. Auch die neuen, integrierten 3D-Effekte lassen sich direkt auf die Clips anwenden und die Preview ist ebenfalls in diversen Formaten möglich. Doch das wird noch Thema eines separaten Artikels. Die Version 1.7.0 des beliebten Stereoscopic Player sollte zwar laut Feature-Liste ebenfalls MVC wiedergeben können, jedoch wollte uns dies mit einem Nvidia 3D-Vision Set nicht gelingen. Der Player erkannte zwar bereits den MTS-Stream als 3D, jedoch splittete er ihn nur mit Bildfehlern für die Brille auf. Dabei kam es auch immer wieder zu Konflikten mit den zugehörigen Direct Show Filtern. Andere Softwarepakete, die MVC direkt unterstützen sind uns noch nicht bekannt. Hier muss wohl noch etwas Zeit vergehen, bis die Software-Hersteller in die Gänge kommen (sofern sie denn überhaupt wollen).
Praxis
Gegenüber Panasonics Consumer-3D-Lösungen muss man an der Kamera auf den ersten Blick keine manuelle Optikeinrichtung vornehmen. Auf einen zweiten Blick lässt sich die digitale Konvergenz der beiden Optiksysteme jedoch horizontal verschieben, um den Tiefeneindruck der Aufnahme zu steuern. Eine Automatik kann auch versuchen, den optimalen Abstand zu ermitteln. Die Linsen selbst werden dabei jedoch nicht bewegt, sondern nur der horizontale, digitale Versatz beider Aufzeichnungen. Dies erklärt auch, warum der Weitwinkel im 3D-Modus etwas geringer wird. Wahrscheinlich wird hierfür einfach die ausgelesene Sensorfläche etwas verringert. Der ausgelesene Auschnitt und dessen horizontale Lage auf dem Sensor bestimmen dann die Konvergenz.
Die 31mm Objektivabstand sind natürlich auf den ersten Blick nicht gerade üppig. Weiter entfernte Objekte pusht man eben mal durch diese digitale Korrektur (was auch die Automatik versucht) in der Tiefenebene. Dies funktioniert für das menschliche Gehirn eigentlich auch ganz gut, auch wenn Objekte dadurch etwas flächiger wirken, weil die einzelnen Objekte eben „weniger seitlich“ aufgenommen und die frontalen Objekt-Ansichten für beide Bildkanäle dadurch sehr ähnlich sind. Das ganze funktioniert jedoch nicht mehr, sobald sich gleichzeitig Objekte sehr nahe am Objektiv befinden. Diese sind dann im Bildversatz so stark auseinandergedriftet, dass das Hirn kein Gesamtbild mehr aus beiden Eindrücken errechnet. Dies erkennt übrigens auch die Automatik. Filmt man beispielsweise aus einem Fenster, so stoppt die Automatik, sobald am Rande auch der Fensterrahmen ins Bild kommt. Eben aus genau dem angeführten Grund. Und das ist ja auch im Sinne einer guten stereoskopischen Bildkomposition.
Das integrierte, autostereoskopische 3D-Display macht teilweise richtig Laune. Dank seiner exzellenten Schärfe sieht man wirklich ohne zusätzliche Brille die eigenen Aufnahmen in 3D. Auch während der Aufzeichnung ist eine 3D-Vorschau vorhanden. Leider gelang es uns nicht, alle Display-Informationen beim 3D-Filmen auszublenden. Diese können jedoch bei der Vorschau nerven, weil der 3D-Eindruck von Objekten schnell verloren geht, sobald sie beispielsweise von einer Audio-Pegel-Anzeige teilweise überlagert werden.
Analysiert man das Material im 2D-Modus, so fallen gelegentliche, leichte Artefakte auf, die wohl auf die 17Mbit-Kompression zurückzuführen sind. Bei echter 3D-Ansicht sind diese nicht mehr erkennbar. Eine Erklärung: Das Gehirn dürfte wohl Bildfehler, die nicht parallel auf beiden Bildseiten entstehen quasi weg interpolieren. Einen ähnlichen Effekt gibt es ja auch bei der Schärfe. Der subjektive 3D-Eindruck der Aufnahmen ist jedenfalls erstaunlich gut.
Fotos können übrigens nicht in 3D erstellt werden, was uns doch etwas verwundert. Denn so könnte die Kamera für viele Anwender einen netten Zusatz-Nutzen bieten. Richtig interessant könnte nun der professionelle Ableger dieser Kamera werden (HXR-NX3D1P). Vielleicht spendiert hier Sony ja noch ein paar manuelle Funktionen mehr aus dem Firmware-Baukasten.