Hallo
Habe jetzt vor einigen Tagen meine FS700 aus England mit dem S-LOG2 Update zurückbekommen. Da mein vorbestellter Odyssey 7Q nocht etwa 2-3 Monate Lieferzeit haben wird, habe ich jetzt folgende Frage. Am SDI der FS700 kommen doch jetzt 4k oder 2k 12bit RAW raus, richtig? Der Odyssey 7Q komprimiert dass dann oder auch nicht, je nachdem was man halt einstellt. Wie ist das jetzt mit einem einfachen Rekorder, z. Bsp. Shuttle oder Samurai Blade? Kann ich da über SDI 10bit in 30p aufzeichnen oder sind das nur 8bit? Über HDMI könnte ich ja in den normalen Ninja oder Shuttle rein, aber das wären ja dann nur 8bit in einer 10bit Datei. Wäre das über SDI auch so?
Viele Grüße Jochen
Alle Video outputs der fs700 sind 4:2:2 8bit.
Die einzige Möglichkeit für eine bessere Aufzeichnung ist der RAW Modus über den sdi anschluss und da brauch man den r5 von sony mit adapter oder den odyssey7q.
Ein FPGA wird getauscht bim Slog Upgrade - was da genau passiert weiß ich nicht. Im Grunde Funktioniert das Ganze so, dass das 4K RAW Signal vor dem SDI Port komprimiert wird und dann im Falle des Odyssey 7Q wieder dekomprimiert wird - Convergent Design ist es bis dato nur erlaubt den Bitstream unkomprimiert aufzunehmen - hoffentlich ändert sich das aber in naher Zukunft und wir können in compressed RAW aufnehmen...
Wenn die Kamera überhaupt noch uncompressed RAW führt denn mit zunehmenden Auflösungen gehen die Hersteller mehr vom bisherigen Weg (auch des De-Mosaickings) ab, weil das RGB Verfahren ineffizient ist und redundante Werte in die Matrix einstellt, die hinterher wieder entfernt werden, aber zwischendurch noch für Mischfrequenzen gesorgt haben (Aliasing).
Die veränderten Methoden weisen weniger Rechenschritte und vor allem weniger Multiplikationen auf.
Allerdings wird ein Grossteil der Bearbeitung in der Kamera liegen bleiben, weil solche Methoden bereits in der RAW Übertragung angewandt werden, in der man lediglich die erforderlichen Pixelwerte per DCT komprimiert und zur Speicherung gibt, um sie extern weiter zu verarbeiten.
Eine andere Methode besteht darin, zunächst die Kompression und erst anschließend das De-Mosaicking durchzuführen.
Zur Weiterverarbeitung müssen dann aber die Pixel hinter dem CFA entsprechend den Arrays den jeweiligen Matrizen zugeordnet werden.
Kurzer Sinn:
Wir werden uns auch bei RAW mit zunehmenden Auflösungen auf eine komplexere Verarbeitung einstellen müssen, nicht nur im Hinblick auf die Datenmenge, die könnte sogar nur relativ gering ansteigen, aber im Hinblick auf die Verarbeitungstiefe.
Mit 4K wird sich einiges ändern.
Ich freu mich auf mehr Dynamikumfang, kann aber gut ohne 6K, 8K und uncompressed RAW leben. Compressed RAW oder ProRes in 10 bis 12 bit ist sicher effektiver.
Ich glaub aber nicht, dass sich dann so viel an der Verarbeitung ändern wird - der RED Workflow ist bereits etabliert, Redcode lässt sich mittlerweile in jedem NLE schneiden, als wärs ProRes. Das gleiche gilt für XAVC. CinemaDNG ist da halt nach wie vor noch ein bisschen ein Sorgenkind - vorallem beim Odyssey - frisst HDD's zum Frühstück! Sobald es dafür aber eine vernünftige NLE-seitige Unterstützung gibt, und man nicht mehr jeden Clip vorher in Resolve von cdng in ProRes transcoden muss, seh ich da kein Problem mehr. (vorrausgesetzt die Rechenleistung stimmt)
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.