Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Infoseite // Frage zu Raw in Verbindung mit Profilen



Frage von klusterdegenerierung:


Mal eine Frage an die Raw Profis.
Wenn ich Raw über SDI an meiner FS700 ausgebe und mir am Shogun ansehe, müßte es doch eigentlich egal sein welches interne Cam Profil ich wähle,
weil ja der Raw Stream eh nackt ist und keine beinflussungen enthält, ist doch soweit richtig oder?

Warum aber ändert sich das Bild wenn ich die Profile an der Cam durch switche?
Die Cam läuft ja bei Raw auf 2000Iso, ist es deswegen da die Profile unterschiedliche BaseIsos haben,
oder bessergesagt durch die Unterschiedlichen Gammas die in den Profilen verwendet werden?

Aber eigentlich müßte das doch trotzdem alles egal sein oder?
Kann ein Raw also doch beinflußt werden?
Sind meine Denkansätze einfach völlig falsch?

Space


Antwort von Starshine Pictures:

Vielleicht ist es ja gar kein echtes RAW sondern nur ein riesiges LOG File? Das betet ja WoWu unermüdlich herunter. Nur sehr wenige Kamerahersteller geben tatsächliche RAW Files ab, also die reinen Sensordaten. Die meisten Kamera-RAWs sind daher nur Marketingblabla.

Space


Antwort von promo89:

Vielleicht ist es ja gar kein echtes RAW sondern nur ein riesiges LOG File? Das betet ja WoWu unermüdlich herunter. Nur sehr wenige Kamerahersteller geben tatsächliche RAW Files ab, also die reinen Sensordaten. Die meisten Kamera-RAWs sind daher nur Marketingblabla. Auf welche Information bei dem Kamerahersteller müsste ich somit achten, wenn ich "echtes" RAW haben möchte?

Space


Antwort von r.p.television:

Das Raw aus der FS700 ist wirklich nur über den Sony-eigenen R5-Rekorder echtes Raw.
Das Cinema DNG via Odyssey oder Shogun ist nicht unproblematisch da hier oft Sachen "eingedampft" werden die nicht mehr reversibel sind. Viele klagen über hohes Rauschen etc. Alles Probleme die ich mit der Sony-Lösung nicht habe. Das Marketing der Firmen verkauft das als Raw, aber nach meiner Meinung hat das mit dem echten Raw wenig gemein ausser die hohen Auflösung und grundsätzlich der Quantisierung.

Space


Antwort von dienstag_01:

Man kann davon ausgehen:
Man bekommt niemals ECHTES Raw.
Die Postproduktion (Debayering etc.) basiert nicht auf Spezifikationen der Hersteller, sondern auf Näherungen der Softwareanbieter. Wowu schreibt, die Hersteller (Camera) *würden sonst zuviel von ihren Geheimnissen preisgeben müssen*.
Ist auch bei Fotos so.

Space


Antwort von promo89:

Man kann davon ausgehen:
Man bekommt niemals ECHTES Raw.
Die Postproduktion (Debayering etc.) basiert nicht auf Spezifikationen der Hersteller, sondern auf Näherungen der Softwareanbieter. Wowu schreibt, die Hersteller (Camera) *würden sonst zuviel von ihren Geheimnissen preisgeben müssen*.
Ist auch bei Fotos so. Mit dem RAW von den Redfiles bin ich bis heute sehr zufrieden. Würdet ihr also sagen, dass es selbst bei RAW Formaten Unterschiede gibt?
Die Definition von RAW ist für mich das nicht speichern von Bildinformationen (Farbinformationen). Klärt mich auf insofern ich damit falsch liege.

Space


Antwort von klusterdegenerierung:

Das Raw aus der FS700 ist wirklich nur über den Sony-eigenen R5-Rekorder echtes Raw.
Das Cinema DNG via Odyssey oder Shogun ist nicht unproblematisch da hier oft Sachen "eingedampft" werden die nicht mehr reversibel sind. Viele klagen über hohes Rauschen etc. Alles Probleme die ich mit der Sony-Lösung nicht habe. Das Marketing der Firmen verkauft das als Raw, aber nach meiner Meinung hat das mit dem echten Raw wenig gemein ausser die hohen Auflösung und grundsätzlich der Quantisierung.
Hast Du nicht die Möglichkeit mal einen Test zwischen Deinem Sony Recorder Raw und dem Odysee Raw zu erstellen?
Oder mit bestimmten Werten und Wurzelkaries filmt dies dann mit seinem Odyssee genauso,
denn mein Shogun hat ja leider noch kein CDNG update und kann momentan nur Raw to ProRes?

Space


Antwort von WoWu:

Man kann davon ausgehen:
Man bekommt niemals ECHTES Raw.
Die Postproduktion (Debayering etc.) basiert nicht auf Spezifikationen der Hersteller, sondern auf Näherungen der Softwareanbieter. Wowu schreibt, die Hersteller (Camera) *würden sonst zuviel von ihren Geheimnissen preisgeben müssen*.
Ist auch bei Fotos so. Mit dem RAW von den Redfiles bin ich bis heute sehr zufrieden. Würdet ihr also sagen, dass es selbst bei RAW Formaten Unterschiede gibt?
Die Definition von RAW ist für mich das nicht speichern von Bildinformationen (Farbinformationen). Klärt mich auf insofern ich damit falsch liege. Ich hab es zwar schon ein paarmal geschrieben, aber RAW kann jeder Kamerahersteller für sein Format benutzen, weil es keine Normierung dafür gibt.
Am Sensor werden vom Hersteller IMMER einige Grundeinstellungen vorgenommen, um mit dem Bild überhaupt hinterher was anfangen zu können. Danach würde dieses RAW Signal eigentlich herausgeführt werden und enthält pro Pixel nur einen einzigen Luminanzwert.
Das wäre RAW im klassischen Sinn, also wirklich RAW. Weil es nur ein Wert pro Pixel hat, ist das Datenaufkommen auch nur ein Drittel von dem, was ein Videosignal braucht, das pro Pixel 2 zusätzliche Werte für die Farbe hat.
Man kann also, um die Bandbreite bei RAW nutzen zu können, eine höhere Auflösung (z.B. 14 Bit) übertragen, was im Fall von 3 Werten aufgrund der Übertragungsbandbreite nicht möglich wäre.
Würde man ein RAW Signal sichtbar machen, käme ein Bild mit mosaikartig unterschiedlichen s/w Helligkeiten dabei heraus.
Im Prozess der Kamera (bei nicht RAW) käme nun das De-Bayering, in dem pro Luminanzwert noch zwei Werte pro Pixel für die Farbe errechnet werden und zugleich Gewichtungen stattfinden, die sich aus unterschiedlichen Parametern in der Filterung ergeben und auf Eigenschaften des Sensors.
Solche Angaben geben Hersteller nicht gern heraus, weil man diverse Rückschlüsse auf die Entwicklung treffen könnte.
Daher führen viele Hersteller solche Signalprozesse selbst durch, erzeugen dadurch aber ein Videosignal, das dem ähnlich ist, was andere als LOG Übertragung bezeichnen.
Im Grunde genommen ist es nämlich nichts Anderes, ob man nun mehr oder weniger komprimiert oder die Signalverteilung in der Übertragung mehr oder weniger flach macht.
Es ist kein RAW Signal mehr, sondern ein bearbeitetes Videosignal, das, monitort man es, mehr oder weniger gut ansehbar ist.
Es ist auch egal, ob man es anschließend in einen proprietären Container verpackt, in einen CineDNG Container oder sonstwie. An dem Signal ändert man nichts. CineDNG Container haben nur zusätzlich die Möglichkeit, zu den darin erzeugten JPEGs auch das Original RAW Signal zu transportieren, so es denn der Hersteller herausgibt, einschließlich der dazugehörigen Metadaten.
Wer also ein RAW Signal, egal wie flach es aussieht, sehen kann, kann sich sicher sein, es nicht mit den Sensordaten im Originalzustand zu tun zu haben.

Space


Antwort von r.p.television:

Wer also ein RAW Signal, egal wie flach es aussieht, sehen kann, kann sich sicher sein, es nicht mit den Sensordaten im Originalzustand zu tun zu haben. Also das Sony Raw lässt sich nicht direkt monitoren. Es ist kein videokomformes Signal.
Nur die Odyssey Rekorder wandeln da irgendwas nach Cinema DNG um ein verwertbares Signal zu haben, weil Sony nichts anderes erlaubt.
Der R5 Rekorder schreibt das Signal so wie es aus dem 3G-SDI kommt weg.
Kann das NLE den speziellen, propietären Code nicht ist es ein wertloser Brei aus einsen und nullen, aber kein Bild. Einige Zeit brauchte man deshalb dafür ein Sony-Raw-Plugin, aber seit CC 2014 kann Premiere das direkt importieren weil Sony sehr dahinter ist dass diverse Codecs dort direkt laufen.

Space



Space


Antwort von WoWu:

Wenn dann Sony noch die Metadaten an Premiere übergibt, die die richtige Gewichtung im De-Bayering zulässt, wäre das der perfekte Weg, weil ADOBE im CDNG, wenn es keine Metadaten gibt, eine Schätzung nach eigenen Farbmodellen vornimmt, was eigentlich nicht Sinn der RAW Daten ist, aber wenn sie das mit übergeben, ist das der richtige Weg.
Wenn Premiere dann noch den Zugriff auf das De-Bayering zulässt ... perfekt.

Space


Antwort von klusterdegenerierung:

Das heißt also, das ich momentan mit meiner Raw to ProRes Geschichte nur eine SLog Variante habe, bei der ich aber im Gegensatz zu intern, eben 10Bit und 422 bekomme?

Klar und 4K, was sie ja intern nicht kann!
Ist wie lauwarm duschen, oder?
Ändert sich denn dann mit dem CDNG update eurer Meinung nach was wesentliches, oder ist das dann trotzdem nur makulatur?

So ganz glaube ich das allerdings nicht, denn sonst bräuchte Atomos ja nicht so lange daran rumstricken, weil es ja dann nur ein weiter beliebiger Container wäre, oder?

Space


Antwort von r.p.television:

Wenn dann Sony noch die Metadaten an Premiere übergibt, die die richtige Gewichtung im De-Bayering zulässt, wäre das der perfekte Weg, weil ADOBE im CDNG, wenn es keine Metadaten gibt, eine Schätzung nach eigenen Farbmodellen vornimmt, was eigentlich nicht Sinn der RAW Daten ist, aber wenn sie das mit übergeben, ist das der richtige Weg.
Wenn Premiere dann noch den Zugriff auf das De-Bayering zulässt ... perfekt.
Mir erscheint die Implementierung in Premiere auch sehr gut. Auch wenn Premiere logischerweise nicht das perfekte Colorgrading-Tool ist, aber seit man im Lumetri-Panel jedes LUT direkt editieren und angleichen kann empfinde ich das Arbeiten direkt mit Raws innerhalb des NLE als sehr stimmig und vorallem..... SCHNELL.
Ich habe nie die Probleme gehabt wie User mit Cinema DNGs aus den Odyssey-Rekordern. Da gab es ja die Probleme mit Falschfarben und ich glaube bis heute einem griesligen Bild in den Tiefen.

Space


Antwort von r.p.television:



So ganz glaube ich das allerdings nicht, denn sonst bräuchte Atomos ja nicht so lange daran rumstricken, weil es ja dann nur ein weiter beliebiger Container wäre, oder? Naja, immerhin muss nun statt der 10bit-Quantisierung sinnvoll eine 12bit-Quantisierung erfasst und weggeschrieben werden. Und all das aus einem geschützten und proprietären Datenstrom eines Herstellers, der damit nur bedingt etwas zulässt. Ich stelle mir das nicht leicht vor, zumal wir hier doch von einem erheblichen Rechenaufwand reden.
Wenn ich bedenke wie heiss mein R5-Rekorder wird der an sich nicht viel wandelt sondern nur wegschreibt dann kann ich mir vorstellen was ein Hardware-Encoding da leisten muss.

Space


Antwort von klusterdegenerierung:

Ah ok, soweit kenne ich mich da leider nicht aus. ;-)

Space


Antwort von srone:

ideal wäre doch wohl eine lösung, sony (bzw alle entsprechenden "raw" hersteller) lieferten zur cam ein echzeitfähiges gpu plugin für die gängsten schnittsysteme mit, dann müssten sie ihr knowhow nicht ganz aufgeben, als kunde hätten man dann allerdings die möglichkeit rechenleistung vs zeit nach eigenem gusto bzw möglichkeiten zu entscheiden.

lg

srone

Space


Antwort von WoWu:

Es kommt immer darauf an, was für ein RAW Signal denn nun wirklich aus der Kamer heraus kommt, also wie weit es denn schon bearbeitet ist.
CDNG macht ein 12Bit JPEG daraus.
Nun muss man vergleichen, welchen Vorteil das hat im Hinblick auf das Originalsignal -da muss man eben feststellen, was da aus der Kamera genau für ein Format rauskommt.-
Dann kann man weiter sehen.

Space


Antwort von r.p.television:

Bezüglich Metadaten:

Innerhalb von Premiere wird auch genau erfasst bzw direkt dargestellt was die Kamera für Einstellungen hatte.
Also Gain, WB. Also die Default-Bildwiedergabe ist ähnlich wie das was ich während des Filmens als WYSIWYG auf dem Display hatte. Aber eben nur als Default und nicht eingedampft.

Space


Antwort von WoWu:

Na ja, mit den Metadaten hatte ich eigentlich die Sensorspezifischen Daten gemeint, wie beispielsweise die Überlappung der Farben im Bayerfilter und die Farbbewertumgen, denn Die RGB Filter sind ja nicht bei jeder Firma identisch und ansonsten noch die Dinge, die zur Korrektur des nachlaufenden Signals gehören usw, speziell auch Dinge, die zur korrekten Farbraumbearbeitung zählen, denn genau darin liegt ja auch der Vprteil von RAW, dass es farbraumneutral ist .... im Gegensatz zu jedem Videosignal.
Aber ich traue Sony das zu, dass sie das zielorientiert übergeben, denn dem Kamerahersteller ist nicht daran gelegen, dass sein Signal falsch bearbeitet wird.

Space



Space


Antwort von WoWu:

ideal wäre doch wohl eine lösung, sony (bzw alle entsprechenden "raw" hersteller) lieferten zur cam ein echzeitfähiges gpu plugin für die gängsten schnittsysteme mit, dann müssten sie ihr knowhow nicht ganz aufgeben, als kunde hätten man dann allerdings die möglichkeit rechenleistung vs zeit nach eigenem gusto bzw möglichkeiten zu entscheiden.

lg

srone Im Grunde liegt so eine ähnliche Idee ja ACES zugrunde, dadurch, dass Signal kamerainternen in einen überdimensionierten Farbraum und quasi 16Bit gebracht wird, aus dem sich dann der Anwender bedient.
Damit sind dann die Engpässe beseitigt und der Hersteller behält seine Konstruktionsdetails.

Space


Antwort von r.p.television:

Na ja, mit den Metadaten hatte ich eigentlich die Sensorspezifischen Daten gemeint, wie beispielsweise die Überlappung der Farben im Bayerfilter und die Farbbewertumgen, denn Die RGB Filter sind ja nicht bei jeder Firma identisch und ansonsten noch die Dinge, die zur Korrektur des nachlaufenden Signals gehören usw, speziell auch Dinge, die zur korrekten Farbraumbearbeitung zählen, denn genau darin liegt ja auch der Vprteil von RAW, dass es farbraumneutral ist .... im Gegensatz zu jedem Videosignal.
Aber ich traue Sony das zu, dass sie das zielorientiert übergeben, denn dem Kamerahersteller ist nicht daran gelegen, dass sein Signal falsch bearbeitet wird. Das ist mit Sicherheit so von Sony angelegt. Ich könnte mir auch gar nicht vorstellen wie das bei einem so proprietären Datenstrom sonst funktionieren sollte. Als ich den R5-Rekorder gekauft habe konnte noch nicht mal Davinici Resolve etwas damit anfangen sondern man konnte ausschließlich über den Raw Viewer von Sony Dateien umwandeln lassen. Sehr kurze Zeit später gab es dann von Sony das Plug-In für den Import in Premiere und das hat auch sofort fehlerfrei funktioniert. Ich denke das Plug-in ist mittlerweile einfach in Premiere implementiert, quasi als kostenloses Geschenk von Sony an Adobe.

Space


Antwort von klusterdegenerierung:

Weiß nicht ob dieser Aspekt immer so hoch gehalten werden muß, denn was soll letztendlich die Kamerawelt ohne Schnittprogramm?
Da finde ich es nur normal das Sony auch mal dafür sorgt, das man mit deren Daten arbeiten kann, sonst braucht sie dann auch keiner mehr! ;-)

Space


Antwort von WoWu:

Ich halte es für ganz wichtig, dass Firmen auch nach dem Verkauf für die Verwendbarkeit ihrer Produkte sorgen.
Das war nicht immer so, auch gerade bei Sony, die seit BETA SP Zeiten immer versucht haben, durch proprietäre Elemente in ihren Produkten auch andere Teile Ihres Portfolios (zwangsweise) an den Mann zu bringen.
SElbst mit Beta Digital haben sie noch versucht, MPEG so proprietäre zu halten. Das hat sich dann mit den passenden Normierungen erledigt.
Heute gehen sie offenbar lieber den Weg über die Kunden zugewandte Seite.
Ich hoffe auch, dass das X vor ihrem AVC Codec einer der letzten Versuche in die proprietäre Richtung ist, nachdem sie nun mitbekommen, dass Anwender die zusätzlich eingebrachten Daten einfach nur abstreifen und ihr Signal dann so aussieht, wie alle andern, die das Format benutzen.
Proprietäre Formate sind einfach großer Mist ... und wer darauf setzt, sieht irgendwann mal, was er davon hat.
Firmen ändern ziemlich schnell ihre Meinungen, wenn es darum geht, Geld zu verdienen und es umständlich wird, Formate aufrecht zu erhalten.
Bei Standards ist das nicht möglich. Die ändern sich nicht.
Deswegen ist es gar nicht hoch genug einzuschätzen, wenn Firmen ihre Formate breit unterstützen. Es wird daraus zwar noch kein Standard, aber die Investitionen sind zumindest eine zeitlang abgesichert.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony FS7 / FS5 / FX3 / FX6 / FX9 uä. und Venice-Forum

Antworten zu ähnlichen Fragen //


iPhone-Kamera-App Pearla 2.2 prahlt mit zahlreichen Log-Profilen
Wer hat Erfahrungen mit Helmlampen und Taschenlampen in Verbindung mit Filmproduktion?
Verbindung zum Monitor
Lumix G9 - Verbindung über WLAN UND zeitgleich USB-Fernsteuerung möglich?
HC-X1500 Wlan Verbindung zur App?
Nikon Z8 Verbindung zu DJI RS4
Frage zu defekten Raw Dateien
Ist Video RAW mit Foto RAW vergleichbar?
14 Bit 4K RAW auf dem Xiaomi 14 Ultra vs. 8K RAW mit der CANON R5
TICO-RAW - Endlich ein RAW für alle?
RAW DSLR DSLM oder kompakte Raw Kamera für Resolve
Auch hinter Nikons neuem Video RAW Codec verbirgt sich TICO RAW
Raw nicht gleich Raw?
RAW vs RAW Verbessert
Canon stellt EOS C70 RAW Firmware Update 1.0.3.1 (inkl. 4K 60p Raw) zum freien Download zur Verfügung
Panasonic G9II erhält Blackmagic RAW und ProRes RAW Aufnahme via HDMI
Frage zum Gradierung, HDR etc mit Premiere Pro
Gimbal Frage Ronin SC




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash