Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Neues Apple ProRes RAW Format angekündigt // NAB 2018



Newsmeldung von slashCAM:



Mit der Ankündigung von Final Cut Pro 10.4.1 für nächsten Montag hat Apple auch ProRes RAW angekündigt.

ProRes RAW soll die Qualitäts- und Workflow-Vorteile von RAW m...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neues Apple ProRes RAW Format angekündigt // NAB 2018


Space


Antwort von ZacFilm:

Das heißt 12 Bit?

Space


Antwort von WoWu:

Das heißt, dass sich erst mal Kamerahersteller finden müssen, die das unterstützen und das wird sicher etwas mit den Lizenzbedingungen, Preisen und Kompatibilitäten auch zu ändern Schnittprogrammen zu tun haben.
Dann wird sich vermutlich auch die Frage stellen, wo die vermeintlichen Vorteile zu eigenen Kamers-RAW Formaten liegen.
Nicht umsonst hat sich DNG nicht durchgesetzt.

Space


Antwort von -paleface-:

Vermutlich wird es da auf der NAB was geben. Sowas klärt man ja meist vorher.

Würde lachen wenn es BMD wäre :-D

Space


Antwort von Jott:

Atomos und DJI sind schon mal im Boot. BM - traditionell Apple-affin - könnte auch ein Kandidat sein. Who knows. Ein paar Tage noch warten ...

Space


Antwort von freezer:

Das kommt jetzt doch ziemlich überraschend.
Apple hätte zumindest die Möglichkeit und den Willen so etwas als Standard am Markt unterzubringen.

Space


Antwort von mash_gh4:

WoWu hat geschrieben:
Das heißt, dass sich erst mal Kamerahersteller finden müssen, die das unterstützen und das wird sicher etwas mit den Lizenzbedingungen, Preisen und Kompatibilitäten auch zu ändern Schnittprogrammen zu tun haben.
naja, wenn man sich anschut welche gravierenden probleme es gibt, wenn prores od. dbxhr als intermediate fomat in ACES od. anderen auf linearen farbräumen basierenden systemen mit sich bringen, macht es ganz gewiss sinn, dass in diese richtung verbesserungsvorschläge gemacht werden. dass das im falle von apple nicht sonderlich offen ausfällt und den den relativ breit gesetreuten anwendungswünschen nur bedingt entgegenkommt, überrascht aber leider nicht wirklich. vermutlich zielt es also eher wieder nur darauf ab, mit einem weiteren inkompatiblen zuckerl ihre eigenen systeme gegenüber konkurrierenden produkten weiter abzuschotten.
WoWu hat geschrieben:
Nicht umsonst hat sich DNG nicht durchgesetzt.
das würde ich nicht so sehen. in seinem ausgesprochen eng abgestckten feld ist es durchaus als einigermaßen offener standard allgemein akkzeptiert und vernünftig verwendbar.

Space


Antwort von Axel:

Es hieß, ProRes Raw könne ohne weiteres von FCP 10.4.1 (ab Montag also) importiert werden. Toll. Und dann?

Denn ein eigenes "Camera Raw" Tool hat FCP nicht im "neuen" (4 Monate alten) Color-Tab. Wäre nur konsequent, wenn das auch käme.

Ich weiß, dass ich hierfür Prügel kriege, ich sage es dennoch. Die Einzeltools für Farbkorrektur sind echt nicht schlecht, ein paar kleinere Bugs werden ab Montag sicher verschwunden sein. Aber ich persönlich finde, dass ein wirklich umfassendes Grading bei, sagen wir, *bloß* 100 Clips in der Timeline (ich erwähne das, weil die Notwendigkeit, Clips miteinander zu vergleichen, in dieser Version gar nicht berücksichtigt ist! Und ich kenne auch die Tricks: 1. gegradeter Browser-Clip als Referenz mit Viewer und Canvas. 2. Toggeln von "S", sodass das angezeigte Bild zwischen Playhead und Skimmer zum Vergleich wechselt. 3. Verbinden eines Referenz-Standbildes mit Sichern des "Grades" als Effekt-Voreinstellung.) soviel redundantes Geklicke, Getippe und Geschiebe bedeutet, dass es m.E. Apples Anspruch, Benutzerfreundlichkeit an erste Stelle zu setzen, nicht würdig ist. Und ich benutze schon ctrl+tab und ctrl+shift+tab, um zwischen Effekt- und Farbpalette zu switchen.

Wer ernsthaft das Beste aus diesem ProRes Raw herausholen will, wird vor allem darauf hoffen, dass Resolve schnell mit an Bord ist.

Space


Antwort von Paralkar:

Blackmagic ist ja auch normalerweise schnell bei sowas, bin mal gespannt,

Was is das Wavelet wie bei Red???

Hört sich gut an, mich hats schon immer genervt ProRes über 2k laufen zu lassen, weil unnötig hohe Datenmengen zu Stande kommen im Vergleich zu Cinema DNG (4:1)

Außerdem wäre compressed Raw für die Alexas geil, hoffentlich zieht Arri mit und das ganze geht hardwaretechnisch überhaupt.

Space



Space


Antwort von Axel:

Axel hat geschrieben:
Es hieß, ProRes Raw könne ohne weiteres von FCP 10.4.1 (ab Montag also) importiert werden. Toll. Und dann?

Denn ein eigenes "Camera Raw" Tool hat FCP nicht im "neuen" (4 Monate alten) Color-Tab. Wäre nur konsequent, wenn das auch käme.
Okay, im Whitepaper zu ProRes Raw steht's. Es gibt drei Möglichkeiten. Erstens die neue Clip-Eigenschaft im Inspektor: Raw zu Log-Konversion. Zweitens die LUT, entweder als Clip-Eigenschaft oder als Effekt Benutzer-LUT. Drittens das Graden ohne Seil und doppelten Boden.

Space


Antwort von Jott:

Paralkar hat geschrieben:
Was is das Wavelet wie bei Red???
Nö. Solche Fragen und mehr beantwortet das aufschlussreiche White Paper:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Space


Antwort von Frank Glencairn:

Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die Kompression gefunden.

Space


Antwort von CameraRick:

Ich frage mich ja, ob es sich ggf sogar so verhält wie Cineform RAW. Also, mit der "active Metadata"; reine Spekulation aufgrund des Namens.
Vom Whitepaper ausgehend scheint das erstmal nicht so.

Apple täte gut daran, dass nicht nur auf seine eigenen Applikationen laufen zu lassen; ich fand es zugegeben recht erstaunlich dass sie jetzt mit so einem Ding um die Ecke kommen, solang Du das Zeug aber nicht in einen Resolve oder baselight bekommst sehe ich da nicht so die große Zukunft in der Akzeptanz. Da ja FCPx anscheinend nur eine RAW zu Log conversion anbietet ist das Ganze ja schon in sich recht limitiert, wenn man mal in eine andere Anwendung will, wenn einem Motion oder so zB mal nicht zu sagt. Ich habe natürlich auch nur ein sehr eingeschränktes Sichtfeld, indem niemand FCPx oder Motion benutzt, kann den Markt da schlecht einschätzen :/

Space


Antwort von Abercrombie:

Ob man wohl komfortabel CinemaDNGs in ProRes RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?

Space


Antwort von Axel:

Abercrombie hat geschrieben:
Ob man wohl komfortabel CinemaDNGs in ProRes RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?
Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.

Space


Antwort von nic:

Axel hat geschrieben:
Abercrombie hat geschrieben:
Ob man wohl komfortabel CinemaDNGs in ProRes RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?
Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.
Theoretisch geht das schon. Nur wird Apple wohl kein entsprechendes Programm anbieten...

Space


Antwort von Jott:

"Frank Glencairn" hat geschrieben:
Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die Kompression gefunden.
Ich schon, gleich im Intro:

„Apple ProRes RAW is based on the same principles and underlying technology as existing ProRes codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels.“

Steilvorlage für wowu („30 Jahre altes DCI“)! :-)

Space


Antwort von nic:

Jott hat geschrieben:
"Frank Glencairn" hat geschrieben:
Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die Kompression gefunden.
Ich schon, gleich im Intro:

„Apple ProRes RAW is based on the same principles and underlying technology as existing ProRes codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels.“

Steilvorlage für wowu („30 Jahre altes DCI“)! :-)
Wavelet statt DCT wäre schon sinnvoll gewesen...

Space



Space


Antwort von CameraRick:

7nic hat geschrieben:
Wavelet statt DCT wäre schon sinnvoll gewesen...
Aber dann müsste man ja was neues entwickeln... :)

Cineform RAW hat den Ansatz ja, leider ist der nicht komplett lizenzfrei für die Implementierung in Hardware und erfreut sich offenbar keiner großer Beliebtheit. Eine Schande, eigentlich finde ich das Format ganz gut.

Space


Antwort von mash_gh4:

7nic hat geschrieben:
Axel hat geschrieben:
Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.
Theoretisch geht das schon. Nur wird Apple wohl kein entsprechendes Programm anbieten...
dieser schritt ist normalerweise der erste, den man unternimmt, wenn man die unterstützung für ein neues raw format in freier software umsetzt, da die entsprechenden raw converter von adobe wirklich immer fast alles vernünftig unterstützen. in wahrheit sind raw formate aber verhältnismäßig einfach aufgebaut und sehr schnell nachzubilden.

Space


Antwort von Frank Glencairn:

Jott hat geschrieben:
[
Ich schon, gleich im Intro:

„Apple ProRes RAW is based on the same principles and underlying technology as existing ProRes codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels.“

"the same principles and underlying technology as existing ProRes" noch schwammiger gings nicht mehr?
Von einem "White Paper" erwarte ich normal schon etwas mehr Substanz, als von einer Pressemeldung.

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
Jott hat geschrieben:
[
Ich schon, gleich im Intro:
„Apple ProRes RAW is based on the same principles and underlying technology as existing ProRes codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels.“
"the same principles and underlying technology as existing ProRes" noch schwammiger gings nicht mehr?
Von einem "White Paper" erwarte ich normal schon etwas mehr Substanz, als von einer Pressemeldung.
naja -- während die tatsächlichen technischen dokus von apple meist ganz brauchbar sind, schauen whitepapers eben immer ungefähr so aus. das ist aber bei avid und seinen veröffentlichungen zu dnxhr um kein bischen besser...

inhaltlich ist die sache aber ohnehin klar.
raw-aufufzeichnungsformate haben grundsätzlich mehr ahnlichkeit mit einer s/w aufzeichnung bzw. enthalten nur einen kanal. dafür gibt's ein paar zusätzliche metadaten angaben, die festlegen, wie die farbige anordnung der sensel zu interpretieren ist, und ein paar faktoren betreffend weißabgleich und aussteuerung der einzelnen farben. der größte unterschied zu den klassischen videoufzeichnungsformaten besteht aber in der verteilung der aufgezeichneten werte. die kameras bzw. raw daten liegen ja normalerweise annähernd in linearer darstellung vor, was man normalerweise aber besser in log od. div. fließkomma darstellungen abspeichert, um eine gleichmäßigere verteilung bzw. bessere komprimierbarkeit zu erreichen. wenn man diese anpassung nicht richtig vornimmt od. beachtet -- also bspw. ProRes od. DNxHR im resolve als cache-format für ACES projekte einstellt od.ä. -- hat das fatale auswirkungen auf die resultierende qualität.

Space


Antwort von Paralkar:

Welche sind diese? Also meinst du Timeline Color Space oder was genau?

Im Endeffekt muss er doch nur Linear in Rec 709 für die Cache Files umrechnen.

Space


Antwort von WoWu:

Ich würde erst mal abwarten, was der Codec überhaupt transportiert denn wenn er nicht in der Kamera sitzt und das eigentliche Luminanzsognal des Sensors führt, sondern die de-mosaicten Prozesswerte, ist es nicht anderes, als ein neues Etikett, das alten Verfahren aufgedrückt wurde.
Also, erst mal abwarten, was da kommt.

Space


Antwort von Paralkar:

Nein im White Paper steht schon undebayerte Raw Daten. Die Frage is wie sie die Komprimierung hinkriegen, ich schätze ganz stark Wavelet (steht nix drin), bei den Datenraten.

Ich denke Apple wird sich schon bei den Kameraherstellern erkundigt haben, obs Interesse gibt.

Hoffe das ganze kommt in die Alexas. Wäre doch mal schön komprimiertes Raw zu haben und Alternativ Arri Raw

Space


Antwort von Jott:

Man könnte das Whitepaper lesen:

"ProRes RAW directly encodes the Bayer pattern image. Demosaicing and processing are deferred to the time of playback and are performed by application software."

ProRes Raw wird also - bis jetzt nur von DJI - direkt in der Kamera komprimiert (so wie Red das schon immer macht), oder ein externer Recorder (Atomos) komprimiert das, was aus dem Raw-Ausgang einer Kamera rauskommt. Atomos leistet dazu diverse gängige Modelle wie FS700 oder FS5, mit denen das klappt.

In beiden Fällen also nicht de-bayertes Raw. Das De-Bayering macht fcp x dann live bei der Wiedergabe, und gleich für mehrere Streams. Oder kann man das anderes lesen/interpretieren/verstehen?

Wavelet? Nö, Apple schreibt im Whitepaper von gleicher technischer Basis wie ProRes. Ebenso auf bestmögliche Performance hin entwickelt.

Space


Antwort von nic:

Paralkar hat geschrieben:
Nein im White Paper steht schon undebayerte Raw Daten. Die Frage is wie sie die Komprimierung hinkriegen, ich schätze ganz stark Wavelet (steht nix drin), bei den Datenraten.

Ich denke Apple wird sich schon bei den Kameraherstellern erkundigt haben, obs Interesse gibt.

Hoffe das ganze kommt in die Alexas. Wäre doch mal schön komprimiertes Raw zu haben und Alternativ Arri Raw
DCT.

Space



Space


Antwort von cantsin:

Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProRes RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProRes RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.

Space


Antwort von Jott:

Da würde ich nicht gegenhalten wollen! :-)

Space


Antwort von Alf_300:

@Cantsin

Du mußt viel Gekd haben

Von mir 10 Euro dagegen.

Space


Antwort von WoWu:

cantsin hat geschrieben:
Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProRes RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProRes RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.
Das kann ich mir auch gut vorstellen ... nur eine Schwalbe macht natürlich noch keinen Sommer ... und die Frage bleibt eben, was steckt drin, in dem „RAW“.

Space


Antwort von Frank Glencairn:

Jott hat geschrieben:


In beiden Fällen also nicht de-bayertes Raw. Das De-Bayering macht fcp x dann live bei der Wiedergabe, und gleich für mehrere Streams. Oder kann man das anderes lesen/interpretieren/verstehen?
Ja, so schaut's aus.

Space


Antwort von wolfgang:

cantsin hat geschrieben:
Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProRes RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProRes RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.
Na ich hoffe stark dass Resolve 15 das kann. Denn ich will ja 5.7K ProRes Raw aus meinem Shogun Inferno verarbeiten können, und bisher wird lediglich gesagt dass dies nur FCP X können wird. Und damit wären Windows Anwender außen vor.

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Na ich hoffe stark dass Resolve 15 das kann. Denn ich will ja 5.7K ProRes Raw aus meinem Shogun Inferno verarbeiten können, und bisher wird lediglich gesagt dass dies nur FCP X können wird. Und damit wären Windows Anwender außen vor.
Als Canon sein proprietäres Canon RAW-Format mit der C200 brachte, unterstützte Resolve es eine Woche später per Softwareupdate. Würde mich wundern, wenn es hier anders laufen würde.

Space


Antwort von DV_Chris:

Nachdem erstmal nur wenige Kamerabesitzer mit Shogun Inferno bzw Sumo das Format aufzeichnen werden können, könnte es durchaus sein, dass die Implementierung in anderen NLE nicht höchste Priorität hat.

Space


Antwort von Jott:

Keine Panik.

Space



Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Nachdem erstmal nur wenige Kamerabesitzer mit Shogun Inferno bzw Sumo das Format aufzeichnen werden können, könnte es durchaus sein, dass die Implementierung in anderen NLE nicht höchste Priorität hat.
Na so wenige Kameras sind es nicht wo das mit Montag funktionieren wird. Inzwischen werden von Inferno ja etliche Kameras mit Raw Ausgabe unterstützt.

Space


Antwort von Funless:

Ich spekuliere: April 2018 wird als „der Beginn von RAW Video für jedermann“ in die Geschichte eingehen.

Space


Antwort von nic:

Funless hat geschrieben:
Ich spekuliere: April 2018 wird als „der Beginn von RAW Video für jedermann“ in die Geschichte eingehen.
War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...

Space


Antwort von cantsin:

7nic hat geschrieben:
Funless hat geschrieben:
Ich spekuliere: April 2018 wird als „der Beginn von RAW Video für jedermann“ in die Geschichte eingehen.
War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...
Hardware-seitig ja. Software-seitig ist doch die Unterstützung von RAW in allen Mainstream-NLEs erstaunlich dürftig und lückenhaft geblieben.

Space


Antwort von Frank Glencairn:

Also ich hätte das PrawRes genannt :-)

Space


Antwort von nic:

cantsin hat geschrieben:
7nic hat geschrieben:


War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...
Hardware-seitig ja. Software-seitig ist doch die Unterstützung von RAW in allen Mainstream-NLEs erstaunlich dürftig und lückenhaft geblieben.
Ich hätte nichts dagegen, wenn ProRes RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Also ich hätte das PrawRes genannt :-)
Ich eher ProRaw, Final Raw oder iRAW.

Space


Antwort von cantsin:

7nic hat geschrieben:
Ich hätte nichts dagegen, wenn ProRes RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...
Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProRes (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.

Space


Antwort von Funless:

cantsin hat geschrieben:
7nic hat geschrieben:
Ich hätte nichts dagegen, wenn ProRes RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...
Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProRes (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.
Brauchst auch nicht erwarten. Jede Wette, dass das nächste iPhone Videos in ProRes RAW aufzeichnen können wird. Und dann wird sich zeigen, wie lange die großen Kamerahersteller mit dem Nachziehen warten werden.

Wie gesagt, reine Spekulation meinerseits, aber irgendwie habe ich da so‘n Gefühl. ;-)

Space



Space


Antwort von nic:

cantsin hat geschrieben:
7nic hat geschrieben:
Ich hätte nichts dagegen, wenn ProRes RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...
Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProRes (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.
Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei. BMD ist ja sicher auch dabei...

Space


Antwort von cantsin:

Funless hat geschrieben:
Jede Wette, dass das nächste iPhone Videos in ProRes RAW aufzeichnen können wird.
Da wette ich gegen Dich. Bei einer Datenrate von mehr als 1000 Mbit/s bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.

Space


Antwort von cantsin:

7nic hat geschrieben:
Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei.
Ich hatte ja explizit von Consumer- und Prosumerkameras geschrieben, nicht von Kameras in der Güte- und Geldklasse von EVA & Co.

Space


Antwort von nic:

cantsin hat geschrieben:
7nic hat geschrieben:
Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei.
Ich hatte ja explizit von Consumer- und Prosumerkameras geschrieben, nicht von Kameras in der Güte- und Geldklasse von EVA & Co.
Ist die EVA nicht prosumer?

Space


Antwort von Funless:

7nic hat geschrieben:
Sony ist im gleichen Zuge ja auch schon dabei.
Am Montag ist ja die Sonys NAB PK und vielleicht sehen wir bei einer evtl. Ankündigung einer A7sIII dann auch ProResRAW Support via Atomos für das Gerät. Wer weiß? Sind ja alle hier unisono, dass Sony im DSLM Bereich irgendwas gegen die 10Bit intern der GH5/GH5s entgegensetzen muss.
cantsin hat geschrieben:
Funless hat geschrieben:
Jede Wette, dass das nächste iPhone Videos in ProRes RAW aufzeichnen können wird.
Da wette ich gegen Dich. Bei einer Datenrate von mehr als 1000 Mbit/s bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.
ProResRAW geht ja auch compressed wenn ich‘s nicht falsch verstanden habe. Apple setzt seit zwei iPhone Generationen immer größeren Schwerpunkt auf Kamerafeatures (die anderen Hersteller wie bspw. Samsung, etc. aktuell ja auch). Außerdem weiß keiner was nun die Hydrogen bringen wird. Und Marktanteile im Smartphone Markt sind hart umkämpft, so dass nicht davon auszugehen ist, dass Apple sich auf seinem Platzhirsch Status ausruhen wird.

Wie bereits oben gesagt, alles Spekulation von mir, bin kein Insider. Doch für mich persönlich würde es Sinn machen.

Space


Antwort von cantsin:

Funless hat geschrieben:
Am Montag ist ja die Sonys NAB PK und vielleicht sehen wir bei einer evtl. Ankündigung einer A7sIII dann auch ProResRAW Support via Atomos für das Gerät. Wer weiß? Sind ja alle hier unisono, dass Sony im DSLM Bereich irgendwas gegen die 10Bit intern der GH5/GH5s entgegensetzen muss.
Niemals wird Sony einen Apple-Codec lizenzieren, die haben ihre eigenen Codecs.
cantsin hat geschrieben:

Da wette ich gegen Dich. Bei einer Datenrate von mehr als 1000 Mbit/s bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.
ProResRAW geht ja auch compressed wenn ich‘s nicht falsch verstanden habe.
Die genannten Bitraten sind bereits compressed und beziehen sich auf die Angaben in der Slashcam-Newsmeldung.

Apple setzt seit zwei iPhone Generationen immer größeren Schwerpunkt auf Kamerafeatures (die anderen Hersteller wie bspw. Samsung, etc. aktuell ja auch). Ja, aber vor allem durch computational imaging - also Signalschönrechnung durch maximalen algorithmischen Aufwand. Das ist genau das Gegenteil von RAW.

Space


Antwort von Jott:

cantsin hat geschrieben:
Bei einer Datenrate von mehr als 1000 Mbit/s bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung.
Es ist etwa halb so viel bei ProRes raw. Also immerhin ein Stündchen 4K/25p auf 256 GB, was ja wohl das Mindeste wäre, wenn man so was mit einem Smartphone vorhätte. Und wenn‘s auch HD tut, sind’s gleich ein paar Stunden. Zudem pumpt das iPhone laufend Bilder und Videoclips in die Cloud und macht Speicher wieder frei. Soderbergh würde auch einen Hunderter drauflegen und eins mit 512 GB kaufen! :-)

Red will ja definitiv ein Handy mit Redraw bringen. So völlig aus der Luft gegriffen finde ich das daher gar nicht mit einem Raw-Edel-iPhone. Dass die Mini-Kameratechnik riesige Sprünge macht, ist ja wohl nicht abzustreiten. Vielleicht knallt ja Apple mit so was in den Markt, noch bevor Red in die Hufe kommt?

Keiner weiß, was es da für Roadmaps gibt. Ich find‘s spannend.

Space


Antwort von cantsin:

7nic hat geschrieben:
Ist die EVA nicht prosumer?
Da haben wir unterschiedliche Begriffe von "Prosumer". Ich dachte dabei eher an Kameras wie die GH5/s, nicht an einen 7500-Euro-Body.

Space


Antwort von cantsin:

Jott hat geschrieben:
cantsin hat geschrieben:
Bei einer Datenrate von mehr als 1000 Mbit/s bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung.
Es ist etwa halb so viel bei ProRes raw.
Nein.

Apple spezifiziert die Datenrate von ProRes Raw im dazugehörigen White Paper als variabel zwischen der von ProRes HQ und der von ProRes 444.

Laut diesem anderen White Paper liegt die Datenrate von ProRes HQ bei 4K bei 754 Mbit/s (24fps) bzw. 943 Mbit/s (30fps) und die von ProRes 444 bei 1131 bzw. 1414 Mbit.

Also habe ich da noch zurückhaltend gerechnet.
Red will ja definitiv ein Handy mit Redraw bringen. Stimmt so auch nicht. Es wird ein Handy mit anflaschbaren RedRaw-Kameramodul geben (so ähnlich, wie das als Fotokamera die DxO One macht), aber kein Raw-Recording im Handy selbst.

Space



Space


Antwort von Jott:

Da kursieren verschiedene Stories und Vermutungen. Facts gibt es noch keine.

Ist ja auch egal. Die Welt hat andere Probleme.

ProRes Raw liegt übrigens variabel zwischen 422 und HQ. Du musst schon richtig lesen. Du nennst die Werte von ProRes Raw HQ, der High End-Variante, was in einem Handy nun wirklich Schwachsinn wäre.

Space


Antwort von cantsin:

Jott hat geschrieben:
ProRes Raw liegt übrigens variabel zwischen 422 und HQ. Du musst schon richtig lesen. Du nennst die Werte von ProRes Raw HQ, der High End-Variante, was in einem Handy nun wirklich Schwachsinn wäre.
Da hast Du in der Tat recht und ich nehme meinen Punkt zurück.

Werde aber meine Wette gegen Alf gewinnen. Blackmagic wird eine neue 4K Pocket vorstellen, und Resolve 15. Beide höchstwahrscheinlich mit ProRes RAW. Blackmagics Betatester/Influencer John Brawley sagt, dass er (wohl wegen NDA) noch nicht viel sagen kann, bestätigt aber sowohl die Echtheit des 4K-Pocket-Plakats, als auch das folgende: "I’ve seen iterations of working with ProRes with the same controls you get with shooting any RAW format in the way we all would understand a real RAW format to work. Umm..so its’ actually awesome. I mostly shoot ProRes these days anyway and now ProRes will be even better :-)"

Space


Antwort von Funless:

Und wenn die BMPCC4K so um die 1.000 - 1.500 Euro kosten sollte plus die PRR Implentierung in Resolve 15 (also auch für die Windows Welt), liege ich doch mit meiner spekulativen Vorhersage „RAW Video für Jedermann“ gar nicht mal so verkehrt. :-)

Space


Antwort von WoWu:

„I mostly shoot ProRes these days anyway and now ProRes will be even better :-)"

Das ist ja nun auch nicht besonders schwer.
Den meisten Distributionscodecs fällt das ja noch nicht mal schwer.
Daher sagt das noch nichts über die effektive Qualität aus.

Space


Antwort von cantsin:

Funless hat geschrieben:
Und wenn die BMPCC4K so um die 1.000 - 1.500 Euro kosten sollte plus die PRR Implentierung in Resolve 15 (also auch für die Windows Welt), liege ich doch mit meiner spekulativen Vorhersage „RAW Video für Jedermann“ gar nicht mal so verkehrt. :-)
Nur, dass sich da eigentlich nicht soviel ggü. früher verändert hat. Die erste Pocket ist seit 2013 für 1000 EUR auf dem Markt, und schneiden kann man mit Resolve schon seit Version 11, die 2014 'rauskam.

"RAW Video für Jedermann" wäre dann doch eher Raw-Video in unter-2500-Euro-Kameras, die à la GH5, A7 oder XC10 Autofocus, Stabilisierung, brauchbare interne Mikrofone und lange Batterielaufzeit mitbringen und keine IR-Cut-Filter brauchen - und was sich dann anschließend problemlos in Premiere, FCPX & Co. schneiden lässt inkl. einfacher Einstellungsmenüs für Raw-Bildparameter (wie Weißabgleich und Gain).

Space


Antwort von WoWu:

Vielleicht überraschen sie uns ja alle und führen eine vectorbasierte Compression der RAW Signale ein.
Das wäre allerdings der „Durchbruch“ für ein „RAW für Jedermann“ und der erste Schritt zu einem Umdenken in Sachen Kompression.
Wir werden es sehen. Die Datenraten wären dafür schon mal richtig.

Space


Antwort von Funless:

Eben, warten wir ab und harren der Dinge die da kommen. Interessant finde ich es allemal.

Space


Antwort von Axel:

Apple hätte wenig davon, PRR gegen eine bescheidene Gebühr unter‘s Volk zu bringen. Da dieses hier so eine Art Vorhersage-Wette wird, hier meine: PRR wird nichts welterschütternd Neues, nur eine Art aufgebohrtes Cineform Raw mit etwas schlankeren Datenraten. Es wird für wenigstens ein Jahr nicht auf Resolve verfügbar sein und deswegen wohl auch nicht auf BM Kameras. Denn die sind, wie cantsin sehr richtig sagte, das „Raw für jedermann“. Nicht allein durch CDNG auf ihren günstigen Kameras, sondern durch die Software, das „Ökosystem“. Das will FCP jetzt auch schaffen, mit einem alternativen Ansatz.

Space


Antwort von Jott:

Wieso vermutet ihr Wavelet oder gar irgend eine fancy Vectorkompression?

Im Whitepaper steht doch, dass es ProRes ist wie gehabt, nur eben auf „Bayerpixel“ angewandt. Luminanz plus Metadaten. Es geht Apple ja um Speed, damit werben sie, 8 Raw-Streams realtime in fcp x de-bayert bla bla.

Dafür spricht ja auch, dass die Implementierung von ProRes Raw für DJI und Atomos ein simples Firmware-Update ist. Müsste auch bedeuten, dass jeder andere Kamerahersteller, der bisher schon ProRes anbietet - also praktisch alle - ebenfalls problemlos mitspielen könnte.

Der NAB-Pressetag naht.

Space



Space


Antwort von Frank Glencairn:

Interresant



Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
Interresant
Eigentlich sagt er durch die Blume, dass CinemaDNG als Standard wegen seiner Usability und mangelhaften Unterstützung gescheitert ist, und dass die Initiative für ProRes Raw nicht von Apple, sondern von Atomos ausging.

Space


Antwort von Frank Glencairn:

Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.
CDNG ist schon ein Kack und hat alle Erwartungen massiv untertroffen.

Space


Antwort von Frank Glencairn:

Hä? Welche "Erwartungen"?

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.
Und damit sind die Windows Anwender mal wieder draußen, zumindest nach heutigem Stand. Na vielleicht hilft Resolve 15.

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Hä? Welche "Erwartungen"?
Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.

Space


Antwort von Frank Glencairn:

Da musst du dich beim NLE Hersteller deines Vertrauens beklagen, wobei das bei Adobe ja extrem bizarr ist, daß die sich weigern ihr eigenes Format vernünftig zu unterstützen.

Space


Antwort von rush:

"Frank Glencairn" hat geschrieben:
Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen.
Dann mal Butter bei die Fische... welcher Hersteller bietet denn CDNG in seinem aktuellen Kamera-Portfolio? Da bleiben neben Blackmagic nur noch eine Hand voll übrig... und einige Hersteller davon existieren heute doch de facto gar nicht mehr beim Blick auf Wikipedia... vielleicht noch die Weisscam... aber die anderen dort aufgeführten? Eher in der Versenkung versunken :D https://de.wikipedia.org/wiki/CinemaDNG

Der Rest sind eher die paar Rekorder-Hersteller die hier und da auch mal CDNG anbieten um überhaupt von sich Rede zu machen und dem Kunden was anbieten müssen...
Ein wirklicher Standard hat sich daraus leider nicht etabliert.

Irgendwie schwimmen doch alle viel lieber in Ihrer eigene Soße mit popraritären RAW-Formaten... egal ob Arri, RED, Kinefinety, Sony und wie sie alle heißen.

Ob da ProRes RAW was dran ändern wird? Ich bin eher skeptisch... aber wünschenswert wäre ein etwas breiter aufgesteller Standard ja schon, auch die für Hersteller von NLE's, Gradinggedöns und Co...

Space



Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Da musst du dich beim NLE Hersteller deines Vertrauens beklagen, wobei das bei Adobe ja extrem bizarr ist, daß die sich weigern ihr eigenes Format vernünftig zu unterstützen.
Alleine die Idee auf Einzelbilder in Ordnern zurückzugreifen macht das Format auf Dateiebene unsinnig langsam und umständlich.

Space


Antwort von cantsin:

7nic hat geschrieben:
"Frank Glencairn" hat geschrieben:
Hä? Welche "Erwartungen"?
Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.
Ich wüsste nicht, was im CinemaDNG-Standard fehlt, ausser dass die Ordner-/Einzelframestruktur ein Usability-Problem ist, dass man sehr einfach durch einen tar- oder zip-Container lösen könnte, wodurch die Äquivalenz von Clip und Datei wiederhergestellt wäre.

Das echte Problem ist doch, dass CinemaDNG von den großen Softwareanbietern stiefmütterlich behandelt wird, allen voran vom Erfinder des Formats, Adobe. Es ist unbegreiflich, warum man die Adobe Camera Raw-Parameter von CinemaDNG-Aufnahme zwar in Lightroom einstellen kann, aber nicht bzw. nur äußerst rudimentär in Premiere.

Man könnte da Verschwörungstheorien entwickeln, weil CinemaDNG von den großen Kameraherstellern links liegen gelassen und nur von den Spezial- und Nischenanbietern implementiert wurde. Die Hoffnung ist wohl, dass mit ProRes RAW endlich eine Mainstream-Lösung für RAW-Video kommt.

Space


Antwort von wolfgang:

7nic hat geschrieben:
"Frank Glencairn" hat geschrieben:
Hä? Welche "Erwartungen"?
Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.
Was eine nette Vision ist.

Space


Antwort von Frank Glencairn:

7nic hat geschrieben:

Alleine die Idee auf Einzelbilder in Ordnern zurückzugreifen macht das Format auf Dateiebene unsinnig langsam und umständlich.
Etwas langsamer beim kopieren - okay, läßt sich aber durch Plattenoptimierung immerhin ein bisschen beschleunigen - der Unterschied zwischen DNG Ordner kopieren und Clip kopieren ist definitiv da, aber so klein, daß er für mich kein Dealbreaker ist. Läuft sowieso im Hintergrund, während ich was anderes arbeite.
Aber ob ich einen Ordner mit Einzelbildern, Ton- und Metadaten drin anfasse und irgendwo hin schiebe, oder einen Clip, macht nun wirklich keinen Unterschied. Is ja sowieso nur eine Desktop Metapher - unter dem .mov Symbol befinden sich ja auch nur Einzelbilder, du kommst nur nicht dran, weil sie in dem Container verpackt sind. In der NLE macht es sowieso keinen Unterschied, die DNGs tauchen auf wie ganz normale Clips.
rush hat geschrieben:

Dann mal Butter bei die Fische... welcher Hersteller bietet denn CDNG in seinem aktuellen Kamera-Portfolio? .
Ein wirklicher Standard hat sich daraus leider nicht etabliert.
..
Naja - das sind dann immerhin um die 10-12 Kameras (und ein paar Recorder)

Wie viel Kameras können ProRes schreiben? Ungefähr genauso viel - nach deiner Logik wäre also ProRes
auch kein wirklich etablierter Standard.

Space


Antwort von WoWu:

Wobei der Atomos Mann ja auch auf das eigentliche Problem im Hinblick auf DNG hingewiesen hat und sagt, dass es keinen Sinn macht, ein Video-Signal zu verarbeiten.
Denn die alte Frage ist ja, ist eine codierung in DNG noch RAW. Er beantwortet das in dem Interview eher mit NEIN denn er weist direkt darauf hin, dass PRR ein Sensorsignal enthält, das nicht in Frame-Formatierung vorliegt sondern in individuellen Pixelpaketen, losgelöst von Frameformaten.
Das deutet ja eigentlich darauf hin, dass wir es mit soetwas wie einem echten RAW zu tun haben.
Und genau das war auch für mich der schwächste Punkt von DNG, weil es eigentlich nur ein flaches Videoformat mit geringer Kompression war.

Ich bin mal gespannt, was da herauskommt denn Zeit wäre es, ein neues Format zu etablieren.
Und wenn es sich tatsächlich um ein Vectorformat handelt, bin ich mal auf Sony gespannt, weil die ja ebenso auf diesen „Zug“ setzen.

Space


Antwort von Peppermintpost:

ich hab den Beitrag ja nicht kompl gelesen, evtl ist das was ich schreibe obsolet, aber mir scheint die grösste "Krücke" am ProRes (egal welche Geschmacksrichtung) das es halt unter Windows nicht durchgängig funktioniert. Ich habe weil ich immer mehr auf Windows mache und grosser ProRes Fan bin Mirazon ProRes installiert und bis jetzt scheint es auch gut zu funktionieren. Es gibt natürlich auch einige Software die ProRes Schreiben kann, aber grundsätzlich finde ich ist es der Job von Apple das mal einheitlich für alle Plattformen zur Verfügung zu stellen.

Space


Antwort von Frank Glencairn:

Vor allem in 64bit

Space


Antwort von WoWu:

Das Problem, und darin liegt der Unterschied in „Standards“ besteht darin, dass dazu ein Format festgeschrieben wird und mit einer Referenzimplementierung dokumentiert wird.
Dann können sich alle Hersteller daran halten und sind sicher, das 100% Kompatibilität entsteht und das ganze nicht schon wieder (nach der nächsten Modifizierung seitens des Codechetstellers) Anpassungen erforderlich werden.
Das ist auch das Problem der freien „Standards“.

Insofern wäre Apples Sache gewesen, es z.B. von der SMPTE standardisieren zu lassen. Dann wäre eine platformübergreifende Akzeptanz eher gegeben.
Aber Apple hat ja ganz bewusst den Codec proprietären gehalten, um die eigene Platform zu stärken.
Da wundert es niemanden, dass viele Hersteller nicht mit fliegenden Fahnen mitmachen.

Space


Antwort von Jott:

Stimmt, da macht kaum einer mit. Außer dieser Handvoll unbekannter Firmen vielleicht:

https://support.apple.com/de-de/HT200321

Wowu mal wieder im Kreuzzug-Modus! :-)

Space



Space


Antwort von R S K:

WoWu hat geschrieben:
Dann wird sich vermutlich auch die Frage stellen, wo die vermeintlichen Vorteile zu eigenen Kamers-RAW Formaten liegen.
Die Stichworte heißen Performance und Datenrate und Kamera-Hersteller unabhängig, insofern lizensiert und keine Transcodierung um überhaupt damit (mit multiplen Streams!) arbeiten zu können und Performance… ach ja und Performance.

Das mit der Unabhängigkeit reicht mir schon. Und ich denke über kurz oder lang wird keiner drumrum kommen es in der einen oder anderen Form zu implementieren, insofern die hardware es grundsätzlich hergibt.

Z.B. eine Shogun kann cDNG in 4K gerade mal mit 30p aufzeichnen. In ProRes raw… mit 60p.


WoWu hat geschrieben:
Nicht umsonst hat sich DNG nicht durchgesetzt.
Genau. Deswegen weil es nicht von einem Kamerahersteller kam. Nicht weil es eine halb gare Anpassung eines Formats war/ist, was eigentlich für Bilder gedacht war, gar nicht für Bewegtbilder. Dementsprechend auch unerträglich in der Benutzung, Verwaltung und Performance ist. Nee. Deswegen nicht. 😏

Beide überhaupt vom Grundsatz her vergleichen zu wollen ist allein schon ziemlich… ach, egal.


WoWu hat geschrieben:
Da wundert es niemanden, dass viele Hersteller nicht mit fliegenden Fahnen mitmachen.
Gut erkannt. Weshalb auch absolut niemand die sechs anderen Geschmacksrichtungen von ProRes übernommen hat, richtig? So unfassbar wichtig ist ihnen die Standardisierung. 👍🏼


cantsin hat geschrieben:
Niemals wird Sony einen Apple-Codec lizenzieren, die haben ihre eigenen Codecs.

Genau! Die FS7, FS5 und und und und und machen es schon seit 2014 illegal!

😄😄😄

- RK

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:
..Nicht weil es eine halb gare Anpassung eines Formats war/ist, was eigentlich für Bilder gedacht war, gar nicht für Bewegtbilder.
Ach deswegen heißt es CINEMA-DIGITAL-NEGATIVE, weil es nicht für "Bewegtbilder" gedacht ist.


Kopfschüttel

Space


Antwort von R S K:

"Frank Glencairn" hat geschrieben:
Ach deswegen heißt es CINEMA-DIGITAL-NEGATIVE, weil es nicht für "Bewegtbilder" gedacht ist.
:-))))
Au weia.


"Frank Glencairn" hat geschrieben:
Kopfschüttel
Allerdings.

Space


Antwort von nic:

CDNG ist ganz klar ein RAW-Format... die Möglichkeit RGB-Werte je Pixel aufzuzeichnen ist für Foveon und 3-chipper gedacht. Ansonsten speichert es nur Sensordaten im Bezug auf ein color filter array.

Space


Antwort von PowerMac:

Cinema DNG ist scheisse. Hat schonmal jemand probiert, 20 TB davon auf LTO-Band zu archivieren? Die kleinen Dateien und dann Tausende davon sind ein Graus. Die LTO-Archivierung dauert fünf bis zehnmal so lange, wie man bei der Dateigröße annehmen könnte.

Space


Antwort von R S K:

PowerMac hat geschrieben:
Cinema DNG ist scheisse.
Auf den Punkt gebracht. :-)))

Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht. Scheisse ist gar kein Ausdruck.

Ach, und bevor sich jemand hämisch, lechzend draufstürzt, habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten.
[Edit: Habe es auf den „ersichtlichen” Weg gemacht. Wenn es einen anderen, besseren Weg gibt, super. Dieser ist dann aber wohl nicht gerade ersichtlich)

Warum auch immer, haben es sowohl Motion als auch After Effects wiederum in zwei Klicks als einzelnen Clip importiert. Nicht mal einen Balken. Versteh wer will. Ich muss es nicht. cDNG ist für mich gestorben. ProRes raw FTW.

- RK

Space


Antwort von cantsin:

"R S K" hat geschrieben:
Warum auch immer, haben es sowohl Motion als auch After Effects wiederum in zwei Klicks als einzelnen Clip importiert. Nicht mal einen Balken. Versteh wer will. Ich muss es nicht.
Na, ist doch einfach. Dein Beispiel zeigt doch, dass die Performance nicht an cDNG liegt, sondern an dessen durchwachsener Software-Unterstützung, die schon an Boykott grenzt. Adobe signalisiert ja sozusagen mit dem Zaunpfahl, cDNG nur als Motion Graphics-, nicht aber als Mainstream-Videoformat zu akzeptieren.

Mich würde nicht wundern, wenn es da Mauscheleien bzw. vertragliche Absprachen zwischen den großen NLE-Herstellern und den großen japanischen Kameraherstellern gab, die nicht wollten, dass Blackmagic ihnen den Markt versaut. Wozu ja auch dann die Tatsache passt, dass Blackmagic sein eigenes Resolve (wohl aus Not) zum NLE mit vorbildlicher cDNG-Unterstützung ausgebaut hat.

Space


Antwort von Axel:

"R S K" hat geschrieben:
Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht. Mehr muss ich nicht sagen. Scheisse ist gar kein Ausdruck.

Ach, und bevor sich jemand hämisch, lechzend draufstürzt... habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten! UPS.
CDNGs werden in Premiere wie in Resolve als Clips und nicht als Sequenz importiert, wenn man statt über cmd+i über den Mini-Explorer des Medienbrowser (oder wie das heißt) unten links geht. Importzeit: Sekundenbruchteile, Performance gefühlt etwas schlechter als in Resolve.

Space


Antwort von R S K:

Interessiert mich auch wie gesagt nicht die Bohne. ProRes raw FTW.

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:

Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht.

So ist es halt, wenn man mit einem Messer zu einer Schießerei kommt.
"R S K" hat geschrieben:


Ach, und bevor sich jemand hämisch, lechzend draufstürzt... habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten! UPS.
..und wenn du nicht zu ignorant wärst, hätte der Import in PP nur ne Sekunde gedauert, wie in Resolve auch.

Aber Hauptsache erst mal ne große Klappe, und sich großmäulig hier vor allem zum Horst machen - gratuliere.

Space


Antwort von R S K:

😂😂😂

Danke für's vormachen.
So armselig.

Space


Antwort von wolfgang:

Was mich mehr als die große Klappe von irgendwem stört ist, dass mit ProRes RAW mal wieder schlagartig alle Windows Anwender von dem Material ausgeschlossen worden sind. Vielleicht ist das gleich am Montag mit Resolve 15 anders. Aber da kaufst dir eine EVA1, auch wegen der Ankündigung dass die 5.7K raw ausgibt. Dann wartest fast ein halbes Jahr darauf. Und dann kommen Atomos und Panasonic und innovieren ProRes RAW welches erst wieder für Windowsnutzer nicht verwendbar ist. Warten wir also wieder ein halbes Jahr um zu sehen, ob das unsere anderen Applikationen auch können werden. :(

Da kommt man sich schon über den Tisch gezogen vor. Denn von einer Einschränkung, dass 5.6K RAW nur der Mac Welt zu Verfügung stehen wird, war ja nie die Rede.

Space


Antwort von Frank Glencairn:

Ist das eigentlich sicher?

Jede andere ProRes Variante ist doch auch auf Win problemlos lesbar

Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
Ist das eigentlich sicher?

Jede andere ProRes Variante ist doch auch auf Win problemlos lesbar
Ich sehe da auch keine Einschränkungen, denn ProRes kann man ja unter Windows vor allem nicht schreiben/exportieren. Dass ist bei ProRes Raw aber irrelevant. Und Hersteller wie Atomos und DJI würden niemals auf ProRes Raw setzen, wenn das eine Mac-only-Lösung wäre.

Space


Antwort von R S K:

"Frank Glencairn" hat geschrieben:
Ist das eigentlich sicher?
Im Moment, ja. FCP X wird ab morgen bis auf weiteres die einzige App sein die PR raw lesen/bearbeiten kann. Allerdings anzunehmen, dass Apple nicht an eine größtmögliche Verbreitung interessiert ist wäre natürlich Mumpitz. Resolve beispielsweise wird wahrscheinlich in üblicher Manier mit die erste App sein die es kann. In Wochen wenn nicht Tagen.

- RK

Space


Antwort von motiongroup:

Klar ist das Geseire Mumpitz denn hätten die Entwickler eine Lizenz von Apple dafür geordert wäre es auch unter Windows kein Problem gewesen...
Wie viele NLE Hersteller gibt es die für spezielle Codec extra Lizenkosten von den Kunden einfordern..

Space


Antwort von R S K:

motiongroup hat geschrieben:
Klar ist das Geseire Mumpitz denn hätten die Entwickler eine Lizenz von Apple dafür geordert wäre es auch unter Windows kein Problem gewesen...
Jepp. Zu behaupten der Export anderer ProRes Formate unter Windows ist per se nicht möglich ist natürlich völliger Unsinn.

- RK

Space


Antwort von wolfgang:

Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProRes RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.

Space


Antwort von Jott:

wolfgang hat geschrieben:
Vom Export spricht zunächst noch niemand
Auch in Zukunft nicht, da völlig sinnbefreit.

Space


Antwort von nic:

wolfgang hat geschrieben:
Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProRes RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.
Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.
Er bestätigt vielleicht, dass bisher niemand sonst den Support angekündigt hat - dass es niemand wird, sicher nicht.

Space


Antwort von R S K:

Weil H.264, DNG und und und und vor ihrem eigentlich Release schon von allem und jeden Unterstütz wurden? Die Logik darf gerne mal einer erklären.

BMD kam bisher auch „erst” 2-3 Tage NACH einem Release mit einem Update mit Unterstützung für neue FCPXML Versionen raus, was es im übrigen diesmal auch geben wird. Den Zynismus sollte man sich also vielleicht erstmal aufsparen für die nächste Apple Meldung, oder zumindest den eigentlichen Release? Auch wenn das hier ein pathologischer Zwang für mache ist.

- RK

Space


Antwort von wolfgang:

7nic hat geschrieben:
wolfgang hat geschrieben:
Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProRes RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.
Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.
Ich sagte im ersten Posting nichts über die Strategie anderer Firmen. Aber die Bestätigung liegt vor dass 5.7K nur zu ProRes RAW im Atomos Sumo/Shogun Inferno aufgenommen wird. Und dass die Verarbeitung nicht in Applikationen erfolgen kann die ProRes verarbeiten können, sondern Stand Heute nur in FCP X.

Kannst gerne auf Facebook nachlesen, bist ja in den entsprechenden Gruppen drinnen.

Und es geht gar nicht mal gegen Apple - sondern das ist aus Sicht des EVA1 Users mit Windows Anwendungen primär ein Panasonic Thema. Die 5.7K versprechen und dann in der Business to Business Abstimmung ganz offensichtlich zustimmen dass die nur in ProRes RAW aufgezeichnet wird. Mit entsprechenden Konsequenten für Windows User.

Wie gesagt, wenn wenigstens Resolve 15 Studio das kurzfristig unterstützt entspannt sich das ein wenig. Hoffentlich.

Space


Antwort von wolfgang:

Ach ja, und von „pathologischen Zwängen“ würde ich nach einiger deiner Postings hier an deiner Stelle weniger sprechen. ;)

Space


Antwort von R S K:

ist scheinbar auch viel zu viel verlangt einfach mal auf den Release zu warten und der Sache auch nur EINE WOCHE zu geben. Als ob irgendjemand dich MORGEN dazu zwingen wird mit einer Atomos 5.7K in PR raw aufzuzeichnen. Es gibt ja auch keine Alternativen. Die verschwinden auch mit dem Update. So mächtig ist Apple. 😄

BMD ist im übrigen ganz offensichtlich auf dem Beta-Team. Die wissen schon was, ob, wann passiert was das angeht. Die wollen es vermutlich auch nur für v15 aufsparen um es für sich PR-technisch zu melken. Dass sie PR raw über kurz oder lang unterstützen werden steht denke völlig ausser Frage.

- RK

Space


Antwort von wolfgang:

Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?

Space


Antwort von R S K:

Nimmst mir die Worte aus dem Mund.

Space


Antwort von nic:

wolfgang hat geschrieben:
7nic hat geschrieben:


Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.
Ich sagte im ersten Posting nichts über die Strategie anderer Firmen. Aber die Bestätigung liegt vor dass 5.7K nur zu ProRes RAW im Atomos Sumo/Shogun Inferno aufgenommen wird. Und dass die Verarbeitung nicht in Applikationen erfolgen kann die ProRes verarbeiten können, sondern Stand Heute nur in FCP X.

Kannst gerne auf Facebook nachlesen, bist ja in den entsprechenden Gruppen drinnen.

Und es geht gar nicht mal gegen Apple - sondern das ist aus Sicht des EVA1 Users mit Windows Anwendungen primär ein Panasonic Thema. Die 5.7K versprechen und dann in der Business to Business Abstimmung ganz offensichtlich zustimmen dass die nur in ProRes RAW aufgezeichnet wird. Mit entsprechenden Konsequenten für Windows User.

Wie gesagt, wenn wenigstens Resolve 15 Studio das kurzfristig unterstützt entspannt sich das ein wenig. Hoffentlich.
Es gibt momentan einfach kein RAW-Format, das die 5.7K der EVA wegspeichern kann. Technisch möglich wäre das nur mit r3d. Panasonic hat von Anfang an mit offenen Karten gespielt: Sie werden die 5.7K RAW bis zum SDI-Port bringen, alles danach ist Sache der externen Rekorderhersteller. Und war bis dato Spekulation. Dass das nicht mit CDNG passieren wird und nicht von heute auf morgen geht, war mir klar. PRR ist für mich eine Überraschung und es freut mich, dass Apple wieder Interesse am professionelleren Videomarkt zeigt. FCP ist wieder da. Der iMac Pro ist ordentlich geworden. CUDA kommt. Ein neuer MacPro ist in Arbeit... Apple wird die Tür durch eine künstliche Beschränkung von PRR auf FCPX nicht wieder zuschlagen. Die kommen um zu bleiben.

Space


Antwort von Jott:

Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProRes raw sein? Oder doch? Das würde dann aber bedeuten, dass die EVA bisher auf gut Glück gekauft wurde, ohne zu wissen, was man mit dem raw-Ausgang anfangen soll? Also gezockt? Ich versteh‘s nicht, muss ich aber auch nicht.

Space


Antwort von R S K:

Jott hat geschrieben:
… es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich aufgetauchte ProRes raw sein?
Mein Reden. Danke. Aber… ist ja UNSINN! Wie kannst du nur. ;-P

Hauptsache aufgeregt. Wie immer. 💤

- RK

Space


Antwort von wolfgang:

Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProRes abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output Format 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).

Space


Antwort von wolfgang:

Jott hat geschrieben:
Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProRes raw sein? Oder doch?
Es ist erst seit zwei Tagen klar dass es ProRes RAW bei 5.7K sein MUSS. Die Dauerei ist eben dass das vorher nicht gesagt worden ist.

Und es gibt bisher keine andere Möglichkeit das raw einer EVA1 „abzugreifen“ wie du es nennst. Denn das geht nur wenn der Kamerahersteller an Third Parties die erforderlichen Daten liefert oder selbst Rekorder baut. Das ist kein freier Markt sondern ein kleines Oligopol.

Space


Antwort von nic:

wolfgang hat geschrieben:
Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProRes abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output Format 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).
Wenn du den RAW Output in ProRes debayerst, hast du kein RAW mehr. Natürlich kannst du den gecroppten 4K RAW Stream als CDNG, ProRes oder DNxHD speichern. Nur eben nicht die 5.7K. Das geht vorerst nur in PRR. Und, dass der Inferno mit den 5.7K umgehen können wird, stand auch nirgendwo.

Space


Antwort von nic:

wolfgang hat geschrieben:
Jott hat geschrieben:
Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProRes raw sein? Oder doch?
Es ist erst seit zwei Tagen klar dass es ProRes RAW bei 5.7K sein MUSS. Die Dauerei ist eben dass das vorher nicht gesagt worden ist.

Und es gibt bisher keine andere Möglichkeit das raw einer EVA1 „abzugreifen“ wie du es nennst. Denn das geht nur wenn der Kamerahersteller an Third Parties die erforderlichen Daten liefert oder selbst Rekorder baut. Das ist kein freier Markt sondern ein kleines Oligopol.
Den RAW-Stream der EVA kann jeder abgreifen. Nur fehlt das Format, um es abzuspeichern und an NLEs weiterzureichen. Das ist eben Neuland. Sei froh, dass Apple ohne Not in die Bresche gesprungen ist.

Space


Antwort von R S K:

wolfgang hat geschrieben:
Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.
Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?” Geliefert oder nicht?

Space


Antwort von nic:

"R S K" hat geschrieben:
wolfgang hat geschrieben:
Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.
Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?” Geliefert oder nicht?
Du schreibst aber auch mehr Unsinn als nicht, insofern dürftest du dich mit Kommentaren gerne zurückhalten.

Space


Antwort von R S K:

Welcher Teil genau? Kannst du auch sachlich argumentieren oder bist du jetzt auch nur auf persönliche Attacken reduziert?

Space


Antwort von nic:

"R S K" hat geschrieben:
Welcher Teil genau? Kannst du auch sachlich argumentieren oder bist du jetzt auch nur auf persönliche Attacken reduziert?
So ziemlich jeder deiner Beiträge beginnt mit einer überheblichen Geste und endet mit einer Provokation. Das vergiftet die Atmosphäre und nervt nur noch...

Space


Antwort von R S K:

7nic hat geschrieben:
und endet mit einer Provokation.
Die Zitate die ich einfüge. Ja da hast du recht. Wird aber irgendwie dann zu meiner Provokation. Faszinierend. Andere wiederum dürfen umkommentiert (umprovoziert) regelrecht ausfallend werden, aber wenn ich mal jemand seine eigenen Worte auftische bin ich der überhebliche Provokant. Alles klar. :-)))

Versteh schon. Lass gut sein… ich bin dann mal in der Sonne. Müsste es ja inzwischen besser wissen mich auf die kleine Clique hier einzulassen. My bad. Tschö. ??

Space


Antwort von DV_Chris:

Wer das Interview mit Jeromy Young aufmerksam verfolgt wird zu folgenden Schlüssen gelangen:

1. Die Idee zu ProRes RAW kam von Atomos. Vor allem deshalb, weil die DNG Verarbeitung zu aufwendig schien.

2. Seit Firmengründung ist Apple Partner von Atomos, also war das der erste Ansprechpartner.

3. Als Launch Partner ist die Verarbeitung erstmal FCPX vorbehalten.

4. Jeromy hofft auf eine breite Unterstützung in Soft- und Hardware in den kommenden Monaten.

5. Den High End Markt (Arri) hat er bewusst nicht im Visier, er will Raw for the masses, das mit geringen Anforderungen zurecht kommt. Somit ideal für AIO Rechner ohne performante OpenGL Hardware oder CPU Leistung.

Space


Antwort von mash_gh4:

ich glaub der einzige wirklich bedeutsame unterschied dieses formats besteht darin, dass es nicht mit bildsequenzen sondern einem kontinuierlichen aufzeichnungsstream arbeitet. das ist ein ein ganz entscheidender punkt, der ja nicht nur RAW betrifft, sondern auch andere professionelle RAW und intermediate formate wie OpenEXR od. DPX. während aber letztere formate nur in einem umfeld zur anwendung kommen, wo die die verwendete hardware die entsprechenden leistungsreserven aufzubringen vermag, ist das bei mobilen geräten und kameras bzw. eben der RAW-aufzeichnung weit problematischer. dort macht es also besonders großen sinn, dieses problem auszumerzen. trotzdem ist das natürlich keine sonderlich aufregende innovation, über die man viele worte verlieren muss. ähnliche und z.t. deutlich weitreichendere versuche hat es ja immer wieder gegeben (bspw.: OpenMOX). es erscheint mir daher reichlich absurd, wenn jetzt um apples völlig proprietären lösung, die ja wieder nur einem ganz kleinen teil der realen anwendungsmöglichkeiten offen steht, ein solcher wind gemacht wird.

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
es erscheint mir daher reichlich absurd, wenn jetzt um apples völlig proprietären lösung, die ja wieder nur einem ganz kleinen teil der realen anwendungsmöglichkeiten offen steht, ein solcher wind gemacht wird.
So kann man das aus technischer Perspektive sehen. Aus einer Marketing- bzw. Produktentwicklungsperspektive bedeutet es aber mehr, nämlich, dass es endlich signifikante Industrie-Bestrebungen gibt, um Raw-Video Mainstream zu machen. Bis vor kurzem hat die Industrie - mit der einzigen Ausnahme von Blackmagic - das für Kameras unterhalb der Klasse von Arri und RED offenbar nur als ein esoterisches Geek-Feature gesehen und mehr als stiefmütterlich behandelt.

Sehr interessant finde ich auch, dass Atomos jetzt seinen 5"-HDMI-Recorder neben ProRes Raw bewirbt. Die Frage ist daher, ob es in irgendeiner Form Raw über HDMI geben wird - und ob da eventuell auch größere Kamerahersteller (wie z.B. Sony mit der anstehenden A7sIII) mitspielen werden.

Space


Antwort von Jott:

Gut beobachtet. „ProRes raw für DSLR und Mirrorless“ ist der Slogan. Da steigt wohl ein noch viel größerer Ballon als bisher gedacht.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
So kann man das aus technischer Perspektive sehen. Aus einer Marketing- bzw. Produktentwicklungsperspektive bedeutet es aber mehr, nämlich, dass es endlich signifikante Industrie-Bestrebungen gibt, um Raw-Video Mainstream zu machen. Bis vor kurzem hat die Industrie - mit der einzigen Ausnahme von Blackmagic - das für Kameras unterhalb der Klasse von Arri und RED offenbar nur als ein esoterisches Geek-Feature gesehen und mehr als stiefmütterlich behandelt.
ich würde das zwar natürlich auch gerne so sehen, da ich die damit verbundenen möglichkeiten in erschwinglichen kameras persönlich immer sehr stark vermisse, halte es aber leider trotzdem für ein wunschdenken, mit dem ich nicht sehr viel realistische hoffnungen verbinde.

das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten. RAW aufzuzeichnen und die nachbearbeitung auf leistungsstärkere rechner in der postproduktion auszulagern ist ja bekanntlich deutlich einfacher als jede form einer befriedigenden internen aufbereitung in der kamera. blackmagic hat hier also einfach nur aus der not eine tugend gemacht -- aber eben auch weiter nichts damit zu verlieren gehabt. bei den meisten anderen kameraproduzenten, die ja bekanntlich fast alle die eigentlichen sensoren vom gleichen fremhersteller beziehen, sieht die sache da ein bisserl anders aus. dort kommt der differenzierung über die firmenspezifischen farbvorstellungen ein ganz anderes gewicht zu, schließlich will ja keiner, dass das ergebnis völlig gleich wie bei der konkurrenz ausssieht, wie es bei zugang zu den RAW daten der fall wäre.

blackmagic hat aber damals, um diese lösung tatsächlich plausibel verkaufen zu können, auch einfach davinci aufkaufen und um entsprechende RAW-import möglichkeiten aufbohren müssen. das ist eine lösung, die nicht alle gehen wollen. ich sehe es in diesem zusammenhang weiterhin als ein ganz gravierendes problem, wie weit die gegenwärtig verfügbaren film-RAW-entwickler in ihren möglichkeiten hinter vergleichbaren programmen im foto-umfeld nachhinken. auch resolve ist diesbezüglich in meinen augen maximal ein akzeptabler kompromiss, aber nicht wirklich überzeugend.
cantsin hat geschrieben:
Die Frage ist daher, ob es in irgendeiner Form Raw über HDMI geben wird - und ob da eventuell auch größere Kamerahersteller (wie z.B. Sony mit der anstehenden A7sIII) mitspielen werden.
das ist technisch kein problem -- kann man schon länger am bsp. des apertus projekts praktisch demonstriert und erklärt bekommen:

https://www.apertus.org/axiom-beta-uhd- ... e-may-2016

sony macht das bei seinen raw-aufzeichnungsmöglichkeiten im zusammenhang mit externen rekordern nicht anders, nur dass dort halt ein großes geheimnis daraus gemacht wird...

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten. RAW aufzuzeichnen und die nachbearbeitung auf leistungsstärkere rechner in der postproduktion auszulagern ist ja bekanntlich deutlich einfacher als jede form einer befriedigenden internen aufbereitung in der kamera.
Blackmagics Kameras hatten schon immer exzellentes 10-Bit ProRes in Log und Rec709. Da gab es keinen Zwang zu Raw. Im Gegenteil, hätte man Kameras wie die Pocket als reine ProRes-Kameras verkauft, hätten die meisten Käufer damit weniger Probleme gehabt und wäre die Kamera eventuell erfolgreicher am Markt gewesen.

Space


Antwort von WoWu:

„Sehr interessant finde ich auch, dass Atomos jetzt seinen 5"-HDMI-Recorder neben ProRes Raw bewirbt.“

Lass uns erst mal abwarten, ob das überhaupt (echtes) RAW ist oder vielleicht nur wieder flaches Video.

Space


Antwort von Jott:

Das Whitepaper zu lesen ist unter wowus Würde.

Space


Antwort von Peppermintpost:

Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMI Ausgang einer Kamera auslese, dann hab ich ja debayertes Rec709, das hat ja mit RAW erstmal so garnichts zu tuen. Selbst wenn ich einen aufzeichnungs LUT benutze, dann sehen meine Farben zwar anders aus aber RAW ist das immer noch nicht. RAW ist doch die Sensordaten auszulesen oder nicht? Ohne debayering einfach luma Informationen in ein File schreiben, also Sensor_2_File.
Ist jetzt vereinfacht, ist mir auch klar, natürlich hockt da auch noch ein Prozessor dazwischen, aber wir reden ja grundsätzlich von Sensordaten und halt nicht von einem bereits mit einem Farbraum versehenen Bild.

Was soll mir dieses RAW Format also im Falle eines Atomos der schön den HDMI einer Nikon ausliest bringen? Verstehe ich nicht? Jetzt sehen wir aus dem sog. Whitepaper das da offensichtlich noch eine Kompression am Werke ist die noch härter zuschlägt als ProRes es sowieso schon tut (ca. 1:6) und das es sich jetzt durch eine besondere Bit Tiefe auszeichnet hab ich auch nicht gelesen.

Was ist jetzt also genau die Frohe Botschaft? Wieso haben wir schon wieder 4 Seiten Hass Komentare?

Space


Antwort von cantsin:

Peppermintpost hat geschrieben:
Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIWas soll mir dieses RAW Format also im Falle eines Atomos der schön den HDMI einer Nikon ausliest bringen? Verstehe ich nicht?
ProRes Raw aus einer (heutigen) Nikon per HDMI auslesen, geht sowieso nicht.

Was Atomos aber in der Vergangenheit gemacht und hingekriegt hat, ist, in Zusammenarbeit mit Kameraherstellern (wie Sony bei der FS5 und Panasonic bei der EVA) ein undebayertes Signal über SDI auszulesen und als CinemaDNG Raw aufzuzeichnen. Ich vermute, mit proprietären Protokollen/Handshakes.

Auf ihrer Website geben sie an, ProRes Raw via SDI mit zwei ihrer Recorder aus einer Handvoll Panasonic- (EVA + Varicam), Sony- und Canon (C200)-Kameras aufzeichnen zu können.

Ausserdem bewerben sie jetzt auf der NAB einen neuen 5"-HDMI-Recorder direkt neben ProRes Raw. Die Frage ist also, (a) ob es in der Zukunft Kameras geben wird, die über ein (proprietäres) Protokoll undebayerte Videosignale per HDMI an Atomos-Recorder schicken können, die dann in ProRes Raw aufgezeichnet werden, und - falls das so kommt - ob dann (b) es eine neue Klasse von Consumer-/Prosumerkameras mit externer Raw-Aufzeichnung geben wird. HDMI findet man ja eher bei A7, GHx und Konsorten. Wenn man jetzt noch weiter spekuliert, liegt die Frage auf der Hand, ob eventuell die künftige A7sIII sowas anbieten wird.

Space


Antwort von wolfgang:

7nic hat geschrieben:
wolfgang hat geschrieben:
Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProRes abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output Format 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).
Wenn du den RAW Output in ProRes debayerst, hast du kein RAW mehr. Natürlich kannst du den gecroppten 4K RAW Stream als CDNG, ProRes oder DNxHD speichern. Nur eben nicht die 5.7K. Das geht vorerst nur in PRR. Und, dass der Inferno mit den 5.7K umgehen können wird, stand auch nirgendwo.
Wer sagt denn dass ich unbedingt das 5.7K Material als raw benötigt hätte? Mir hätte es als ProRes gereicht.

Space


Antwort von wolfgang:

"R S K" hat geschrieben:
wolfgang hat geschrieben:
Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.
Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?” Geliefert oder nicht?
Für einen Usersnteil von um die 12%.

Großartig.

Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Wer das Interview mit Jeromy Young aufmerksam verfolgt wird zu folgenden Schlüssen gelangen:

1. Die Idee zu ProRes RAW kam von Atomos. Vor allem deshalb, weil die DNG Verarbeitung zu aufwendig schien.

2. Seit Firmengründung ist Apple Partner von Atomos, also war das der erste Ansprechpartner.

3. Als Launch Partner ist die Verarbeitung erstmal FCPX vorbehalten.

4. Jeromy hofft auf eine breite Unterstützung in Soft- und Hardware in den kommenden Monaten.

5. Den High End Markt (Arri) hat er bewusst nicht im Visier, er will Raw for the masses, das mit geringen Anforderungen zurecht kommt. Somit ideal für AIO Rechner ohne performante OpenGL Hardware oder CPU Leistung.
Alles richtig, genau so habe ich auch sein Interview verstanden. Er ist und bleibt halt ein energiegeladener und stärker Visionär, und solche Leute setzten ihre Vision auch um und sind damit durchaus oft erfolgreich.

Ob das mit ProRes RAW klappen kann wird man sehen. Ob er die Unterstützung von Adobe, Blackmagic, Grass Valley und Magix bekommt wird man sehen. Schlecht wäre es nicht, um aus dem raw Durcheinander rauszukommen. Skeptisch darf man aber sein.

Space


Antwort von Jott:

Atomos baut doch keine Geräte nur für die „12%“. Die sind ja nicht bescheuert, waren sie bisher auch nicht. Vielleicht ein paar Tage oder Wochen Geduld?

Jeder NLE- und Kamerahersteller wird wenige Minuten nach Messeöffnung von all den Bloggern als erstes gefragt werden: Unterstützung von ProRes RAW? Die Antwort geht dann sofort um die Welt. Bis dahin einfach noch in die Sonne legen.

Space


Antwort von wolfgang:

cantsin hat geschrieben:
Peppermintpost hat geschrieben:
Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIWas soll mir dieses RAW Format also im Falle eines Atomos der schön den HDMI einer Nikon ausliest bringen? Verstehe ich nicht?
ProRes Raw aus einer (heutigen) Nikon per HDMI auslesen, geht sowieso nicht.

Was Atomos aber in der Vergangenheit gemacht und hingekriegt hat, ist, in Zusammenarbeit mit Kameraherstellern (wie Sony bei der FS5 und Panasonic bei der EVA) ein undebayertes Signal über SDI auszulesen und als CinemaDNG Raw aufzuzeichnen. Ich vermute, mit proprietären Protokollen/Handshakes.

Auf ihrer Website geben sie an, ProRes Raw via SDI mit zwei ihrer Recorder aus einer Handvoll Panasonic- (EVA + Varicam), Sony- und Canon (C200)-Kameras aufzeichnen zu können.

Ausserdem bewerben sie jetzt auf der NAB einen neuen 5"-HDMI-Recorder direkt neben ProRes Raw. Die Frage ist also, (a) ob es in der Zukunft Kameras geben wird, die über ein (proprietäres) Protokoll undebayerte Videosignale per HDMI an Atomos-Recorder schicken können, die dann in ProRes Raw aufgezeichnet werden, und - falls das so kommt - ob dann (b) es eine neue Klasse von Consumer-/Prosumerkameras mit externer Raw-Aufzeichnung geben wird. HDMI findet man ja eher bei A7, GHx und Konsorten. Wenn man jetzt noch weiter spekuliert, liegt die Frage auf der Hand, ob eventuell die künftige A7sIII sowas anbieten wird.
Oder sie verpassen dem Ninja doch nur eine SDI Schnittstelle. ;)

Space


Antwort von nic:

Peppermintpost hat geschrieben:
Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMI Ausgang einer Kamera auslese, dann hab ich ja debayertes Rec709, das hat ja mit RAW erstmal so garnichts zu tuen. Selbst wenn ich einen aufzeichnungs LUT benutze, dann sehen meine Farben zwar anders aus aber RAW ist das immer noch nicht. RAW ist doch die Sensordaten auszulesen oder nicht? Ohne debayering einfach luma Informationen in ein File schreiben, also Sensor_2_File.
Ist jetzt vereinfacht, ist mir auch klar, natürlich hockt da auch noch ein Prozessor dazwischen, aber wir reden ja grundsätzlich von Sensordaten und halt nicht von einem bereits mit einem Farbraum versehenen Bild.

Was soll mir dieses RAW Format also im Falle eines Atomos der schön den HDMI einer Nikon ausliest bringen? Verstehe ich nicht? Jetzt sehen wir aus dem sog. Whitepaper das da offensichtlich noch eine Kompression am Werke ist die noch härter zuschlägt als ProRes es sowieso schon tut (ca. 1:6) und das es sich jetzt durch eine besondere Bit Tiefe auszeichnet hab ich auch nicht gelesen.

Was ist jetzt also genau die Frohe Botschaft? Wieso haben wir schon wieder 4 Seiten Hass Komentare?
Wie cantsin schon schrieb: es muss natürlich von Kameraseite ein RAW-Stream anliegen und kein Videosignal. Bei Panasonic gibt es am SDI-port zB einen 10bit RAW in log. Bei Sony 12bit linear. Ob das jetzt über HDMI, SDI oder Rauchzeichen als Schnittstelle geschieht, ist ja irrlelvant, sofern sich Kamera und Rekorder verstehen. Das muss dann nur weggespeichert werden in einem Format, das auch die NLEs verstehen.
Bedenke: PRR muss nur 1/3 der Werte (RAW) von PR 444 (RGB) komprimieren mit vergleichbarer Datenrate aber mit einem vergleichbaren Algorithmus. Welche Kompression stärker zuschlägt, kannst du dir denken.

Space


Antwort von Jott:

Ninja mit SDI? Dann wäre die Werbung „ProRes raw für DSLR und Mirrorless“ aber sinnbefreit. Filmende Fotoapparate mit SDI im Anflug? Glaube ich jetzt mal nicht. Raw-Signale über die HDMI-Buchse anbieten ist wohl realistischer.

Space


Antwort von wolfgang:

Na warten wir es ab. Kann ja sein dass so eine innovative HDMI Lösung naht und du recht hast . Oder aber man kommt einfach drauf dass der Shogun doch für viele recht schwer und groß ist, zusätzlich zu einer S35mm Kamera.

Space


Antwort von DV_Chris:

Im professionellen Umfeld kann sich wohl niemand eine Aufwertung von HDMI wünschen, solange es nicht mal eine standardisierte mechanische Fixierung gibt...

Space


Antwort von Jott:

Das ist allerdings wahr. Ich würde so was nie ernsthaft benutzen, zu labberig, aber das hat nichts zu sagen. Externe HDMI-Recorder sind schon seit vielen Jahren hip und quasi Zwangszubehör! :-)

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Im professionellen Umfeld kann sich wohl niemand eine Aufwertung von HDMI wünschen, solange es nicht mal eine standardisierte mechanische Fixierung gibt...
Was ist denn heute "das professionelle Umfeld"?

Gibt es etwa keine Profis (hauptberufliche), die nicht zumindest auch mit spiegellosen Systemkameras hantieren? Wegen Größe und Handlichkeit z.B.?

Benutzen die dann nie HDMI-Fieldrecorder oder HDMI-Monitore?

Sind die kleinen Kabelklemmen/Zugentlastungs-Stopper, die es, je nach Hersteller für 7-70 € gibt, weniger sicher als ein (vergleichsweise auch starres) SDI-Kabel?

Space


Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:


das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten.
blackmagic hat aber damals, um diese lösung tatsächlich plausibel verkaufen zu können, auch einfach davinci aufkaufen und um entsprechende RAW-import möglichkeiten aufbohren müssen. das ist eine lösung,
Da kennst du BM aber schlecht :-)

Bei BM ging's immer schon - seit der ersten Decklink Karte - hauptsächlich um eines: so-unkomprimiert-wie-möglich.
Als sie Resolve aufgekauft hatten, wollten sie den Leuten auch eine Kamera an die Hand geben, deren Material beim ersten Anfassen nicht auseinander fällt - DAS war der Grund für die Kamera Entwicklung und der Grund für RAW.
Das sie In-Kamera Debayering nebenbei sowieso beherrschen, sieht man ja daran, daß die selbe Hardware völlig Problemlos 709 in verschiedenen Codecs aufzeichnen kann.

Space


Antwort von WoWu:

Fraglich, was da wirklich auf HDMI ausgegeben wird ...

„The Sony FS RAW Record Option features a unique RAW-to-video mode, where the 4K RAW data is deBayered and turned into high quality video, which is then captured in Apple ProRes. Although all formats are derived from the 4K RAW data, recordings are available in 4K and UHD up to 30fps as well as 2K and HD up to 60fps.“

Auch die oben verlinkte Methode ist nichts anderes als die Kompression in ein anderes (Video)Frame. Das hat nichts mit echtem RAW zu tun.
Darüber hinaus denke ich auch, dass HDMI nicht eben mal seinen Standard für proprietären Kram zur Verfügung stellt.
Dazu kommt noch, dass die höheren Bandbreiten auf HDMI über die Clock geregelt werden.
So gesehen ist HDMI für nicht Videosignale denkbar ungeeignet.
Und wenn der 5“Monitor PPR über HDMI macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Wir werden es abwarten müssen.

Space


Antwort von cantsin:

WoWu hat geschrieben:
Und wenn der 5“Monitor PPR über HDMI macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?! (Ich denke da an alte Computerzeiten - Modemtechnologie und uuencode/uudecode -, aber auch heutige Methoden, um z.B. Netzwerkprotokolle durch andere Netzwerkprotokolle zu tunneln.)

Space


Antwort von nic:

WoWu hat geschrieben:
Fraglich, was da wirklich auf HDMI ausgegeben wird ...

„The Sony FS RAW Record Option features a unique RAW-to-video mode, where the 4K RAW data is deBayered and turned into high quality video, which is then captured in Apple ProRes. Although all formats are derived from the 4K RAW data, recordings are available in 4K and UHD up to 30fps as well as 2K and HD up to 60fps.“

Auch die oben verlinkte Methode ist nichts anderes als die Kompression in ein anderes (Video)Frame. Das hat nichts mit echtem RAW zu tun.
Darüber hinaus denke ich auch, dass HDMI nicht eben mal seinen Standard für proprietären Kram zur Verfügung stellt.
Dazu kommt noch, dass die höheren Bandbreiten auf HDMI über die Clock geregelt werden.
So gesehen ist HDMI für nicht Videosignale denkbar ungeeignet.
Und wenn der 5“Monitor PPR über HDMI macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Wir werden es abwarten müssen.
Du verwechselst da etwas. Convergent Design beschreibt in dem Text was rekorderseitig passiert. Das debayering nimmt deren Gerät vor und nicht die Kamera. Die gibt nämlich ein 12bit lineares Sensorsignal aus.

Space


Antwort von wolfgang:

Und Atomos macht das gleiche Spiel. Wobei das Sony Signal ja sehr wohl noch komprimiert ist.

Space


Antwort von Jott:

cantsin hat geschrieben:
Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?!

Auf dvxuser wurde das Thema raw über HDMI schon öfters mal diskutiert.

Mitch Gross, Panasonic Product Manager (unzweifelhaft jemand, der Bescheid weiß):

"So if you were to build a device with RAW output over HDMI, you would likely also have to build the device on the other end. And if you are going to do that, you are going to be spending a lot of time and money to make this system work, and it will all be a technical cheat and jumping through a lot of hoops in order to make it work with the limiting factors of the signal path that must be adhered to in order to remain HDMI-compliant ... so short answer is yes it is technicaly possible to send RAW over HDMI."

Mal schauen, vielleicht wird der "Trick" ja von Atomos und dem einen oder anderen Kamerahersteller so gepusht und salonfähig.

Space


Antwort von cantsin:

Jott hat geschrieben:
And if you are going to do that, you are going to be spending a lot of time and money to make this system work, and it will all be a technical cheat and jumping through a lot of hoops in order to make it work with the limiting factors of the signal path that must be adhered to in order to remain HDMI-compliant ...
so short answer is yes it is technicaly possible to send RAW over HDMI."

Mal schauen, vielleicht wird das ja von Atomos zu gepusht und salonfähig.
Gehen wir mal davon aus, dass Atomos in diesen Entwicklungsaufwand investiert hat. Die wollen ja im Zeitalter von interner 10bit-Aufzeichnung in Prosumerkameras kein Auslaufmodell werden und Leuten weiterhin Gründe geben, die Extrakosten und Mühen der externen Aufzeichnung nicht zu scheuen.

Space


Antwort von Funless:

Jott hat geschrieben:
Mal schauen, vielleicht wird der "Trick" ja von Atomos und dem einen oder anderen Kamerahersteller so gepusht und salonfähig.
Ich vermute ganz stark, dass es sich in diese Richtung bewegen wird.

Space


Antwort von DV_Chris:

In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online

Space


Antwort von WoWu:

cantsin hat geschrieben:
WoWu hat geschrieben:
Und wenn der 5“Monitor PPR über HDMI macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?! (Ich denke da an alte Computerzeiten - Modemtechnologie und uuencode/uudecode -, aber auch heutige Methoden, um z.B. Netzwerkprotokolle durch andere Netzwerkprotokolle zu tunneln.)
Denkbar ist das schon, Arri macht ja sowas mit seinem T-link RAW auch, nur eben über Dual SDI. Wenn man das Ganze mit den nötigen Timings versieht, kommen da auch Daten in einem Videosignal verpackt raus.
Damit ist das dann aber keine HDMI Schnittstelle mehr sondern nur noch ein HDMI Stecker mit Kabel denn HDMI besteht ja immer aus einem Sender und einem Empfänger, die ein Handsake voraussetzen.
Nimmt man aber die Schnittstelle, müsste beides ersetzt werden und hätte dann nichts mehr mit HDMI zu tun.
Frage ist ja auch, warum man dann nicht lieber über SDTI als Datenschnittstelle geht.
Aber wir werden es morgen ja sehen oder spätestens, wenn jemand mal so eine Kette betreibt.
Aber so oder so müssten sich erst mal genügend Hersteller finden, die solche Hardwareeingriffe mitmachen.
Wenn ADOBE für ihr relativ einfaches Verfahren keine Mitstreitet gefunden hat, dann fragt sich’s ob es Apple da anders geht.
ADOBE ist ja auch daran gescheitert, dass die Hersteller ihre Prozessspezifischen Daten nicht in die Metadaten eingefügt haben und das RAW Signal dann interpretiert werden musst, was zu deutlichen Abweichungen geführt hat.
Warum sollten sie ihre RAW „Geheimnisse“ nun Apple anvertrauen ?

Ich bin da noch skeptisch.
Freuen würde es mich, wenn sie, wie ich oben schon angemerkt habe, in die Vectorübertragung gehen würden.
Das wäre endlich mal ein signifikanter Schritt nach vorn.

Space


Antwort von WoWu:

DV_Chris hat geschrieben:
In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online
? ich krieg da nur ein Werbeposter ?

Space


Antwort von DV_Chris:

Für alle, die sich etwa auf die FS5Mk2 freuen: die Sony PK beginnt um Mitternacht, also in zwei Stunden.

Space


Antwort von Jott:

DV_Chris hat geschrieben:
In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online
Das war schon im Februar rumgegeistert:

http://www.fcp.co/final-cut-pro/article ... o-x-at-bve

Space


Antwort von cantsin:

WoWu hat geschrieben:
DV_Chris hat geschrieben:
In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online
? ich krieg da nur ein Werbeposter ?
Ich verstehe das so, dass jetzt auch Hardware-Gradingpanels, die es bisher nur für Resolve & Co gab, für FCPX angeboten werden. Für einen Markt/Bedarf, der offenbar durch ProRes Raw gerade geschaffen wird.

Space


Antwort von DV_Chris:

Da geht es ja nicht nur um das Panel sondern auch um die Grading Software, die als Plugin in FCPX läuft. Spannende Woche.

Space


Antwort von WoWu:

Hmmm.
ob man da jetzt nicht zuviel hineininterpretiert ?
Warum sollten sie ihr Panel und ihre Software nicht auch für FCP anbieten und zur NAB in den Markt bringen ?
Na ja, wir werden es sehen.

Space


Antwort von motiongroup:

viewtopic.php?f=29&t=140576&p=937581#p937581

Interessierte nur keinen Menschen.. ;)

@Dr.

Na klar wird hier zu viel hineininterpretiert...

Das war immer so und wird immer immer so sein.. wie auch bei Prores ..

Es wird einefach verwendet werden auch wenns es von den Gurus als veraltet, dreck, unnötig, nicht kostenlos usw erscheint..
Die Windowsfraktion braucht sich doch eh keine Sorgen machen.. erstens haben sie genug Auswahlmöglichkeiten bis hin zu unkomp und dem allseitsgeliebten Cineform und lesen Werders ihr es alle können nur exportieren nur gewisse die sich auch ein Programm dafür nehmen und dafür blechen was wiederum legitim für Apple ist da es alle anderen auch so tun..

Freut euch doch auf etwas neues.. die Welt ist doch Trist genug...

Space


Antwort von nic:

Kinefinity wird wohl auch PRR implementieren.

https://www.newsshooter.com/2018/04/09/ ... vo-primes/

Space


Antwort von blickfeld:

im nächsten ae und pre update ist prores raw wohl auch mit drin. wird wohl nur ein paar tage dauern, so wie es aussieht. ob man es braucht, ist wieder rum eine andere frage, die der markt klären wird.

Space


Antwort von nic:

blickfeld hat geschrieben:
im nächsten ae und pre update ist prores raw wohl auch mit drin. wird wohl nur ein paar tage dauern, so wie es aussieht. ob man es braucht, ist wieder rum eine andere frage, die der markt klären wird.
Quelle?

Space


Antwort von blickfeld:

die öffentlich zittierbare quelle: We’re looking into adding support for ProRes RAW as we speak.
https://adobe-video.uservoice.com/forum ... _id=332668 und mehr habe ich nicht gesagt ;).

Space


Antwort von R S K:

Ist ja auch wahrlich keine Überraschung. BMD dann nächste Woche.

- RK

Space


Antwort von DV_Chris:

Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProRes RAW.

Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProRes RAW.
Absolut. Und hat komprimierte CDNG (3:1, 4:1) Varianten.

Space


Antwort von R S K:

wolfgang hat geschrieben:
Und hat komprimierte CDNG (3:1, 4:1) Varianten.
Mache grad die ersten Tests. Ist von der Performance her nicht mal im Ansatz zu vergleichen.

- RK

Space


Antwort von wolfgang:

ProRes RAW wird in der Liste der unterstützen codecs NICHT aufgeführt.

https://www.blackmagicdesign.com/manual ... c_List.pdf

Space


Antwort von wolfgang:

Und auch nach erfolgter Installation des Beta1 wird ProRes RAW eben NICHT unterstützt.

Space


Antwort von R S K:

Ach so… weitere Updates sind also nie wieder geplant? Schade.

😏

Du glaubst doch nicht wirklich, dass wenn sogar Adobe auf den Zug aufspringt, dass die nicht nachziehen? Nur weil es am ersten Tag und in einer BETA nicht so ist, ist alles klar, oder wie? Wer's glaubt.

Und wenn… bestenfalls deren Problem. Wir werden ja sehen.

- RK

Space


Antwort von WoWu:

War nicht auch bisher nur vom 5“ Monitor im Zusammenhang mit PRR die Rede ?

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProRes RAW.
Interviewer: "... and in terms of codecs? Recording codecs? It keeps the old ones?"
Grant Petty: "Yes, obviously we do RAW, ProRes, and,er, and ... ... we can add other codecs of course ..."

Space


Antwort von nic:

WoWu hat geschrieben:
War nicht auch bisher nur vom 5“ Monitor im Zusammenhang mit PRR die Rede ?
Shogun Inferno und Sumo sind die SDI-Raw-Rekorder.

Space


Antwort von WoWu:

Ja, verstehe ...
Nur interessant ist ja die Verbindung zu HDMI.
mal sehn, ob das wirklich klappt.
Da müsste ja während der NAB auch schon mal jemand in der Lage sein, das zu verifizieren.

Space


Antwort von DV_Chris:

Grant Petty hat bei der Präsentation eben ProRes RAW mit keinem Wort erwähnt. Auch bei Sony oder Canon hört man nichts auf der NAB. Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.

Space


Antwort von WoWu:

Wenn man dem Intetview von Atomos (Jeromy Young ) auf der NAB glauben darf, kann der neue Ninja V das auch noch nicht ...(sometimes in the future).
Denn der Ninja soll das ja auch über HDMI kriegen.

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Grant Petty hat bei der Präsentation eben ProRes RAW mit keinem Wort erwähnt. Auch bei Sony oder Canon hört man nichts auf der NAB. Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.
Kommt Zeit kommt Rat.

Es ist anscheinend so, wie ich vorgestern schrieb. Axel hat geschrieben:
Apple hätte wenig davon, PRR gegen eine bescheidene Gebühr unter‘s Volk zu bringen. Da dieses hier so eine Art Vorhersage-Wette wird, hier meine: PRR wird nichts welterschütternd Neues, nur eine Art aufgebohrtes Cineform Raw mit etwas schlankeren Datenraten. Es wird für wenigstens ein Jahr nicht auf Resolve verfügbar sein und deswegen wohl auch nicht auf BM Kameras. Denn die sind, wie cantsin sehr richtig sagte, das „Raw für jedermann“. Nicht allein durch CDNG auf ihren günstigen Kameras, sondern durch die Software, das „Ökosystem“. Das will FCP jetzt auch schaffen, mit einem alternativen Ansatz.
Damit also wollte man gar keinen Industriestandard schaffen, sondern im Gegenteil ein proprietäres Gemauschel zwischen Atomos und Apple. PRR schnell überall zu verbreiten wäre doch ganz leicht gewesen.

Space


Antwort von WoWu:

Jeromy Young hat in dem Interview aber ziemlich deutlich den Wunsch, einen neuen Standard zu schaffen, Ausdruck verleiht.
„ Panasonic .... give me HDML RAW...“

https://youtu.be/0l3tknMX6wk

Space


Antwort von wolfgang:

"R S K" hat geschrieben:
Ach so… weitere Updates sind also nie wieder geplant? Schade.
Sagt wer? Wir reden bei Resolve 15 Studio Beta1 von einem public beta, und weil es wohl ziemlich unwahrscheinlich ist dass es bei dem public beta bleibt wird es wohl ein weiteres beta geben, und dann noch eines.... also bitte.

Aber Fakt ist, dass die gerade angekündigte Pocket eben NICHT auf ProRes Raw setzt, und dass das Beta1 von Resolve eben dieses Format nicht kann. Das werden sogar hardliner wie du zur Kenntnis nehmen müssen.

Space


Antwort von Jott:

DV_Chris hat geschrieben:
Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.
Aber wenn's stimmt, das Adobe mitspielen wird ...

Space


Antwort von DV_Chris:

Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.

Space


Antwort von WoWu:

Es wäre ja schon mal schön, wenn irgend eine Kamera mitspielen würde denn auch BMDs Ninja 5 kann es ohne Kamera nicht.

Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.
Ja aber gerade BM hält sich nicht eisern an solche Regeln.

Space


Antwort von DV_Chris:

Jott hat geschrieben:
DV_Chris hat geschrieben:
Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.
Aber wenn's stimmt, das Adobe mitspielen wird ...
Es werden wohl mehrere NLE das Format lesen können. Ist halt die Frage, wie weit oben das auf der Prioritätenliste steht.

Aber wenn die Akquisition ausschließlich zwei externen Rekordern vorbehalten sein wird, ist das eine reine Nischenveranstaltung. Und bei BMD sieht alles nach einem klaren Nein aus.

Apropos Rekorder: weder von Convergent Design noch AJA gibt es ein Wort zu PRR. Im Gegenteil, AJA unterstützt jetzt Avid DNxHR .

Space


Antwort von WoWu:

Die Recorder nutzen auch noch nix.

Davor muss ein Sensor sitzen und ein Kamerahersteller, der den Codec implementiert hat.
Wenn irgend eine BMD Kamera das könnte, hätten sie es sicher gezeigt.

Space


Antwort von motiongroup:

wolfgang hat geschrieben:
DV_Chris hat geschrieben:
Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.
Ja aber gerade BM hält sich nicht eisern an solche Regeln.
Sie halten sich nicht nur nicht in der BETAPhase daran auch in der final REL wurden immer wieder neue eingepflegt.. ;)

Space


Antwort von DV_Chris:

Es gibt zwei Gründe, warum BMD das PRR wohl nicht so schnell implementieren wird:

1. Die haben seit Jahren einen funktionierenden CDNG Workflow.

2. Atomos ist ein direkter Konkurrent.

Space


Antwort von WoWu:

Und was soll dann der Codec ?

Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Es gibt zwei Gründe, warum BMD das PRR wohl nicht so schnell implementieren wird:

1. Die haben seit Jahren einen funktionierenden CDNG Workflow.

2. Atomos ist ein direkter Konkurrent.
3. Das Verhältnis der beiden Gründer zueinander ;)

Space


Antwort von Frank Glencairn:

DV_Chris hat geschrieben:

2. Atomos ist ein direkter Konkurrent.
...und ex BM Angestellter :-)

Space


Antwort von WoWu:

Das ganze Thema kann man doch getrost ad acta legen.
PRR ist weder irgendwo implementiert, noch unterstützt der neue NINJA das Format.
Insoweit ist es auch ziemlich egal, ob irgend ein NLE das jemals unterstützt, solange es keine Kameras gibt, die das ausgeben und wie es scheint, kann auch die neue BMD Pocket das noch nicht.

Worüber reden wir also ?
Über einen Codec, der die Bezeichnung RAW trägt, von dem aber niemand weiß, ob es sich um ein echtes RAW Format handelt oder wieder nur so ein pseudo RAW-Video, wovon es nun wirklich schon ausreichend gibt und von dem es noch nicht einmal eine Beurteilungsgrundlage für die Qualität gibt.
Mal ganz davon abgesehen, dass auch nicht klar ist, wie die hardwarspezifischen Eigenschaften der Kameras in dem Codec behandelt werden, woran ja schon ADOBE gescheitert ist.

Viel Lärm also, um nichts.

Space


Antwort von Jott:

Wenn ich richtig zähle, sind‘s am ersten Messetag schon 9 Kameras, die kompatibel sind. Sony und Panasonic gehören dazu. Viel Lärm, ja, aber wirklich um nichts?

Zum Beispiel:

https://www.redsharknews.com/production ... -fs5-fs5ii

Space


Antwort von wolfgang:

Das würde ich auch so sehen. Der „Lärm“ dürfte lauter werden. Die Sache wird etwa von NLE Herstellern sehr genau beobachtet werden.

Space


Antwort von WoWu:

Wenn da man nicht der Wunsch Vater des Gedankens ist.

Space


Antwort von DV_Chris:

9 Kameras (davon zwei bereits EOL) extern auf zwei Rekorder in eine NLE. Dünn.

Space


Antwort von rush:

DV_Chris hat geschrieben:
9 Kameras (davon zwei bereits EOL) extern auf zwei Rekorder in eine NLE. Dünn.
Naja aber ist doch immerhin ein "Anfang".

CDNG ist auch nicht sonderlich verbreitet wenn man mal ehrlich ist.
Ganz zu schweigen von all den proprietären Lösungen.

Ich sehe da aber auch viel eher die Softwarehersteller in der Pflicht, denn ob Pro Res RAW zu einem "Standard" werden könnte sehe ich eher skeptisch, muss es ja aber vielleicht auch gar nicht... Im Fotobereich gibt es ja auch diverse RAW-Formate wie NEF's, CRW, ORF, ARW's und Co und letzten Endes ist es Aufgabe des RAW-Konvertes die verschiedensten Formate lesen und interpretieren zu können... DNG bietet zwar eine Cross-Konvertierungsmöglichkeit bzw lassen sich viele RAW-Formate dahingehend wandeln... in die Kameras selbst hat es DNG - genauso wenig wie CDNG dagegen kaum direkt geschaft.

Space


Antwort von DV_Chris:

Wie ich schon geschrieben habe:

Aktuell weder Thema bei Sony, Canon. BMD, Convergent Design und AJA.

Space


Antwort von rush:

Habe mich nicht weiter damit beschäftigt - aber zumindest für die fs5 und fs5II von Sony ist extern per Atomos Sdi Recorder proRes RAW machbar.... Intern kann die kleine eh kein RAW, daher spielt Sony zumindest indirekt mit wenn sie die Möglichkeit geben das entsprechend rauszugeben.

Und das 1-2 Tage nicht all sofort an Board sind dürfte auch klar sein...

Ich bin ja auch skeptisch aber schauen wir einfach Mal was die Zeit so bringt.

Space


Antwort von Jott:

Bleiben wir mal sachlich: die Bestsellerkamera
FS5 kriegt eine neue Firmware für das ProRes RAW-Recording. Die Mark II ist sowieso schon dabei. Die EVA auch, 5,6K raw ist doch nett? Auch die anderen mit Atomos/ProRes RAW spielenden genannten Kameras sind nicht gerade Exoten. Wie viele FS7 und FS700 gibt es da draußen? Schon mehr als eine Handvoll.

ProRes RAW gibt es jetzt seit - öhm - gerade mal einem Tag. Wie sieht‘s in einem Jahr aus? Weiß doch keiner. Auch nicht das traditionelle ProRes/Apple-Niedermach-Pärchen DV-Chris/wowu. Ihr beide habt keinerlei Einfluß auf den Lauf der Dinge. Auch nach all den Jahren gibt es Apple immer noch, es wächst und gedeiht, der Kampf fruchtet einfach nicht! :-)

Und müssen tut sowieso niemand, nicht wahr? Was sich zeigen wird ist, ob die anfängliche Schnittmenge aus fcp x-Nutzern, Atomos- und Kamerabesitzern happy sein wird mit dem neuen RAW-Workflow und den Resultaten. Es wird berichtet werden. Auch bald aus dem Adobe-Lager?


Patrick Palmer (Sr. Product Manager, Adobe DVA) auf deren Seite für Feature Requests:

„We’re looking into adding support for ProRes RAW as we speak.“

Space


Antwort von TomStg:

Jott hat geschrieben:
Auch nach all den Jahren gibt es Apple immer noch, es wächst und gedeiht, der Kampf fruchtet einfach nicht! :-)
Randbemerkung
Apples Existenz und Erfolg hat Gottseidank wirklich nichts mit den Usern hier zu tun - egal, ob Niedermacher oder Fanboys. Etwas mehr hat es mit der Rechner- und Softwaresparte zu tun:
Aber Apples Erfolg beruht zu rund 85% auf den Verkäufen von Smartphones einschl iTunes und nachlassend auf den Tablets. Rund 11% des Umsatzes beruhen auf der Mac-Sparte. Nachzulesen zB in Apples Annual Report, Form 10-K. Welche Anteile die Sparten jeweils am Gewinn haben, bleibt zwar Apples Geheimnis, allerdings sind dort keine grundsätzlich andere Anteile anzunehmen.

Also: Apples Erfolg an der Rechner- und Softwaresparte ablesen zu wollen, geht an der Realität weit vorbei - auch wenn es dort im letzten Berichtsjahr eine leichte Erholgungstendenz gab.

Space


Antwort von wolfgang:

Richtig ist sicher, dass man nicht weiß wie sich das entwickelt. Diese „nur 9 Geräte“ haben allerdings im Markt der unter $10.000 Geräte ein gewisses Gewicht.

Und dass NLE Hersteller sogar für Einzelgeräte wie die C200 eine Implementierung für raw etwa in Edius gemacht haben, ist halt auch Fakt. Also warten wir mal ab.

Space


Antwort von R S K:

wolfgang hat geschrieben:
"R S K" hat geschrieben:
Ach so… weitere Updates sind also nie wieder geplant? Schade.
Sagt wer?
Ah. Ich sehe ein wenig Sarkasmus ist also nicht deine Stärke. Ok. 😄

- RK

Space


Antwort von R S K:

WoWu hat geschrieben:
… aber niemand weiß, ob es sich um ein echtes RAW Format handelt oder wieder nur so ein pseudo RAW-Video…
Jepp. WP lesen ist tatsächlich viel zu viel verlangt. Gut erkannt Jott. ;)

WoWu hat geschrieben:
Viel Lärm also, um nichts.
Das qualifizierst du dann prompt tatsächlich einfach selbst.
WoWu hat geschrieben:
Wenn da man nicht der Wunsch Vater des Gedankens ist.
👍🏼

- RK

Space


Antwort von DV_Chris:

Jott, die NAB ist nun mal der größte Branchenevent des Jahres. Dort wird das angekündigt, was dann meist in 6-9 Monaten noch nicht lieferbar/implementiert ist. Hauptsache "spread the news".

Und was passiert gerade mit ProRes RAW? Kein Kamerahersteller spricht von einer Implementierung. Kein Rekorderhersteller neben Atomos erwähnt das neue Format. Aja trommelt, dass man DNxHR implementiert hat. Alle NLE Hersteller winken vorerst mit "we're looking into it" ab.

Somit bleibt bis dato, was man seit dem Wochenende weiß: Atomos wollte das Format aus Leistungsgründen. Durch die langjährige Geschäftsbeziehung war Apple erster Ansprechpartner. Damit auch die Implementierung in FCPX.

Also man nehme Besitzer einer kompatiblen Kamera, die dazu einen Shogun Inferno haben und FCPX nutzen. Was bleibt? Eine Nischenveranstaltung. Industriestandard sieht anders aus.

Space


Antwort von wolfgang:

Richtig, Atomos hat das gebraucht um die bestehende Hardware nutzen zu können. Aber das finde ich absolut ok. Was nicht mehr ok ist, das ist wenn Hersteller wie Panasonic 5.7K raw versprechen. Und es nach diesem Versprechen zulassen dass reine Nischenlösungen wie PRR entstehen. Denn ich hoffe dass PRR auch in Windiws Lösungen einzieht, aber derzeit kann man das nur hoffen und steht damit doch ziemlich im Regen.

Space


Antwort von Jott:

DV_Chris hat geschrieben:
Was bleibt? Eine Nischenveranstaltung.
Du übst als PC-Händler schon wieder Verkaufsgespräche, was?

"ProRes Raw? Sinnloser Apple-Dreck. Ich bau dir einen schönen Edius-Rechner, was willst du mit unprofessionellem Zeugs? Apple ist längst raus aus der Profiwelt. Kein Mensch arbeitet mit so was. Schieß dir nicht ins Knie."

Ich kann leider nicht überzeugend in Wiener Dialekt schreiben! :-)

Space


Antwort von R S K:

😂… wieder voll auf den Punkt.

Space


Antwort von R S K:

wolfgang hat geschrieben:
… reine Nischenlösungen wie PRR…
Das weißt du schon am zweiten Tag dessen Existenz. (naja, genauer schon seit einer Woche, oder?) Faszinierend.

Wieso hört sich das auch alles so unheimlich bekannt an? Hmm... wie so ein sechs Jahre alter Echo oder sowas.

- RK

Space


Antwort von DV_Chris:

Jott, hättest Du aufmerksamer gelesen dann wüsstest Du, dass ich den Ansatz als durchaus interessant empfunden habe. Und natürlich findest Du kein schlechtes Wort in Richtung Apple von mir in diesem Thread. Warum auch? Die Idee ist ja auch von Atomos.

Was seit gestern klar ist. Niemand kümmert das neue Format. Oder glaubst Du ernsthaft, Hersteller würden die NAB ungenutzt für Ankündigungen verstreichen lassen?

Also einfach die Kirche im Dorf lassen und die Ankündigung so lesen wie es ist:

Atomos bietet seit gestern einen neuartigen Resourcen schonenden RAW Workflow für FCPX an. Super für die FCPX Nutzer. Punkt.

Nachtrag: solche Formate werden über Monate/Jahre entwickelt und da gibt es viele Meetings. Sehr lustig, wenn Dein kleiner Claqueur suggerieren will, dass die grossen Unternehmen erst seit dem Interview von Jeromy davon wissen ;-)

Space


Antwort von dienstag_01:

Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein Format *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?

Space


Antwort von DV_Chris:

dienstag_01 hat geschrieben:
Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein Format *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?
Ist erstmal richtig. Niemand kennt aber die Patent- und Lizenzsituation dahinter. Nachdem sich Jeromy eine breite Unterstützung wünscht, werden wohl auch geschäftliche (read: monetäre) Interessen dahinter stehen.

Space


Antwort von dienstag_01:

DV_Chris hat geschrieben:
dienstag_01 hat geschrieben:
Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein Format *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?
Ist erstmal richtig. Niemand kennt aber die Patent- und Lizenzsituation dahinter. Nachdem sich Jeromy eine breite Unterstützung wünscht, werden wohl auch geschäftliche (read: monetäre) Interessen dahinter stehen.
Klar, ich würde aber als direkter Konkurrent sehr sensibel darauf achten, dass da nicht die Bäume in den Himmel wachsen. Was mit einer Art Standard schnell passieren könnte.
Mal anders gedacht (oder besser: spekuliert), vielleicht ist die EVA 1 ja schon die erste leidtragende eines klitzekleinen Formatkrieges ;)

Space


Antwort von wolfgang:

Jott hat geschrieben:
DV_Chris hat geschrieben:
Was bleibt? Eine Nischenveranstaltung.
Du übst als PC-Händler schon wieder Verkaufsgespräche, was?

"ProRes Raw? Sinnloser Apple-Dreck. Ich bau dir einen schönen Edius-Rechner, was willst du mit unprofessionellem Zeugs? Apple ist längst raus aus der Profiwelt. Kein Mensch arbeitet mit so was. Schieß dir nicht ins Knie."

Ich kann leider nicht überzeugend in Wiener Dialekt schreiben! :-)
Jott man soll niemals Nie sagen. Von den potentiellen Vorteilen her kann PRR schon was sein. NUR wenn es die Industrie nicht passend adaptiert stirbt das potentiell beste System.

Die Vision des Atomos-Gründes fände ich schon gut - aber ob wie aufgeht wird hier in Summe eh stark angezweifelt.

Space


Antwort von DV_Chris:

Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen Format keine wirkliche Bedeutung zumisst. Auf Wienerisch: jo, eh (schau ma uns an aber brauch ma ned, hamma eh an eigenen Workflow)

Space


Antwort von Jott:

Wieso sterben? Ist jemals eine ProRes-Variante gestorben? Die wurden nur immer wieder ergänzt, wie jetzt halt wieder, und nach und nach bauen die üblichen Verdächtigen die neuen Varianten ein.

Worst case: ProRes Raw bleibt etwas Hübsches im Apple-Umfeld. Wenn 2,5 Millionen fcp-Nutzer so was bekommen, wird das rege genutzt werden, da stirbt ganz sicher nix, reicht.

Best case: Adobe spielt mit, wie angeteasert. Zuungunsten des unglücklichen CinemaDNG oder parallel dazu. Zweiter Schlüssel, vielleicht noch wichtiger: Arri. Die werden bereits bedrängt, das zu implementieren. Liegt ja auch nahe, wäre wohl wie bei Atomos nur ein Firmware-Update.

Warten wir mal ein halbes Jahr ab?

Für uns ist das jedenfalls nett. Eine FS5 II kommt sowieso, nicht wegen raw, sondern weil gerade was anderes rausfliegt. Allerdings haust direkt neben uns ein großer Verleiher mit prall gefülltem Shogun-Regal. Brauch ich wirklich mal raw, kann ich einen holen für ein paar Euro. Und wenn's in fcp x so flutscht wie versprochen (ich hab's noch nicht testen können), dann wüsste ich nicht, nach welchem Haar in der Suppe ich noch suchen sollte. Dass andere das als Hobby betreiben (das Haar-in-der-Suppe-suchen) sei ihnen gegönnt, wieso auch nicht.

Space


Antwort von Jott:

DV_Chris hat geschrieben:
Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen Format keine wirkliche Bedeutung zumisst.
So? Was hörst du da bei 7:58? Er sagt, es ist zwar jetzt noch nicht implementiert, aber "of course we are looking into it", wie Adobe. Lass sie doch alle erst mal "looken"! :-)

Space


Antwort von R S K:

DV_Chris hat geschrieben:
Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen Format keine wirkliche Bedeutung zumisst.
Ja klar. Das sie es nicht erwähnen kann KEINEN anderen Grund haben. Niemals. Welch geniale Schlussfolgerung.

Jedenfalls wenn sie einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM (ganz von den Kameras selbst zu schweigen), dann wären sie gut beraten PR raw als Option anzubieten (was sie auch tun werden). Dass sie im Moment darüber schweigen kann genauso politische oder gar rechtliche Gründe haben. Das kannst du kaum wissen. Wer hindert sie daran cDNG weiterhin zu behalten?? Die zahlen doch SOWIESO schon für die PR-Lizenz. Oder meinst du mit PR raw werden plötzlich MILLIONEN mehr fällig, Apple hat keine SDK und/oder APIs was ihnen schon die Arbeit abnimmt, dass sie auch keine Millionen an R&D verschleudern müssen? 🙄

PR raw mit cDNG vergleichen zu wollen oder so zu tun als „ist doch supi! reicht doch!” ist jedenfalls echt lustig. Nach meinen ersten vorsichtigen Tests auf einem mittelprächtigen Rechner zu urteilen erst recht. Es haben hier auch schon einige (zu recht) gesagt wie unsäglich sie cDNG finden hinsichtlich der Verwaltung, von der noch unerträglicheren Performance (die keine ist) ganz zu schweigen. Ich sag nur: Tag und Nacht der Unterschied zu PR raw. Auch unter der Annahme, dass die Qualität (bestenfalls im messbaren Bereich) „schlechter” sein könnte, wenn raw für mich ein Muss wäre, dann wüsste ich schon ganz genau welche Formate für mich in Frage kämen und cDNG wäre mit Sicherheit NICHT dabei. Dagegen ist ja sogar RED raw Lichtgeschwindigkeit. Kenne auch niemand der sich drum reißt es jemals zu benutzen oder es je für mehr als vielleicht einen Testlauf benutzt hat (um es dann nie wieder anzufassen). Oder will hier jemand behaupten er/sie benutzt es regelmäßig und es ist aus ihrem Workflow nicht mehr wegzudenken? 😂 Wohl kaum. Da muss man sich doch fragen warum wohl, obwohl es vermutlich oft die weit bessere qualitative Wahl wäre als irgendwas anderes „ProRes” oder? Darfst das gerne erklären. Und wenn PR raw genau die Negativen ins positive dreht (Kamerahersteller unabhängig, die Kameras selbst brauchen keine MEGA-Prozessoren oder Durchsatz um es zu bearbeiten/speichern, Handhabung wie mit jedem anderen Clip, sogar auf „schwache” Rechner abspielbar, sogar in MULTICAMS zu nutzen ohne Transcodieren oder oder und und und und), dann kann man sich sehr leicht vorstellen, dass das ein neuer Standard wird, ja.

Als ob die Tatsache, das die div. neuen Geschmacksrichtungen von ProRes in ELF JAHREN je darunter gelitten hätten, dass sie nicht schon am allerersten Tag (oder gar im ersten Monat) überall zu haben waren. Was für eine wirre Logik.

Was wirklich passiert sehen wir ja in den nächsten Wochen und Monate. Alles andere ist nur sieben Seiten sinnbefreiter Spekulation, haltlose Unterstellungen und Wunschdenken. Ja, auch von mir, logisch. Nur denke ich, dass die Logik sich doch deutlich mehr auf meine (und Jotts etc.) Seite schlägt. Abwarten.

- RK

p.s. ich weiß schon genau den einen Satz auf dem eingegangen wird… Obacht…

Space


Antwort von dienstag_01:

Jott hat geschrieben:
Wieso sterben? Ist jemals eine ProRes-Variante gestorben? Die wurden nur immer wieder ergänzt, wie jetzt halt wieder, und nach und nach bauen die üblichen Verdächtigen die neuen Varianten ein.

Worst case: ProRes Raw bleibt etwas Hübsches im Apple-Umfeld. Wenn 2,5 Millionen fcp-Nutzer so was bekommen, wird das rege genutzt werden, da stirbt ganz sicher nix, reicht.

Best case: Adobe spielt mit, wie angeteasert. Zuungunsten des unglücklichen CinemaDNG oder parallel dazu. Zweiter Schlüssel, vielleicht noch wichtiger: Arri. Die werden bereits bedrängt, das zu implementieren. Liegt ja auch nahe, wäre wohl wie bei Atomos nur ein Firmware-Update.

Warten wir mal ein halbes Jahr ab?

Für uns ist das jedenfalls nett. Eine FS5 II kommt sowieso, nicht wegen raw, sondern weil gerade was anderes rausfliegt. Allerdings haust direkt neben uns ein großer Verleiher mit prall gefülltem Shogun-Regal. Brauch ich wirklich mal raw, kann ich einen holen für ein paar Euro. Und wenn's in fcp x so flutscht wie versprochen (ich hab's noch nicht testen können), dann wüsste ich nicht, nach welchem Haar in der Suppe ich noch suchen sollte. Dass andere das als Hobby betreiben (das Haar-in-der-Suppe-suchen) sei ihnen gegönnt, wieso auch nicht.
Ja, nett. Wenn man sieht, in welche Richtung es bei anderen Herstellern geht, RAW-Aufzeichnung intern oder mit Standardkomponenten, könnte man auch sagen, netter Versuch ;)
Aber vielleicht wird es ja doch der Burner, würde mich nicht wundern.

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:

Jedenfalls wenn sie einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM
Wieder der übliche völlig unqualifizierte RSK-Unfug.

Jeder Depp sollte mittlerweile wissen, das CDNG den Prozessor quasi schlafen lässt.
Im unterschied zu RED mit seinem hokomprimierten Material, wo du wirklich jede Menge Kerne für Echtzeit brauchst.
Daß jede mittelprächtige Gamer-GPU mit 4GB VRAM für 4k Material bequem reicht sollte sich auch mittlerweile rumgesprochen haben.
Das einzige was man braucht sind ein paar halbwegs schnelle Platten, was aber 2018 kein Thema mehr ist. Selbst ein billiges Software Raid 0 aus 2 4TB Hitachi oder Baracudas langt völlig für Echtzeit.
"R S K" hat geschrieben:

Oder will hier jemand behaupten er/sie benutzt es regelmäßig und es ist aus ihrem Workflow nicht mehr wegzudenken? 😂 Wohl kaum.
Yup, seit 2012 hab ich nichts mehr gedreht, daß nicht RAW war.
So bequem, schnell, effizient und hochwertig wie das ist, ich wär ja schön blöd was minderwertigeres zu nehmen.

Space


Antwort von DV_Chris:

Frank, ich bewundere Deine Geduld mit dem Subjekt.

Space


Antwort von R S K:

"Frank Glencairn" hat geschrieben:
Jeder Depp sollte mittlerweile wissen, das CDNG den Prozessor quasi schlafen lässt.
Echt blöd, wenn man vor lauter Apple-Frust-Hass-Schaum vor dem Mund nicht mehr genug Sauerstoff für den Bregen bekommt, um zu kapieren, dass ich vielleicht nicht ausschließlich cDNG, sondern raw Formate allgemein meinte, oder? Bei dem einen ist es von einen mehr, beim anderen vom anderen. Und wenn's nicht das ist, dann ist RAID-Level HD I/O nötig. Bei PR raw trifft nichts von alledem zu.

Aber schön, dass ich dir eine weitere Möglichkeit bieten konnte deinen inneren Kneipen-Asi raushängen zu lassen. You're welcome.

Ich empfehle entkoffeiniert. Und eine Therapie. 🤦🏼???

- RK

Space


Antwort von Jott:

Wird CDNG irgend jemandem weggenommen?

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:
.. um zu kapieren, dass ich vielleicht nicht ausschließlich cDNG, sondern raw Formate allgemein meinte, oder? Bei dem einen ist es von einen mehr, beim anderen vom anderen. Und wenn's nicht das ist, dann ist RAID-Level HD I/O nötig. Bei PR raw trifft nichts von alledem zu.
Klar ging's um DNG, war ja deine Antwort auf den Pocket Post von Chris. Das einzig andere raw Format, von dem du gesprochen hast war R3D, von dem du behauptet hast, es sei im Vergleich zu CDNG "Lichtgeschwindigkeit" - obwohl es in Wirklichkeit zig mal mehr Ressourcen braucht als CDNG. Du widersprichst dir also selbst.

Nice try - vielleicht versuchst du es nochmal mit einer konsistenten und schlüssigen Erklärung.

Space


Antwort von Roland Schulz:

Glaube bzgl. des Supports geht hier ein bisschen was durcheinander:

1. PPR ist BRANDNEU, dass das heute nicht alle Kameras und Recorder am Markt direkt unterstützen werden sollte klar sein.

2. warum muss eine Kamera die an einen (RAW-)Rekorder gebunden wird PPR unterstützen?! Das ist überhaupt keine zwingende Vorraussetzung! Die Kamera übergibt ihre Rohdaten in einem meist proprietären Format an den Recorder und erst der macht PPR, CDNG oder sonst was draus. In dem Fall hat die Kamera nichts damit zu schaffen. Die Frage ist einzig welcher Recorderhersteller das für welche Kamera adaptiert und ob ggf. Lizenzbindungen davon abhängen.
Als Alternative zum 3rd party Rekorder kommt es direkt aus der Kamera wenn vom Hersteller direkt oder per Update implementiert.

3. der Support in 3rd party NLEs kommt u.U. schneller als erwartet. GV hat z.B. Canon"s Cinema RAW light relativ schnell übernommen, aktuell mit Revision von heute noch mal stark optimiert (gilt zu prüfen). Wir haben hier zwar Canon dahinterstehen die bekanntlich nicht wenig Kameras umsetzen, denke aber dass es für einen Standard einer Branchengröße auch nicht anders aussehen wird zumal man mit Sony"s FS5/II auch keine ganz kleine Unbekannte ins Boot bekommen hat.
Adobe und BMD wird ggf. wieder etwas brauchen, denke aber dass das dort auch kommen wird.


"Ich" habe irgendwie nur noch nicht erkannt was der tolle neue PPR Standard denn nun überhaupt an wirklichem Benefit mitbringt. Wozu ein neuer Standard?!
Gut, geschlossene Clipdateien wären ggf. nen kleiner Schritt, aber wirklich satt macht sowas nicht. Gibt es irgendeine deutlich effizientere Kompression die einen Vorteil bringt, ggf. inter-/einzelbildübergreifend?! Es gibt eine Kompression, aber dass das jetzt der heilige Gral sein wird glaube ich auch nicht, dann würde man das stärker hervorheben.
Was soll die Optimierung auf schnelleres GPU Debayering?! Das sind Bayer RAW Daten, irgendwie verpackt, mehr nicht. Resolve macht CDNG auch über die GPU.
Ich kann da kein Optimierungspotential bzgl. schneller möglichem Debayering erkennen was nicht anders (CDNG...) auch möglich wäre.
Was ist PPR nun, nur ein Container..., Marketing...?! Braucht der Markt das?!

Was machen die EVA1 User die plötzlich mitgeteilt bekommen, dass ihre in gutem Glauben gekaufte, potentielle RAW Kamera nun volles Potential nur in PPR aber nicht in CDNG kann und man mit dem derzeitigen NLE ggf. erstmal auf dem Schlauch steht? Gab es vorher Indikationen in Richtung CDNG das man bereits mit dem vorhandenen NLE hätte schneiden können?! Hätte man CDNG vom Hersteller ableiten können weil bisher ausschließlich CDNG mit dem jeweiligen Recorder möglich war?!
Ich bin bei der EVA1 jetzt nicht 100% in der Phase, aber ein wenig käme ich mir wohl jetzt verprellt vor.

Also in meinen Augen ist PPR eigentlich überflüssig, ein neuer Standard der aber keine essentiellen technischen Revolutionen mit sich zu bringen scheint. Da können wir auch mit CDNG weitermachen und hätten schon mal ne gewisse Verbreitung.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Wird CDNG irgend jemandem weggenommen?
Jein, so wie es aussieht den EVA1 Usern. "RAW" war versprochen, Vollgas aber heute nur in PPR wo gestern bei dem Rec. Hersteller NUR CDNG auf der Speisekarte stand und man damit sofort hätte starten können.
Keiner hat hier wem was weggenommen, der Betrachterhorizont hat aber was anderes "gesehen" und steht erstmal wieder auf dem Schlauch. Eine Mafia ist das!!

Space


Antwort von motiongroup:

Absoluter Irrsinn was hier abgeht... so richtig vermisse hier nichts.. der Paris fehlt ein wenig...;)

Mal so am Rande, 4K war schon vor Jahren (für uns hier genau 2013) auf den passenden Maschinen Problemlos zu verarbeiten ohne sich ProResRaw herbeigesehnt zu haben..

Das selbige gebrabbel gibts doch von anti Prores Fraktion schon jahrelang zu hören ... was ist den das Konklusio daraus.. Prores ist gekommen um zu bleiben.. nicht nur unter OS X auch unter Windows und Linux.. Bm bespw bietet sogar einen Export unter Centos an.. auch die Windowsfraktion kann in fast allen Fällen lesen und selbst die billigheimer wie Magix sogar exportieren... kein Grund also ewig ein Fass aufzumachen..

ProResRaw wird nach und nach kommen wie auch Prores weil sich die Anbieter gar nicht erlauben können es nicht zu unterstützen..

Das ewig gleichen Personen wie Chris bspw ein Fass deshalb aufmachen liegt in der Natur der Sache.. erstnehmen werden das die meisten so oder so nicht... ebenso wie der Aufhänger das eine EVA frecher weise dieses Format aktuell nur fcpx als bearbeitbar versteht.. Frech auch das sich die Hersteller einen Tag nach Rel zu keiner verbindlichen Aussage hinreißen ließen.. was mich wundert das ihr doch alles Professionisten genannt solch eine Neuigkeit überhaupt noch eine verkümmerte Erektion hervorlockt und euer Testosteron überkochen lässt....

Ich kann nur den Kopf schütteln sorry..

Space


Antwort von R S K:

"Frank Glencairn" hat geschrieben:
Klar ging's um DNG…

😂😂

Genau. Hast mich total durchschaut. Mist.

Wir ignorieren einfach, dass du selbst „was man braucht sind ein paar halbwegs schnelle Platten” schreibst, was dummerweise ganz genau das bestätigt was ich überhaupt meinte. Ob ich explizit von cDNG oder sonst irgendeinem raw gesprochen hab ist am Ende völlig irrelevant. Ups. Nochmals zum mitschreiben: bei PR raw benötigt man nichts von alledem. Irgendein Durchschnitts-MacBook Pro reicht schon. Also rate mal was für z.B. Dailies Vorort von einer externen, 2,5" USB3 Platte wohl in Fragen „schnell, bequem” überhaupt erst in Frage kommt… hmmm...

Weiter so. Dein DNG kannst du sogar behalten! Ui. Tanz damit glücklich in den Sonnenuntergang! Ist geschenkt. Will ja keiner. Scheinbar nicht mal Adobe. 😄

💤

Space


Antwort von DV_Chris:

Motiongroup, um Dir das Lesen zu ersparen:

Ich habe die Ankündigung mit Interesse verfolgt. Nach der letzten PK auf der NAB muss man eingestehen, dass das neue Format niemanden juckt. Es bleibt also vorerst einmal dabei, dass Atomos ein neues Format brauchte, Apple den Entwicklungspartner gibt und man das in FCPX verarbeiten kann. *achselzuck*

So schleppend, wie sich die EVA verkauft, kann auch der PRR Move nichts ändern. Doch: noch mehr User verärgern.

Space


Antwort von Roland Schulz:

DV_Chris hat geschrieben:
So schleppend, wie sich die EVA verkauft, kann auch der PRR Move nichts ändern. Doch: noch mehr (potentielle) User verärgern.
...sehe ich genau so, eine Sauerei was da mal wieder abgeht. Von mir aus hätten die beides machen können, aber so...?!

Space


Antwort von motiongroup:

Ich habe die Ankündigung mit Interesse verfolgt. Alle Jahre wieder.... ewig die gleichen Querschläge

Kümmert euch lieber darum was es kann oder wartet ab bis ihr es überhaupt verwenden DÜRFT.. oder schreibe eine Abhandlung darüber wie es um die Canopuscodecs und ihrer platformübergreifenden Verfügbarkeit steht.. selbiges kann gleich erweitert werden auf die Innovationskraft der einzelnen Anbieter egal in welcher Umgebung.. schon interessant was sich im Vergleich zu BM bspw. getan hat was sich auch in Foren der Anbieter wiederspiegel.. ganz so prickelnd schaut es da nicht aus..

Space


Antwort von DV_Chris:

Danke für die Nachfrage nach dem "Canopuscodec" (Grass Valley HQ/HQX). Dem geht es blendend, wird er doch bei Olympia 2020 in 8K als Intermediate Codec eingesetzt werden. Nachdem Grass Valley kürzlich SAM (ehemals Quantel, Snell & Wilcox) gekauft hat und nun alles in Grass Valley eingegliedert wird, wird hier die Führungsposition im Broadcast Bereich weiter ausgebaut. Die Integration von Momentum und Go! mit Edius ist jetzt schon in Las Vegas zu sehen. Wie Rio mit Edius interagieren wird, werden die nächsten Monate zeigen. Die neue Stratus Version 6.0 festigt zudem das Produkt Edius. Spannende Zeiten jedenfalls.

https://s-a-m.com/products/quantel-rio/c-24/p-173

Space


Antwort von motiongroup:

Na dann Gratulation, dann besteht doch noch Hoffnung das der Codec endlich unter Ressolve und fcpx verwendbar und performant wird.. aktuell ist es eher eine Peinigung erster Klasse..

Und dann habt ihr euch auch die Prores Export Lizenz mitgekauft ;)

Space


Antwort von dienstag_01:

20-km-Gehen in 8K, das MUSS doch RAW, oder.
Also, das schreit doch danach.

Space


Antwort von DV_Chris:

Der XRE Transcoder 9 (früher Edius XRE) kann seit ein paar Monaten ProRes exportieren.

Space


Antwort von DV_Chris:

dienstag_01 hat geschrieben:
20-km-Gehen in 8K, das MUSS doch RAW, oder.
Also, das schreit doch danach.
LOL ;-)

Space


Antwort von motiongroup:

Na schau an also besteht doch Hoffnung;) Wozu also dieses Fass hier aufmachen... sie werden auch dass implementieren und sich die Lizenz kaufen.. done

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
Jott hat geschrieben:
Wird CDNG irgend jemandem weggenommen?
Jein, so wie es aussieht den EVA1 Usern. "RAW" war versprochen, Vollgas aber heute nur in PPR wo gestern bei dem Rec. Hersteller NUR CDNG auf der Speisekarte stand und man damit sofort hätte starten können.
Keiner hat hier wem was weggenommen, der Betrachterhorizont hat aber was anderes "gesehen" und steht erstmal wieder auf dem Schlauch. Eine Mafia ist das!!
Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDI out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert. Und wer hat auch Lust auf 6K uncompressed RAW? 3:1 CDNG wäre eine reine Resolve-Veranstaltung geworden. Also da warte ich lieber auf die Etablierung von PRR, das scheint mir der sinnvollste Weg. ProRes ist überall. Kein Grund zu denken PRR würde eine Nischenveranstaltung... für up-and-coming Kamerahersteller ist das eine große Chance. Siehe Kinefinity und DJI. RedRaw ist DER USP von Red. Das gibt es jetzt bald für alle.

Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum...

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:

Wir ignorieren einfach, dass du selbst „was man braucht sind ein paar halbwegs schnelle Platten” schreibst, was dummerweise ganz genau das bestätigt was ich überhaupt meinte.... blah
Was du "meintest" - so so..

Geschrieben hast du allerdings was anderes
"R S K" hat geschrieben:
einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM
Das ganze wird langsam albern, lassen wir es, du bist nicht mehr satisfaktionsfähig.

Space


Antwort von dienstag_01:

Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum... Verstehe ich nicht, da hättest du doch längst die Chance gehabt, mit Canon RAW light durch den Schornstein direkt in den Himmel zu fliegen ;)

Space


Antwort von nic:

dienstag_01 hat geschrieben:
Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum...
Verstehe ich nicht, da hättest du doch längst die Chance gehabt, mit Canon RAW light durch den Schornstein direkt in den Himmel zu fliegen ;) Wir brauchten einfach nicht noch eine weitere reine RAW-Kamera. Sondern einen handlichen 10-bit S35-Henkelmann. Dass man sie dann irgendwann als B- oder C- Cam in 6K PRR mit RR mischen kann, ist nur ein kleiner und feiner Pluspunkt.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDI out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert.
Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDI versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:
Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDI out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert.
Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDI versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!
Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
Was machen die EVA1 User die plötzlich mitgeteilt bekommen, dass ihre in gutem Glauben gekaufte, potentielle RAW Kamera nun volles Potential nur in PPR aber nicht in CDNG kann und man mit dem derzeitigen NLE ggf. erstmal auf dem Schlauch steht? Gab es vorher Indikationen in Richtung CDNG das man bereits mit dem vorhandenen NLE hätte schneiden können?! Hätte man CDNG vom Hersteller ableiten können weil bisher ausschließlich CDNG mit dem jeweiligen Recorder möglich war?!
Ich bin bei der EVA1 jetzt nicht 100% in der Phase, aber ein wenig käme ich mir wohl jetzt verprellt vor.
Panasonic hat nur von 5.7K raw aus der Kamera gesprochen. Aber natürlich wurde marketingmäßig massiv auf den Shogun Inferno hingedeutet. Der bisher eben nur CDNG und ProRes/DNxHR konnte. Natürlich war davon auszugehen, dass man das 5.7K raw 4K 50p eben nicht mehr als CDNG aufzeichnen könne, sondern eben zu 5.7K ProRes 50p (ohne raw) wandeln müss - denn auch der Shogun Inferno konnte ja CDNG nur bis 4K 30p. Aber mit 5.7K ProRes 50p hätte ich noch leben können.

Nur das spielts eben offenbar nicht, denn

Erstens kommt das 5.7k raw der EVA1 erst im Mai - was eine Sache für sich ist denn da wurde bisher nicht differenziert als raw für Ende März 2018 angekündigt worden ist. Derzeit gibts aber eben nur 4K raw.

Zweitens scheint es offenbar für 5.7K im Shogun Inferno eben gar keine Aufzeichnungsmöglichkeit zu geben -außer eben ProRes RAW. Und da sind bisher alle Windows User draußen.

Wer wars nun? Atomos schiebts auf Apple, Apple sagt gar nichts, Panasonic schiebts auf Atomos... und der Windows-User bleibt dazwischen bisher ohne Lösung hängen. Ja, einen Mac kann man sich kaufen. Das ist ein Spiel ohne Business Ethik - aber das ist offenbar ohnedies nur pures Gerede. Da kann man sich gleich auf den Osterhasen verlassen.

Space


Antwort von DV_Chris:

Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen Codec online hat.

Space


Antwort von wolfgang:

7nic hat geschrieben:
Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.
Die (Panasonic + Atomos) haben jetzt mal durchaus 5 oder 6 Monate seit Launch der Geräte Zeit gehabt. Ob das reicht oder nicht kann man ja so oder so sehen. Aber zumindest ich bin bei diesen beiden namhaften Unternehmen schon davon ausgegangen dass jetzt endlich mal das versprochene 5.7K raw geliefert wird.

Und geliefert heißt für mich: verwendbar im Schnittsystem.

Dass es wieder nur eine Teil ist, da eben erst 4K da ist und das in einem für z.B. mich nicht verarbeitbaren Format, finde ich eben nicht mehr ok.

Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
"Roland Schulz" hat geschrieben:

Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDI versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!
Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.
Die Überraschung ist die dass der ein oder andere sein NLE ggf. auf absehbare Zeit nicht mit der EVA1 in RAW nutzen kann und das war glaube ich den wenigsten klar als Panasonic RAW versprochen hat, incl. oder excl. 5.7K!! Compressed CDNG lag näher als irgendnen neues Format, wurde immerhin schon von BMD realisiert. Zudem gab es in CDNG von Anfang an die Spec für 2,5x lossless compression. Mit etwas Puffern im Recorder wäre das kein Problem das wegzuschreiben, auch nicht mit SATA6.

Space


Antwort von Jott:

Wenn's so lebenswichtig ist und du nicht mehr schlafen kannst: günstigen iMac aus der Bucht holen, fcp x Demo drauf und damit normales ProRes oder sonst was aus ProRes Raw machen. Damit die Zeit überbrücken, bis sich jemand anderes außer Atomos/Apple dem 5,6K aus deiner Kamera annimmt. Wird ja sowieso erst ab Mai kommen, oder wie war das? iMac dann wieder zurück in die Bucht, geht praktisch verlustfrei.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
7nic hat geschrieben:
Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.
Die (Panasonic + Atomos) haben jetzt mal durchaus 5 oder 6 Monate seit Launch der Geräte Zeit gehabt. Ob das reicht oder nicht kann man ja so oder so sehen. Aber zumindest ich bin bei diesen beiden namhaften Unternehmen schon davon ausgegangen dass jetzt endlich mal das versprochene 5.7K raw geliefert wird.

Und geliefert heißt für mich: verwendbar im Schnittsystem.

Dass es wieder nur eine Teil ist, da eben erst 4K da ist und das in einem für z.B. mich nicht verarbeitbaren Format, finde ich eben nicht mehr ok.

Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.
Ziemlicher Sauhaufen, Panasonic und Atomos um das mal "sachlich" auszudrücken!

Space


Antwort von dienstag_01:

DV_Chris hat geschrieben:
Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen Codec online hat.
Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)
Und alles schön hier verlinken, damit man auch rundum sorglos informiert ist.

Space


Antwort von wolfgang:

Glücklicherweise ist es nicht lebenswichtig. Zusätzlich kenn ich mich selbst mit diesen Geräten zu wenig aus. Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?

Space


Antwort von DV_Chris:

dienstag_01 hat geschrieben:
DV_Chris hat geschrieben:
Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen Codec online hat.
Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)
Für jedes "awesome" im Artikel gebe ich ein Bier aus ;-)

Space


Antwort von dienstag_01:

DV_Chris hat geschrieben:
dienstag_01 hat geschrieben:

Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)
Für jedes "awesome" im Artikel gebe ich ein Bier aus ;-)
Du wirst bei mir unter *pleite* geführt ;)

Space


Antwort von Jott:

wolfgang hat geschrieben:
7nic hat geschrieben:
Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.
Ein gebrauchter iMac aus der Bucht für einen Tausender oder so würde reichen. Muss nur High Sierra-tauglich sein.

Space


Antwort von Jott:

wolfgang hat geschrieben:
Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?
Dann hast du den Witz an ProRes Raw noch nicht verstanden: Performance wie normales ProRes ist der Punkt.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Wenn's so lebenswichtig ist und du nicht mehr schlafen kannst: günstigen iMac aus der Bucht holen, fcp x Demo drauf und damit normales ProRes oder sonst was aus ProRes Raw machen. Damit die Zeit überbrücken, bis sich jemand anderes außer Atomos/Apple dem 5,6K aus deiner Kamera annimmt. Wird ja sowieso erst ab Mai kommen, oder wie war das? iMac dann wieder zurück in die Bucht, geht praktisch verlustfrei.
Das ist so aber absolut nicht Sinn und Zweck der RAW Übung, zumal nen iMac mit performanter GPU auch nicht ganz günstig und vor allem eigentlich überflüssig ist wenn man schon nen anderes System hat. RAW macht erst dann vollständig Sinn wenn es bis zur Ausgabe genutzt wird. So behindert das den Workflow nur.
Ne, die ganze Panasonic Nummer ist ne Sauerei, was anderes fällt mir dazu nicht ein! Das Ding wird ggf. erst voll nutzbar werden wenn"s veraltet ist.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:


Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.
Die Überraschung ist die dass der ein oder andere sein NLE ggf. auf absehbare Zeit nicht mit der EVA1 in RAW nutzen kann und das war glaube ich den wenigsten klar als Panasonic RAW versprochen hat, incl. oder excl. 5.7K!! Compressed CDNG lag näher als irgendnen neues Format, wurde immerhin schon von BMD realisiert. Zudem gab es in CDNG von Anfang an die Spec für 2,5x lossless compression. Mit etwas Puffern im Recorder wäre das kein Problem das wegzuschreiben, auch nicht mit SATA6.
Adobe hat etwa ein Jahr gebraucht, nachdem ihnen RED das SDK für IPP2 zugänglich gemacht hat - es kam also vor ein paar Tagen. Und das, obwohl von Anfang an klar war, dass sie es implementieren werden. Compressed CDNG funktioniert bis heute nicht. REDRAW läuft auf AVID nicht nativ. RAW war bis jetzt immer nur proprietäres Gefummel. PRR läuft immerhin ab Release in FCPX. Blackmagic und Adobe werden schon nachziehen. Alles ist gut.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Ein gebrauchter iMac aus der Bucht für einen Tausender oder so würde reichen. Muss nur High Sierra-tauglich sein.
...würde mich mal interessieren wie lange mein High Sierra taugliches late 2014 (oder so) Macbook für 1min. RAW Video braucht - Jott, mit verlaub, hier biste aber mal kräftig auf dem Holzweg!! Resolve lastet ne 1070GTX mit C200 UHD RAW schon KRÄFTIG aus um Realtime zu erreichen. Was kostet nen xMac mit soviel Performance?! Dann muss ich das alles trotzdem noch so lange und vor allem so platzraubend wandeln und habe den größten Teil des RAW Vorteils schon in den Wind geschossen. Das macht so überhaupt keinen Sinn!

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
wolfgang hat geschrieben:
Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?
Dann hast du den Witz an ProRes Raw noch nicht verstanden: Performance wie normales ProRes ist der Punkt.
...dann hast Du die Mathematik und Physik noch nicht verstanden: alleine das Debayern zwingt ne performante GPU schon ziemlich in die Knie. Dann musste noch sowas wie Motion JPEG für den ProRes Export dranhängen.
Die ProRes "Performance" haste nur wenn ne performante GPU im System steckt, sonst steckt dein Video fest! Schneller debayern kannste nicht weil einfach Apple drauf steht.

Space


Antwort von Roland Schulz:

Wir werden sehen wer wann was implementiert und ob alles gut wird. Können auch alle machen was und wie sie wollen.
Was Panasonic da abzieht geht "für mich" so aber absolut nicht in Ordnung.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
Wir werden sehen wer wann was implementiert und ob alles gut wird. Können auch alle machen was und wie sie wollen.
Was Panasonic da abzieht geht "für mich" so aber absolut nicht in Ordnung.
Was wäre die Alternative?

Es blieb ja nur:
1)
Ein komplett eigenes RAW-Format entwickeln, ein eigenes Programm zum Wandeln der Dateien anbieten und daraus uncompressed CDNG und ProRes exportieren lassen. Nebenbei hoffen, dass die NLE-Hersteller das angebotene SDK irgendwann integrieren.

2)
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.

Space


Antwort von Roland Schulz:

...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!
5.7K lossless compressed CDNG läge bei etwa 400MB/s.

Space


Antwort von DV_Chris:

7nic hat geschrieben:
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.
Hast Du zuverlässige Daten darüber, dass ProRes der meistgenutzte Postproduktionscodec ist?

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
"Roland Schulz" hat geschrieben:
...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!
5.7K lossless compressed CDNG läge bei etwa 400MB/s.
Bei einer Annahme von einer Kompression um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!

Space


Antwort von nic:

DV_Chris hat geschrieben:
7nic hat geschrieben:
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.
Hast Du zuverlässige Daten darüber, dass ProRes der meistgenutzte Postproduktionscodec ist?
Natürlich nicht. Das war eine unzulässige Verallgemeinerung aus meiner subjektiven Wahrnehmung heraus, nur um meiner Aussage etwas Relevanz zu verleihen. Ich hoffe du kannst das entschuldigen.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:


5.7K lossless compressed CDNG läge bei etwa 400MB/s.
Bei einer Annahme von einer Kompression um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!
Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.

Space


Antwort von WoWu:

7nic hat geschrieben:

Was wäre die Alternative?

Es blieb ja nur:
1)
Ein komplett eigenes RAW-Format entwickeln, ein eigenes Programm zum Wandeln der Dateien anbieten und daraus uncompressed CDNG und ProRes exportieren lassen. Nebenbei hoffen, dass die NLE-Hersteller das angebotene SDK irgendwann integrieren.

2)
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.
Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.
Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGB drauf steht.
Nur gibt ein Hersteller gerade diese ( und zahlreiche andere ) Informationen nicht so gern preis. Daher musste ADOBE eine entsprechende Signalinterpretation durchführen, die zu deutlich anderen Ergebnissen führen kann.
Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.
Daher stellt sich jetzt die Frage, was anders sein sollte.
ACES ist eigentlich die Antwort auf einen „RAW“ Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.

Space


Antwort von DV_Chris:

7nic, keine Ursache ;-)

Mir selbst liegen auch keine Daten vor, wiewohl das sicher interessant wäre.

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
"Roland Schulz" hat geschrieben:


Bei einer Annahme von einer Kompression um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!
Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.
Also ich käme statistisch betrachtet auf 2,57234234 : 1 - glaube den Quatsch sollten wir hier beenden ;-)!

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
7nic hat geschrieben:


Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.
Also ich käme statistisch betrachtet auf 2,57234234 : 1 - glaube den Quatsch sollten wir hier beenden ;-)!
Es ist also möglich CDNG in Echtzeit 2,57234234:1 verlustfrei zu komprimieren? Wieso macht das niemand?

Space


Antwort von wolfgang:

Jott hat geschrieben:
wolfgang hat geschrieben:
Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?
Dann hast du den Witz an ProRes Raw noch nicht verstanden: Performance wie normales ProRes ist der Punkt.
Doch das habe ich verstanden. Aber lies doch mal den slashcam test zu den Macs. Super Maschine dieser 10-Kerner, sie empfehlen eh "nur" den 8-Kerner. Der aber noch immer ganz schön kostet.

Und so ganz ohne Leistung geht halt die 5.7K Verarbeitung dann wohl doch nicht. ;)

Space


Antwort von Roland Schulz:

WoWu hat geschrieben:
Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.
Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGB drauf steht.
Nur gibt ein Hersteller gerade diese ( und zahlreiche andere ) Informationen nicht so gern preis. Daher musste ADOBE eine entsprechende Signalinterpretation durchführen, die zu deutlich anderen Ergebnissen führen kann.
Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.
Daher stellt sich jetzt die Frage, was anders sein sollte.
ACES ist eigentlich die Antwort auf einen „RAW“ Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.
Da ist viel Wahres dran!! Auf der anderen Seite darf man im "Stillbereich" aber nicht vergessen dass kaum eine Fotokamera mehr mit einem Hersteller RAW Converter verwendet wird. Nikon hat seinerzeit versucht z.B. den gemessenen Weißabgleich zu codieren damit kein Dritthersteller die eigene Software (Nikon Capture/NX) ausbremst bzw. redundant macht. Am Ende hat Nikon Adobe zuerst ein SDK zur Verfügung gestellt und danach alles aufgegeben, allein weil Kunden zu anderen Systemen hätten abwandern können weil Lightroom bzw. CameraRAW nun mal den Markt zweimal um die eigene Achse gedreht hat. Ich glaube heute haben DxO und Capture One kaum noch einen bedeutenden Marktanteil, der Großteil arbeitet mit CameraRAW.

Wenn wir mal weiter spinnen und betrachten was BMD mit der Pocket 4K auf den Markt wirft könnte es sein das RAW auch im Videobereich auf absehbare Zeit noch zugänglicher wird. Speicher wird auch nicht weniger leistungsfähig oder teurer.
Entweder wird es wie im Fotobereich viele proprietäre Formate geben (das läuft da gut!) oder man wird sich auf einen Standard einigen. Glaube da ist man aber noch nicht weil RAW aktuell eigentlich nur im Pro Bereich Bedeutung hat.
Informationen der Farbfilter (Teil der "Color Science") müssten wie Du schreibst entweder weitergegeben und gespeichert werden, oder sie werden von den RAW Converter Herstellern weiterhin bei der Profilerstellung für die jeweilige Kamera "reverse engineered" oder einfach ausgemessen/abgeschätzt und auf den jeweiligen Debayer Algorithmus angepasst.
Am Ende kriegt man wie im Fotobereich auch ein absolut belastbares, vernünftiges Bild.

Ich habe grundsätzlich nichts gegen PRR, nur der Weg wie ihn aktuell einige Hersteller beschreiten gefällt mir nicht. Ich halte das nicht für loyal und richtig.
Und wie Du schon schreibst - wirklich neu ist hier nichts, brauchen tut das keiner!

Space


Antwort von wolfgang:

WoWu hat geschrieben:
ACES ist eigentlich die Antwort auf einen „RAW“ Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.
Das sehe ich ja auch so. Nur dann bitte wäre es schön von mir aus ProRes Raw mit ACES verarbeiten zu können. Auf einem Tool meiner Wahl welches ACES kann.

Persönlich würde ich da eben gerne Resolve oder Vegas nehmen - oder auch Edius (auch wenn das ein eigenes Color Management etabliert hat welches aber auch sehr gut ist auch wenn nicht ACES drauf steht).

Space


Antwort von mash_gh4:

7nic hat geschrieben:
RAW war bis jetzt immer nur proprietäres Gefummel.
geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
Jott hat geschrieben:


Dann hast du den Witz an ProRes Raw noch nicht verstanden: Performance wie normales ProRes ist der Punkt.
Doch das habe ich verstanden. Aber lies doch mal den slashcam test zu den Macs. Super Maschine dieser 10-Kerner, sie empfehlen eh "nur" den 8-Kerner. Der aber noch immer ganz schön kostet.

Und so ganz ohne Leistung geht halt die 5.7K Verarbeitung dann wohl doch nicht. ;)
Logischerweise braucht man für RAW -> Prores/Canopus was weiß ich Debayering - und das fordert heftig Performance - wie Apple schreibt "optimiert" für GPU Beschleunigung.
Wenn wir uns irgendein RAW in Resolve angucken werden wir feststellen dass die GPU GEFORDERT wird! RED hat dafür seinerzeit auch nichts anderes verkauft, die RED Rockets sind "Grafikkarten" (gewesen). Wir brauchen für die RAW "Sichtung" Performance, heute GPU Performance! Die hat nen alter ebay billig-Mac aber nicht!

Space


Antwort von WoWu:

@ wolfgang
Das ist ja eine „entweder / oder“ Frage.
ACES und RAW schließen sich aus.
Ich frage mich nur, was APPLE mit echtem RAW zu tun hat, denn das kann nun mal nur der Hersteller erzeugen, wenn er nicht die innersten Produktionsgeheimnisse einem andern kommerziellen Unternehmen offenlegen will.
Das ist ja der Knackpunkt bei DNG und das ist auch der Grund, warum ACES von einer Institution initiiert wurde, die in keiner Konkurrenz zu Herstellern steht.
RAW wird übrigens auch von der „Library of Congress Collections“ als Format abgelehnt.

Space


Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
7nic hat geschrieben:
RAW war bis jetzt immer nur proprietäres Gefummel.
geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.
Auf den Stillbereich bezogen ist "jetzt" so 15- 20 Jahre her ;-)! Video ist NICHTS anderes da man es bis heute nicht geschafft hat hier bildübergreifend zu komprimieren, was sicherlich gerade in 10 - 12bit Quantisierung noch was bringen würde.

Space


Antwort von Jott:

"Roland Schulz" hat geschrieben:
Die hat nen alter ebay billig-Mac aber nicht!
Der Vorschlag dreht sich doch nur darum, dass er an die ProRes Raws aus seinem Shogun ran kommt, sie de-bayern und in einem Format ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)

Space


Antwort von nic:

mash_gh4 hat geschrieben:
7nic hat geschrieben:
RAW war bis jetzt immer nur proprietäres Gefummel.
geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.
Naja, sowohl RED, Arri, als auch BMD, DJI oder Sony hatten nicht von Anfang an eine umfassende Lösung für jeden NLE- und Workflowgeschmack parat. Das hat sich alles langsam (über Jahre) entwickelt. Mit anderen Formaten hatte ich im Bewegtbildbereich bisher keine Berührungspunkte. Das hat nichts mit Verschwörungsglaube zu tun. Ich gebe nur meine persönliche Erfahrung wieder.

Space


Antwort von Frank Glencairn:

WoWu hat geschrieben:

ACES und RAW schließen sich aus.
Erstens haben ACES und raw überhaupt nix miteinander zu tun, das eine ist ein "Übergeordneter Farbraum" das andere sind undebayerte Sensordaten.

Zweitens kann ich in ACES mit raw genauso arbeiten, wie mit jedem x-beliebigen eingebackenen Codec, oder Einzelbildsequenzen, das ist ACES völlig wurscht.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
"Roland Schulz" hat geschrieben:
Die hat nen alter ebay billig-Mac aber nicht!
Der Vorschlag dreht sich doch nur darum, dass er an die ProRes Raws aus seinem Shogun ran kommt, sie de-bayern und in einem Format ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)
Ich wäre mal gespannt wie ein 5,7K RAW Stream auf so einer Maschine (ohne geeignete GPU) mit 1(!!) Spur läuft.
Ich tippe mal ganz grob auf einen Bereich kleiner 0,1 fach. Wahrscheinlich wird"s gar nicht gehen.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
WoWu hat geschrieben:

ACES und RAW schließen sich aus.
Erstens haben ACES und raw überhaupt nix miteinander zu tun, das eine ist ein "Übergeordneter Farbraum" das andere sind undebayerte Sensordaten.

Zweitens kann ich in ACES mit raw genauso arbeiten, wie mit jedem x-beliebigen eingebackenen Codec, oder Einzelbildsequenzen, das ist ACES völlig wurscht.
Vielleicht haben die beiden Wolfgangs hier mit Sony"s X-OCN verwechselt, nur mal so ein Gedanke...

Space


Antwort von Jott:

Wieso nicht? Die Performance soll dem normalen ProRes entsprechen (noch mal, das ist der Witz an ProRes Raw, sonst wäre es ja witzlos!), müsste also sehr wohl gehen. Keine Ahnung, ob es schon einen Schnipsel Material irgendwo zum Downloaden gibt, dann könnte man's ja mal probieren, statt einfach was zu behaupten.

Space


Antwort von cantsin:

Jott hat geschrieben:
Wieso nicht? Die Performance soll dem normalen ProRes entsprechen (noch mal, das ist der Witz an ProRes Raw, sonst wäre es ja witzlos!)
Das kann technisch einfach nicht sein, wenn da in Echtzeit debayert wird. (Es gibt ja auch keine Foto-Raw-Formate, die ebenso performant angezeigt werden wie JPEG.)

Space


Antwort von Jott:

Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProRes RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Da steht nicht iMac Pro. Wozu streiten - wen's interessiert, der wird's probieren. Sollte 5,6K zu viel sein für eine schwächere Maschine, dann halt nicht mehr realtime, aber der EVA-Wolfgang käme trotzdem an sein Material ran.

Space


Antwort von mash_gh4:

WoWu hat geschrieben:
Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.
warum sind sie daran gescheitert?
DNG ist in der durchaus in der lage, die nötigen daten, so wie sie direkt vom sensor kommen, vernünftig aufzuzeichnen. dass man sie dann auch reichtig auswertet, was in verschieden anspruchsvollen weisen umgesetzt werden kann, ist wieder ein ganz andere geschichte, aber bzgl. des eigentlich transports der der daten und einer klar geregelten übergabe der nötigen metadaten gibt's daran nicht viel auszusetzten.
WoWu hat geschrieben:
Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGB drauf steht.
das hat sehr wenig mit den kameras zu tun, sondern nur mit den verwendeten sensoren. im übergabeformat muss diesbezüglich auch keine information über die tatsächliche spektrale sensibilität der verschiedenfarbigen sensel enthalten sein. es reicht völlig aus, wenn man an hand der metadaten eine eindeutige beziehung zwischen dem bei der aufnahme tatsächlich genutzen sensor und externen daten bzgl. der spektalen sensibilität herstellen kann. entsprechende korrekturen bzw. sensorspezifische aufbereitungsprofile kann man dann bspw. mit DCamProf od. ä. generieren.
WoWu hat geschrieben:
Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.
naja -- es gibt sehr viele überschneidungen zw. gutem RAW prozessing und ACES, aber völlig vermischen od. als austauschbar betrachten, wie du es tust, sollte man es nicht.

ACES liegt doch eine stufe höher bzw. bezeht sich im wesentlich nur auf bereits debayertes materal. allerdings behandelt es licht und farben tatsächlich in mathematische modellen, die sehr nahe an dem dran sind, wie man es auch beim RAW processsing handhabt. der grund dafür liegt aber eher darin, dass sich diese modelle (scene referred linear light), die sich an physikalischen beschreibungen und gesetzmäßigkeiten orientieren, als deutlich zweckmäßiger für komplizierte farbbearbeitungsaufgaben bzw. deren exakte umsetzung erwiesen haben, als jene zugänge die sich vorwiegend an den wiedergabegeräten bzw. damit verbundenen konventionen der datenrepräsentation orientieren (display referred -- bspw. rec709). trotzdem behandelt ACES mehr die grundsätzlichen rahmenbedingungen eines befriedigenden postprozessing workflows, als dass es sich zu sehr um die details der RAW aufbereitung kümmern würde. wie man also zu vernünftigen ausgangsdaten kommt, die man in den ACES workflow einbringt, ist also grundsätzlich offen. es kann also im grunde, um eine ganz extreme ausformung heranzuziehen, durchaus auch völlig künstlich generierter content sein. ich würde aber realistischer weise aber eher dahingehend argumentieren, dass die einzige relevante anforderung im falle von ACES sich darauf beziehen dürfte, das man ausgangswerte zu verfügung hat, die eine möglichst eindeutige rückführung auf in die welt der physikalischen grundgesetze von farbe und licht erlauben. ob man dafür nun ungebayeres RAW od. irgendwelche möglichst unverfälschte LOG-Formate zur Aufzweichnung der ursprünglichen sensordaten verwendet, macht dabei keinen großen unterschied.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProRes RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Da steht nicht iMac Pro. Wozu streiten - wen's interessiert, der wird's probieren. Sollte 5,6K zu viel sein für eine schwächere Maschine, dann halt nicht mehr realtime, aber der EVA-Wolfgang käme trotzdem an sein Material ran.
...wir sollten abwarten welche GPU Apple hier für Prores RAW erwartet. Mein Macbook Pro mit 5100er Intel Grafik wird MIT SICHERHEIT nicht reichen.

Space


Antwort von cantsin:

Jott hat geschrieben:
Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProRes RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)
Ja, aber das bedeutet eben nicht, dass die Performance die gleiche wie die von debayertem ProRes ist. (Das wäre ja die simpelste Form eines falschen Syllogismus.)

Space


Antwort von Roland Schulz:

cantsin hat geschrieben:
Jott hat geschrieben:
Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProRes RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)
Ja, aber das bedeutet eben nicht, dass die Performance die gleiche wie die von debayertem ProRes ist. (Das wäre ja die simpelste Form eines falschen Syllogismus.)
Ggf. passiert das auch alles nur in 1/4 oder 1/8 der nativen Auflösung - wir werden sehen.

Space


Antwort von Jott:

Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.

Space


Antwort von wolfgang:

Jott hat geschrieben:
"Roland Schulz" hat geschrieben:
Die hat nen alter ebay billig-Mac aber nicht!
Der Vorschlag dreht sich doch nur darum, dass er an die ProRes Raws aus seinem Shogun ran kommt, sie de-bayern und in einem Format ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)
Du unter der Perspektive des reinen Wandels ist das ja ok. Nur ist die Frage ob das wirklich reichen kann.

Space


Antwort von wolfgang:

Muss mal schauen. Ein 5.7K Schnipsel geht ja noch nicht, aber in 4K wäre das wohl möglich.

Space


Antwort von Jott:

Gerne mal her damit via WeTransfer, ein paar aussagelose Blümchen à la YouTuber-Testfilmchen reichen ja. Dann probier ich gerne mal auf dem älteren 15"-Macbook Pro, an dem ich gerade tippe, wie sich das verhält.

Space


Antwort von wolfgang:

Ja klar, dauert aber ein wenig.

Space


Antwort von Jott:

Reicht am Wochenende. Bin für eine Produktion im Ausland, Hotel-WLAN klemmt.

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.
4K RED Raw läuft auf nem "alten" Mac?! Was wäre das für ein Rechner mit was für einer GPU wenn man mal fragen darf?!

Space


Antwort von nic:

Hab auch mal etwas PRR bei einem Bekannten bestellt und werd’s morgen an verschiedenen Macs anschauen.

Space


Antwort von nic:

"Roland Schulz" hat geschrieben:
Jott hat geschrieben:
Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.
4K RED Raw läuft auf nem "alten" Mac?! Was wäre das für ein Rechner mit was für einer GPU wenn man mal fragen darf?!
4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon “Westmere” Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.

Space


Antwort von cantsin:

7nic hat geschrieben:
4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon “Westmere” Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.
Das ist nämlich genau die unbekannte Variable - Apple sagt nur, dass die Performance von ProRes Raw auf iMacs und Macbook Pros gut sei und suggeriert damit einen Durchbruch bei der Raw-Performance, sagt aber nichts über die Debayer-Qualität beim Playback im NLE.

Ich kann natürlich auch CinemaDNG in Resolve auf 1/2- oder 1/4-Debayer-Qualität fürs Playback einstellen (und anschließend in voller Qualität rendern) und habe dann keine Probleme auf Mittelklasse-Hardware. Insofern ist die Frage, wieviel ProRes Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.

Space


Antwort von DV_Chris:

Cantsin, Danke für die Anmerkung.

Ich als Edius Anbieter und Nutzer zucke immer etwas zusammen, wenn jemand von "Echtzeit" schreibt. In Edius definiert sich Echtzeit nämlich so:

- Projektauflösung entspricht einmal der Clipauflösung
- Volle Auflösung bei der Wiedergabe (also nix mit 1/2, 1/4, etc)
- Original Framerate (also ohne skipped Frames)
- Im Original Codec (also keine "optimierten" Medien oder ähnliches)

Und da trennt sich dann oft die Spreu vom Weizen.

Und ja, die Raw Wiedergabe in Edius ist nicht die Stärke des Programms.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Insofern ist die Frage, wieviel ProRes Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.
das hängt sehr stark vom verwendeten filesystem und der fähigkeit des verwendeten betriebssystems ab, unmengen von kleinen dateien vernünftig zu handhaben -- schlagt sich also durchaus spürbar in der performance nieder.

die meisten systeme kommen mit zusammenhängenden streams jedenfalls deutlich besser klar. wobei es heute eher nicht mehr üblich ist, zwischenschichten einzubauen, um entsprechende nachteile bzw. fragmentierungstendezen zu minimieren, wie das z.b. noch beim flame und seinem StoneFS der fall war. prinzipiell sind derartige filesequenzen aber auch heute noch, obwohl die systeme mittlerweile, viel besser geworden sind, eine ziemlich suboptimale lösung.

Space


Antwort von nic:

cantsin hat geschrieben:
7nic hat geschrieben:
4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon “Westmere” Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.
Das ist nämlich genau die unbekannte Variable - Apple sagt nur, dass die Performance von ProRes Raw auf iMacs und Macbook Pros gut sei und suggeriert damit einen Durchbruch bei der Raw-Performance, sagt aber nichts über die Debayer-Qualität beim Playback im NLE.

Ich kann natürlich auch CinemaDNG in Resolve auf 1/2- oder 1/4-Debayer-Qualität fürs Playback einstellen (und anschließend in voller Qualität rendern) und habe dann keine Probleme auf Mittelklasse-Hardware. Insofern ist die Frage, wieviel ProRes Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.
Würde 4:1 compressed cdng in Premiere und FCPX genau wie in Resolve laufen und wäre es in einer Datei zusammengefasst, dann wäre PRR in der Tat unnötig.

Space


Antwort von DV_Chris:

Der Link ist von einer spanischen Seite. Sind zwei Files. Bin gerade beim downloaden:

https://we.tl/PTdVgMtNet

Space


Antwort von nic:

DV_Chris hat geschrieben:
Cantsin, Danke für die Anmerkung.

Ich als Edius Anbieter und Nutzer zucke immer etwas zusammen, wenn jemand von "Echtzeit" schreibt. In Edius definiert sich Echtzeit nämlich so:

- Projektauflösung entspricht einmal der Clipauflösung
- Volle Auflösung bei der Wiedergabe (also nix mit 1/2, 1/4, etc)
- Original Framerate (also ohne skipped Frames)
- Im Original Codec (also keine "optimierten" Medien oder ähnliches)

Und da trennt sich dann oft die Spreu vom Weizen.

Und ja, die Raw Wiedergabe in Edius ist nicht die Stärke des Programms.
Wenn du mit 8K oder 6K-Rohmaterial arbeitest, ist dir 1/4 debayer für den Schnitt in Echtzeit völlig ausreichend.

Space


Antwort von DV_Chris:

Natürlich ist es ausreichend. Aber trotz all dem Buzz sollte man die Dinge benennen wie sie sind. Bin somit gespannt, wie sich die Files wirklich verhalten werden.

Space


Antwort von DV_Chris:

DV_Chris hat geschrieben:
Der Link ist von einer spanischen Seite. Sind zwei Files. Bin gerade beim downloaden:

https://we.tl/PTdVgMtNet
Ja, also das sind in der Tat zwei ProRes RAW Files.

Edius kann diese ohne Fehlermeldung importieren, aber zeigt nur ein graues Bild an.

Space


Antwort von motiongroup:

auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..

Space


Antwort von cantsin:

motiongroup hat geschrieben:
auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.
Das ist natürlich 'ne Ansage... Sind das 4K-Raws?

Space


Antwort von motiongroup:

ja 4k 25p beide gleiches Motiv ne Lampe in der ein Geist sitzt..

extrem gut zu bearbeiten ohne leak egal ob bei Skalierung oder bei der Korrektur.

die vier Kerne sind am Anschlag.. also 2/2

werd mal übermorgen schauen wie sich das die 4970k mit der IGPU und der GTX 970 teilt..

fcpx macht noch sperranskis auf dem Test Hack vermutlich die NV Webtreiber.. bin aber eh am überlegen ob nicht ne zert. 580er rein soll... wobei ich habe mit Video aktuell nicht viel am Hut und für xcode brauch ich sie nicht.. mal schauen..

Space


Antwort von Jott:

motiongroup hat geschrieben:
auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.
Schau an. Das wäre wie von mir erwartet und von anderen als völlig unmöglich erachtet. Ist das die Footage von diesem Typen?

https://youtu.be/r41IV1g3pss

Space


Antwort von motiongroup:

Genau Jott das ist die LAMPE ;)

Morgen nochmals ...

Zum Material selbst, das ist wirklich einfachst auf jeglichen schwachbrüstigen Macs zu verarbeiten auch der betagte mbp17“ aus 2011 nimmt das Problemlos... wobei, der nimmt auch proresHQ problemlos.

Der Codec selbst ist nur unter fcpx verwendbar, wobei ich nicht sagen könnte das es unter iMovie für den Rohschnitt nicht auch funktionieren sollte da es der selbe Unterbau ist..

QT und alle anderen Player und Tools verstehen es nicht.. ebenso wie Resolve 14... die 15 is noch Beta und somit tabu.. wobei das liest sich schon recht gut....

Interessant zu lesen in jedem Fall die Kommentare dazu das nicht jeder Glücklich ist mit der Integration von Fusion in RS. Raunzen gibts aber immer.... auch schon unter eXtreme7Pro von Cinegy.. Wurst ist lange her..

Ich vermute mal dass die aktuelle Rel. von fcpx ein wenig vorschnell rausgehauen wurde wegen der Partner .. es sind leider manche Features ;) noch nicht wirklich bereinigt und gehörten noch überarbeitet was aber in allen Häusern bei der Komplexität der Programme vorkommt.. mein Premiere Nachbar wollte sich gestern mit einem Braun Rasierer die Pulsadern öffnen..

Space


Antwort von Roland Schulz:

4 Spuren 4K 25p RAW auf ner HD5000 GPU - alles klar Leute, da hat Aladin aus der Lampe seine Hände im Spiel ;-)!!

Space


Antwort von DV_Chris:

motiongroup hat geschrieben:
auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..
Also in 1/1 Auflösung mit voller Framezahl und ohne dass im Hintergrund etwas optimiert wird? Wie Du schreibst ist die CPU Auslastung am Anschlag. Was macht die GPU? Wo liegen die beiden Files? Single SSD oder Raid?

Space


Antwort von Roland Schulz:

Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!

Space


Antwort von wolfgang:

motiongroup hat geschrieben:
auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..
Ist das wirklich dieser 2-Kerner hier?
https://support.apple.com/kb/SP699?loca ... cale=de_DE

Da muss dann ja der etwa noch viel mehr können:
Apple MacBook Pro 15" Touch Bar, i7 2,8 GHz, 16 GB RAM, 256 GB SSD, space grau https://www.amazon.de/dp/B07213P46P/ref ... ZAb1FV0VG9

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!
Stimmt völlig. Die gezeigten Werte sind beeindruckend, leider auch der Preis.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
motiongroup hat geschrieben:
auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und Farbkorrektur ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..
Ist das wirklich dieser 2-Kerner hier?
https://support.apple.com/kb/SP699?loca ... cale=de_DE

Da muss dann ja der etwa noch viel mehr können:
Apple MacBook Pro 15" Touch Bar, i7 2,8 GHz, 16 GB RAM, 256 GB SSD, space grau https://www.amazon.de/dp/B07213P46P/ref ... ZAb1FV0VG9
Vielleicht sollten wir noch mal auf andere Tests warten - das kommt mir da nicht ganz koscher vor. Kann unmöglich glauben dass nen 2014er MBA auch nur eine UHD PRRAW Spur 1/1 in Echtzeit schafft.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:
Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!
Stimmt völlig. Die gezeigten Werte sind beeindruckend, leider auch der Preis.
16k ist schon nen Kurs für nen iMac ;-)!! Ggf. reicht aber auch weniger.

Ich seh‘ uns schon alle Macs kaufen...

Space


Antwort von DV_Chris:

Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)

Space


Antwort von Roland Schulz:

DV_Chris hat geschrieben:
Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)
C200 60p RAW läuft auf nem 8700k in EDIUS 9.2 auch in 1/2 Auflösung...!
Ich krieg da aber trotzdem kein vernünftiges „Bild“ hingegradet...

Space


Antwort von motiongroup:

ja ist das macbook air11" 2014..

keine Umwandlung, lag auf der SystemSSD
Kein Vorrendern...
Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-) Läuft durch ohne Warnmeldung von Aussetzern

Master Full4k inkl Farbanpassung
1 Spur Statischer PIP 50%
2 Spur PIP 50% mit KenBurns Links Oben Rechts Unten inkl Farbanpassung
3.....

Dieses Paket kopiert und 10x eingefügt ..

was die IGpu dabei erledigt kann ich nicht sagen da ich kein iStat drauf habe..
morgen schaue ich mir die anderen beiden Rechner an, die haben iStat drauf..

Space


Antwort von cantsin:

Nach Slashcams Atomos-Interview sind wir etwas schlauer, auch darüber, was noch niemand weiß:

Ja, es geht auch - wie in diesem Thread schon vermutet - um RAW über HDMI, und der neue Ninja kann das (technisch).

Nein, kein Kamerahersteller unterstützt das bisher. Nein, wir wissen auch nicht, ob da in Zukunft was kommt.

Ja, ProRes RAW bleibt vorläufig auf FCPX beschränkt.

Nein, wir wissen noch nicht, ob Apple das an andere Softwarehersteller lizenzieren wird.

Im Prinzip kann man jetzt alle weiteren Diskussionen erstmal parken und muss sehen, was die Zukunft bringt.

Space


Antwort von DV_Chris:

RAW über HDMI bedeutet wohl notwendiger Weise neue Kamerahardware. Ob sich das ein Hersteller antun will, sei dahingestellt.

Und nach zwei Jahren Entwicklungszeit wundert es doch, dass keiner der großen NLE Hersteller schon mit im Boot ist und man nur "we're looking into it" hört. Am Ende will Apple doch eine geschlossene Veranstaltung daraus machen.

Space


Antwort von Sammy D:

motiongroup hat geschrieben:
ja ist das macbook air11" 2014..

keine Umwandlung, lag auf der SystemSSD
Kein Vorrendern...
Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-) Läuft durch ohne Warnmeldung von Aussetzern

Master Full4k inkl Farbanpassung
1 Spur Statischer PIP 50%
2 Spur PIP 50% mit KenBurns Links Oben Rechts Unten inkl Farbanpassung
3.....

Dieses Paket kopiert und 10x eingefügt ..

was die IGpu dabei erledigt kann ich nicht sagen da ich kein iStat drauf habe..
morgen schaue ich mir die anderen beiden Rechner an, die haben iStat drauf..

Keine Ahnung, was du da gemacht hast, aber auf einem MacPro 2013 6-Kern D700 64Gb RAM, skippen die Frames ab der vierten Videospur - ohne irgendwelche Korrekturen oder sonst was. CPU und GPU auf Anschlag.
So schnell habe ich meinen Rechner noch nie auf maximale Lueftergeschwindigkeit gehen sehen.

Zudem hoere ich hochfrequentes Fiepen aus dem Kuebel. Noch nie gehoert.

Space


Antwort von wolfgang:

Danke für die Bestätigung - und gleich wieder wird’s hier relativiert. Aber performat sind auch 3 Spuren 4K DCI auf einem 6-Kerner.

Tja der Rest ist Raten. Wenn Apple nicht weiter lizenziert hebt das wohl weniger stark ab. Und sie haben aber Vorteile für den Verkauf ihrer Geräte. Die werden sich das einfach noch offen halten und mal beobachten.

Space


Antwort von Sammy D:

wolfgang hat geschrieben:
Danke für die Bestätigung - und gleich wieder wird’s hier relativiert. Aber performat sind auch 3 Spuren 4K DCI auf einem 6-Kerner.

...
PRR ist auf jeden Fall sehr performant. Da kann ich so einiges an Korrekturen vornehmen bis es anfaengt zu ruckeln. Ich habe jetzt nur wahllos Effekte und Korrekturen draufgeworfen (eine Spur) und bin nicht systematisch vorgegangen. Aber bei anderem 4K-Material geht der Rechner schneller in die Knie. Bei komprimierten Formaten wie aus der GH5 (4K 400Mbit) kann ich nicht mal die Belichtung korrigieren, ohne dass es ruckelt. Mit normalem ProRes geht das nateurlich besser.

Space


Antwort von Roland Schulz:

"Sammy D" hat geschrieben:
...CPU und GPU auf Anschlag.
So schnell habe ich meinen Rechner noch nie auf maximale Lueftergeschwindigkeit gehen sehen.

Zudem hoere ich hochfrequentes Fiepen aus dem Kuebel. Noch nie gehoert.
CPU/GPU ->100% bedeutet ungefähr maximal vorgesehene Stromaufnahme/Designgrenze. Da kommen dann ggf. schon mal die Spulen aus dem Schaltnetzteil bzw. der Spannungsregelung an die Dimensionierungsgrenzen und da hier ein jetzt stärkeres, wechselndes Magnetfeld aufgebaut ist kommt auch (minimale) Bewegung da rein, somit pfeiffts etwas. Nicht wirklich schlimm, aber nervt u.U..

Gut, ne D700 und ne Vega 64 sind schon zwei Paar Schuhe. Nicht nur die reine Rechenleistung ist bei der Vega wesentlich höher, ggf. sind auch die nutzbaren Befehle/Funktionen effektiver und FCP X ist vielleicht darauf tiefer optimiert.
Möglicherweise wurde sowas endlich genutzt:
https://software.intel.com/en-us/videos ... phics-gen9
Wenn Intel das 2015 hatte sollte AMD da was ähnliches haben.

Stand jetzt würde ich schon sagen dass man bei Apple was daran gesetzt hat "konventionelle" RAW Daten ggf. optimiert zu speichern (ggf. interleaved, so dass man für schnelle 1/4 Vorschauen in den Dateien skippen kann ohne mit vielen I/Os die ganzen Daten linear sequentiell durchzusuchen) und effektiv über die GPU zu decodieren.

Die 2014 MB Air Nummer mit 4 Spuren... na ja... vielleicht werde auch ich hier noch überzeugt ;-)...

Space


Antwort von mash_gh4:

DV_Chris hat geschrieben:
RAW über HDMI bedeutet wohl notwendiger Weise neue Kamerahardware. Ob sich das ein Hersteller antun will, sei dahingestellt.
nein -- warum denn? solange du nur farbige pixel, die ja man ja auch bei HDMI bis 12bit farbtiefe spezifiziert sind, nutzt um die eigentlichen daten bei einer vorgegegebenen bildwiederholfrequenz zu übertragen, braucht's dazu überhaupt keine umbauten od. erweiterungen. wie das übertragen bild aussieht ist ja dem übertragungsprotokoll völlig egal.

man kann damit sogar wesentlich höhere bittiefen übertragen, wenn man im transportweg die doppelte framerate nutzt und die daten auf zwei bilder verteilt. auch das haben die apertus leute bereits ganz praktisch vorexerziert. wie gesagt, das alles ist, wie schon weiter oben erwähnt, ohnehin bspw. hier nachzulesen:

https://www.apertus.org/axiom-beta-uhd- ... e-may-2016

Space


Antwort von Roland Schulz:

So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMI Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMI Signal komplett per Software so dass es frei änderbar wäre.

Der HDMI Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.

Space


Antwort von motiongroup:

mbair 11" 2014

https://youtu.be/FdIi0F_grdU

mehr kann ich nicht tun für heute..

Space


Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMI Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMI Signal komplett per Software so dass es frei änderbar wäre.
das natürlich die kamerafirmware geändert werden muss, um RAW-daten auszugeben, brauchen wir ohnehin nicht lange zu diskutieren. das dürfte ohnehin jedem einigermaßen vernunftbegabten und technisch verständigen zeitgenossen klar sein. aber, dass sich hier irgendwelche probleme stellen sollten, die RAW-daten in ein "bild" bzw. zwei davon zu packen, kann ich überhaupt nicht nachvollziehen. was ist daran so schrecklich kompliziert oder unverständlich, unveränderte daten von einer struktur A nach B umzupacken?
"Roland Schulz" hat geschrieben:
Der HDMI Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.
normalerweise werden für die eigentliche HDMI schnittstelle fertige externe ICs genutzt, weil es hier ganz speziell um den schutz gegenüber statischen entladungen u.a. geht, wie man sie gewöhnlich nicht in den zentralen ASICs abwickelt. die entsprechenden bausteine übernehmen aber oft auch noch andere aufgaben (übersetzung der daten aus den üblicherweise genutzen seriellen protokollen der prozessoranbindung, pixelformat transformationen, scaling etc.) die tatsächlich tiefer gehen. das ändert aber nichts daran, das sie grundsätzlich durchaus auch in der lage sind, die oben angesprochenen "bilder" auch tatsächlich in einer weise auszugeben, die keine störenden veränderungen daran vornimmt.

ehrlich gestanden kann ich überhaupt nicht nachvollziehen, warum das überhaupt von irgendjemandem in zweifel gezogen wird? das ganze ist technisch gesehen eine derart triviale angelegeheit, dass man darüber wirklich nicht viele worte verlieren muss. und selbst wenn man meiner person jede kompetenz in der beurteilung solcher sachverhalte absprechen mag, ist doch die praktisch existierende umsetzung durch das apertus team -- wo man über so aufregend großartige entwicklungsabteilungen bekanntlich auch nicht verfügt -- ein ziemlich unbestreibarer beleg für meine behauptungen.

Space


Antwort von DV_Chris:

Unter HDMI 2.0 wird es auch mit der Bandbreite nicht klappen.

Space


Antwort von DV_Chris:

motiongroup hat geschrieben:
mbair 11" 2014

mehr kann ich nicht tun für heute..
In Unkenntnis des Programms:

1. Ist das ein 4K Projekt (würde also über BMD Hardware ohne Skalierung so ausgespielt werden können)?

2. Wird das Material 1:1 wiedergegeben? Also keine Preview/Draft oder 1/4 Qualität whatever?

3. Werden wirklich konstant 25 Frames wiedergegeben?

Space


Antwort von Sammy D:

motiongroup hat geschrieben:
mbair 11" 2014

https://youtu.be/FdIi0F_grdU

mehr kann ich nicht tun für heute..
Da faellt doch die Haelfte aller Frames aus! Am Bild sieht man das nateurlich nicht, wenn sich nichts bewegt, aber am Time Code.

Space


Antwort von motiongroup:

Das mag schon sein aber bei Ken Burns würdest Du in der Bewegung ein Stocken erkennen und die Fehlermedung sollte anzeigen.. dürfte in der Tolleranz liegen..
strange ist das Scrubben, dass belastet überhaupt nicht und vergessen wir nicht das auf jeden Clip ein scaling, bewegung und colorc. drauf liegt..

Ich habe die oberste Spur deaktiviert und dann läuft der Timecode butterweich..

Trotz dieser Eigenheit in der Anzeige ist das für diesen schwachen Alukeil trotzdem beachtlich..

Space


Antwort von wolfgang:

Ja für diese alte Gurke ist das wohl durchaus beachtlich.

Space


Antwort von Roland Schulz:

!!! RESPEKT !!!

Space


Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
"Roland Schulz" hat geschrieben:
So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMI Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMI Signal komplett per Software so dass es frei änderbar wäre.
das natürlich die kamerafirmware geändert werden muss, um RAW-daten auszugeben, brauchen wir ohnehin nicht lange zu diskutieren. das dürfte ohnehin jedem einigermaßen vernunftbegabten und technisch verständigen zeitgenossen klar sein. aber, dass sich hier irgendwelche probleme stellen sollten, die RAW-daten in ein "bild" bzw. zwei davon zu packen, kann ich überhaupt nicht nachvollziehen. was ist daran so schrecklich kompliziert oder unverständlich, unveränderte daten von einer struktur A nach B umzupacken?
"Roland Schulz" hat geschrieben:
Der HDMI Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.
normalerweise werden für die eigentliche HDMI schnittstelle fertige externe ICs genutzt, weil es hier ganz speziell um den schutz gegenüber statischen entladungen u.a. geht, wie man sie gewöhnlich nicht in den zentralen ASICs abwickelt. die entsprechenden bausteine übernehmen aber oft auch noch andere aufgaben (übersetzung der daten aus den üblicherweise genutzen seriellen protokollen der prozessoranbindung, pixelformat transformationen, scaling etc.) die tatsächlich tiefer gehen. das ändert aber nichts daran, das sie grundsätzlich durchaus auch in der lage sind, die oben angesprochenen "bilder" auch tatsächlich in einer weise auszugeben, die keine störenden veränderungen daran vornimmt.

ehrlich gestanden kann ich überhaupt nicht nachvollziehen, warum das überhaupt von irgendjemandem in zweifel gezogen wird? das ganze ist technisch gesehen eine derart triviale angelegeheit, dass man darüber wirklich nicht viele worte verlieren muss. und selbst wenn man meiner person jede kompetenz in der beurteilung solcher sachverhalte absprechen mag, ist doch die praktisch existierende umsetzung durch das apertus team -- wo man über so aufregend großartige entwicklungsabteilungen bekanntlich auch nicht verfügt -- ein ziemlich unbestreibarer beleg für meine behauptungen.
Das man Firmware bzw. Software braucht ist klar, nur werden die Daten ggf. gar nicht wie benötigt als RAW Daten vorliegen. Da gibt"s in der Kamera ggf. nen "Bus" hinter dem A/D Wandler der für Standbilder ausgelegt ist und nen RAM Puffer hat und ne schnelle Anbindung zur Speicherkarte hat. Dann haste nen Bus hinter dem A/D Wandler der in nen hardwired Demosaicingprozessor führt um mit wenig Prozessorleistung stromsparend über nen ASIC ein Bild zu erzeugen. Der ist dann an nen Videoencoder angebunden der aus dem einlaufenden 4:4:4 Bild schon mal 4:2:0 macht und das entweder in nen H.264 Encoder füttert und/oder zum Controller des HDMI Ausgangs weiterleitet. Du hast aber keinen Weg oder Bus die Daten schnell genug vom A/D Wandler noch mal zu "taggen" oder sortieren und direkt in den HDMI Port zu bringen. Das war beim Design der jeweiligen Kamera nicht vorgesehen und ist nicht nutzbar. Du hast die RAW Daten zwar für Standbildverarbeitung am Prozessor anliegen, der kann aber nicht in der benötigten Bandbreite an den HDMI Port senden da es hier keinen schnellen Bus gibt. Der Prozessor kann nur auf eine interne "Grafikkarte" zugreifen, welche ein Bild und Menu sowie Zusatzeinblendungen erzeugen kann - allerdings nicht in der notwendigen Performance bzw. Bitrate. Es gibt u.U. keinen ausreichend performanten Weg das Signal hinter dem A/D Wandler direkt auf den HDMI Controller zu schicken, der ggf. auch nicht ausreichend schnell ist. Da kann man dann programmieren was man will, die performanten Datenwege bestehen einfach hardwaretechnisch nicht.

Space


Antwort von mash_gh4:

das natürlich in den üblichen kameras tatsächlich sehr viel in form von ASICs quasi fest verdrahtet ist, bestreite ich nicht. so gesehen würde ich mir auch keine großen hoffnungen machen, dass in irgendwelchen verbreiteten kameras jetzt plötzlich beim nächsten firmwire-update eine RAW-aufzeichnungsfunktionalität, egal welcher form, angeboten wird. allerdings bin ich immer wieder überrascht, wie viel flexibilität offenbar in manchen geräten doch da zu sein scheint, features nachträglich einzubauen.

das apertus bsp. ist in dieser hinsicht natürlich ein bisserl ungewöhnlich, weil man dort ja bekanntlich keine eigens für diese kamera produzierten ASICs nutz, sondern of the shelf FPGAs, die ein vollständiges umkonfigurieren der ganzen hardware auch nachträglich mit jedem firmwareupdate erlauben. dass das aber natürlich bei hardware für die breiten massen nicht besonders zielführend wäre, weil es doch wesdentlich tuerer kommt und in die verarbeitung spürbar langsamer ist, ist natürlich auch klar.

das ändert aber nichts daran, dass es weder speicherseitig noch von den hier üblichen kommunikationswegen zwischen den komponenten irgendwelche gröberen hindernisse geben dürfte, RAW-daten statt irgendwas anderes rauszuschicken. man muss sich einfach nur vergegenwärtigen, dass heutige bildaufbereitungschips in billigen kameras oft temporales noise reduction beherrschen, was quasi zwingend voraussetzt, dass mindestens der umfang eines vollbilds als vergelichsreferenz irgendwo direkt im speicher greifbar sein muss, etc.

wie gesagt, wenn es gründe gibt, dass derartige features ganz bewusst nicht angeboten werden, sind das leider ganz andere als die genannten techn. probleme.

Space


Antwort von Frank Glencairn:

Erinnert mich ein bisschen and die Andromeda/Hydra Hardware Hacks bei der DVX100 und HVX200 damals - ich glaub 2005 - wo es tatsächlich gelungen ist, das raw Signal irgendwo anzugreifen, bevor es weiter verarbeitet wurde.

http://www.dvxuser.com/V6/showthread.ph ... our-HVX200



Space


Antwort von Roland Schulz:

Jetzt ist das YT Video weg - hmm, was war das nun?!
Wirkliches Prores RAW oder Prores als Prores Raw getagged?!
Irgendwie kann ich das alles nicht glauben...

Space


Antwort von motiongroup:

Prores RAW wie oben verlinkt

Space


Antwort von Roland Schulz:

motiongroup hat geschrieben:
Prores RAW wie oben verlinkt
Sorry, war Dein Video, nicht das des Spaniers.

Space


Antwort von motiongroup:

Mein video mit den zuvor verlinkten quellfiles

Space


Antwort von dnalor:

Ich hab mir mal die beiden ProresRaw-Files auf mein 12" MacBook runtergeladen und ein wenig rumgespielt. Schon krass wie flüssig das läuft. Als würde man Proxy Material nutzen. Selbst wenn man ein paar Filter drauflegt läuft das noch flüssig.

Space


Antwort von motiongroup:

so, ich habe das nun noch auf dem Hack mit einer i7 4970k und einer GTX 970 getestet..und iStat parallel dazu kontrolliert wie die Auslastung von der IGPU und der NV GTX aussieht..

bei vier Spuren mit Farbe PIP und Ken Burns.. alle acht Cores bei 25% und die IGPU bei NULL die GTX mit der Speicherlast und bei der Prozessorlast bei runden 50%..

ich habe danach nicht mehr weiter gemacht..

PS: habe noch vergessen, ich habe ne Bauchbinde durchhuschen lassen..

und wieder hat sich ein Neukauf in weite Ferne gerückt denn auch das alte MBP17" 2011 steckt das locker weg.. irgendwie macht das fast Angst..;)

Was aber Auffällt am HACK ist der aktuelle NV Webtreiber nicht das Gelbe... vom Ei..;) ab und an tauchen bunte Würfeln in der GUI von fcpx auf... nicht im Canvas.. bin aber nicht der Einzige.. Wayne kümmerts

Space


Antwort von Roland Schulz:

Das ist echt schon ne Ansage!!

Kann man anhand der Samples Qualität abschätzen?! Verstehe nicht wie man 4 4K Tracks gleichzeitig in 30p debayern kann...

Wie sieht das aus wenn man das in nen 4K Prores exportiert (performancemäßig...)?

Space


Antwort von DV_Chris:

"Roland Schulz" hat geschrieben:
Das ist echt schon ne Ansage!!

Kann man anhand der Samples Qualität abschätzen?! Verstehe nicht wie man 4 4K Tracks gleichzeitig in 30p debayern kann...

Wie sieht das aus wenn man das in nen 4K Prores exportiert (performancemäßig...)?
Das erscheint mir auch wie Zauberei, die Debayer Sache. Ist ja nicht so, dass andere Hersteller keine Top Entwickler hätten.

Space


Antwort von Axel:

Die Testclips sind doof, weil statisch. Aber performancemäßig wirken sie echt wie normales ProRes. Und CC macht auch Spaß damit. Ich hoffe, dass bis September die Pocket 4k den Codec an Bord an. Obwohl ich nach wie vor Resolve benutzen würde.

Space


Antwort von wolfgang:

Man müsste also ein paar verschiedene 4K DCI 50p Clips für die Testerei verwenden.

Space


Antwort von motiongroup:

Ich habe bis auf diese zwei keine gefunden..

Schön das sie das Format entwickelt haben ...
Must have... Nö..
Prores langt mir(uns) auf lange Sicht...
Aber es ist gut zu wissen das es funktioniert wenn der Content extern angeliefert wird...

Space


Antwort von wolfgang:

https://youtube.com/watch?feature=youtu ... QbqENPQaM8

Space


Antwort von Frank Glencairn:

Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?

Space


Antwort von rush:

"Frank Glencairn" hat geschrieben:
Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?
Das wäre in der Tat merkwürdig und würde den eigentlichen RAW-Gedanken ja ad acta führen - und womöglich auch die von einigen Usern erwähnte "gute" Perfomance erklären wenn's eher ein höherwertiges LOG ist...

Dabei heißt es bei FCPX: "ProRes RAW has been designed for HDR workflows, and with the latest codec editors can import, edit and grade pristine footage with RAW data from the camera sensor just like they would any other non-Raw existing ProRes codec be it a 10bit or 12bit variant, however this time with the benefits of a Raw workflow – with full access to white balance, ISO, lens data stored in the metadata files and much more."

Also sollte das ja schon auch möglich sein.

Space


Antwort von Frank Glencairn:

Also entweder checkt es der Typ in dem Video also nicht, oder die Kamera spuckt kein richtiges RAW aus, sondern irgend ne "Sony Light RAW" variante.

Space


Antwort von motiongroup:

Könnt ja selber damit herumspielen ;)

https://mega.nz/#F!Nd0XxJzC!hlfXGYfIDwiw_UiwB3ZS-w

Space


Antwort von rush:

motiongroup hat geschrieben:
Könnt ja selber damit herumspielen ;)
Nö, können wir (ich) nicht - weil kein Mac und entsprechend kein FCPX :D

Space


Antwort von motiongroup:

Alles klar Leute, dann heißt es warten und nicht vorher schon die Welt am Abgrund sehen...:)))

Ich verstehe generell nicht warum um diesen Codec der noch nichtmal Systemweit verfügbar so viel Aufhebens gemacht wird..
Die Welt dreht sich weiter auch mit den Radneuerfindern..
Ist Workflow einfacher am Beispiel RED oder CDNG ves ProresRAW unter FCPX nona werde ich den ProResRAW bevorzugen wenn das Equipement vorhanden ist oder auch neu angeschaft wird.. der Rest ist nice to have mehr nicht.. war aber schon bei Prores nicht anders welcher sogar Systemweit eingesetzt werden könnte wenn ja wenn die Entwickler ihren Obulus an Apple abdrücken würden.. einige machens andere lavieren seit Jahren herum, andere wieder suchen in nicht legalen Optionen ihr Heil... Ich seh das seit einiger Zeit viel entspannter weil mir das Thema Video weder Beruflich noch Privat besonderes Interesse abverlangen würde..Dann und nun dann kommt einen das was hier geschrieben wird ziemlich Strange vor und wird mit einem Kopfschütteln quittiert. Wilde Thesen, freche Forderungen im speziellen von Denjenigen die sowieso niemals damit Arbeiten würden aus Teils weltanschauungstypischen Befindlichkeiten.. man braucht sich ja nur umsehen was sich in Welt so abspielt..

Space


Antwort von rush:

Ich sehe das ja auch locker und entspannt, aber kann schon verstehen das diese Ankündigung einige Wellen schlägt und ich finde es beinahe interessanter als etwa die Ankündigung der Pocket - deren Hype ich nicht so ganz verstehe.

Wäre doch wirklich ganz nice wenn sich mal eine Art Standard für Raw etablieren würde, auch wenn ich nicht daran glaube.
Die Hersteller werden sich vermutlich ungern in die Karten schauen lassen und ein properiteres System lässt sich teurer verkaufen - Insellösung halt.

Die Entwicklung von ProRes Raw hat Apple also in den Händen - wer Apple jedoch kennt weiß auch das sie selten für offene Systemarchitekturen sind.

So gesehen muss man mal schauen wie da die anderen NLE und Grading-Anbieter mitspielen (dürfen/können) und wohin der Hase läuft.
Zu erwarten das von Tag Null an alles überall spielt ist aber logischerweise illusorisch.

Interessant wäre ja vllt auch eine Art ProRes Raw Converter - der ähnlich dem CDNG Konverter im Standbildbereich Material fremder RAW-Quellen ins eigene Hausformat wandeln kann... für Apple / FCPX User wäre das sicher nice in Hinblick auf die Perfomance. Denn die wandlen ja eh fast immer alles erst nach ProRes ;-)

In der Windows Welt hätte Adobe die Chance ja längst gehabt, vielleicht hat man das ganze Mangels Konkurrenz aber auch einfach schleifen lassen.. oder es ist lizenzmäßig und technisch zu kompliziert - keine Ahnung

Space


Antwort von Sammy D:

"Frank Glencairn" hat geschrieben:
Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?
Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.

Space


Antwort von nic:

"Sammy D" hat geschrieben:
"Frank Glencairn" hat geschrieben:
Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?
Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.
Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben. Bei der Frage warte ich aber noch auf die Antwort von Panasonic.

Space


Antwort von Frank Glencairn:

"Sammy D" hat geschrieben:

Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.
Es macht einen riesen Unterschied, ob du auf den raw (Meta)Daten deinen First Pass machst, oder auf den debayerten RGB Daten.
Ich würde sogar sagen, wenn du raw nicht raw bearbeiten kannst, sondern gezwungen bist, auf den RGB Daten zu arbeiten, dann macht es auch keinen Sinn, überhaupt raw zu drehen. Da kannst du auch gleich RGB/YUV aufnehmen, das macht dann keinen Unterschied mehr.
7nic hat geschrieben:

Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben.
Ja, sowas hab ich mir schon gedacht. Das erklärt einiges.

Space


Antwort von Axel:

"Sammy D" hat geschrieben:
"Frank Glencairn" hat geschrieben:
Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?
Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
In Resolve gibt es den Tab CAMERA RAW, in dem alle Metadaten gesammelt sind und unabhängig von den sonstigen CC-Werkzeugen die o.g. Werte manipuliert werden können. In FCP gibt es nur unter den Farbrädern diese Schieberegler:

zum Bild


Darüber hinaus gibt es im >Info-Fenster >Metadaten >Erweitert etwa mittig in der Liste die beiden Punkte "Raw to LOG Conversion" und darunter "Kamera LUT" (beide spontan "Panasonic V-Log"). Dass diese etwas unzugänglicher sind, ist nicht weiter schlimm, da es FCP-typisch ist, die komplette Auswahl an Clips aus z.B. einer Kamera im Browser als Gruppe zu wählen und gemeinsam einzustellen.

Wenn jemand vier, fünf Testclips lädt, denkt er sich vielleicht, hey, das geht ja wie Butter, ich brauch gar keine speziellen Camera Raw Werkzeuge. Meine persönliche Meinung ist, dass sich das ab allem über 20, 30 Clips (eine simple Hochzeit hat i.d.R. 100-300!) ändert. Die Einzeltools in FCP mögen recht nett sein, aber es gibt kein übersichtliches GUI für diesen Workflow-Schritt, sondern den *Zwang*, zwischen Fenstern hin und her zu springen. Die Organisation von CC-Schritten durch Nodes ist mit einer Listendarstellung weder von der Darstellung noch von der Funktionalität her zu ersetzen. Darum: Schuster, bleib bei deinen Leisten! FCP für den Schnitt (so nett Resolve das hingekriegt hat, es benutzt weiterhin Spuren und hat nur rudimentäre Organisationstools), Resolve für Farbkorrektur. Und darum, so nett ProRes Raw auch sein mag, es fängt erst an, interessant zu werden, sobald Resolve es unterstützt.

Es könnte ja zum Beispiel nur in der Studio-Version verfügbar sein, um die Lizenzgebühren wieder reinzuholen und gleichzeitig mehr Leute zum Kauf anzuregen. Wenn es bis September in der Pocket 4k enthalten ist, werden deren Verkäufe geradezu durch die Decke gehen! Ungeachtet mir nicht zugänglicher JR Ewing/Cliff Barnes-Konkurrenzstrategien zwischen den Konzernen würde der beschriebene Synergie-Effekt die schnelle Verbreitung von PRR sogar wirtschaftlich erzwingen.

Space


Antwort von DV_Chris:

Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.
Wäre ja möglich. Da es ohnehin auf Computern nur Decoder gibt, könnte PRR plattformunabhängig in jede Software integriert werden. Warum PRR die Pocket attraktiver machen könnte? Möglicherweise billigere Speichermedien. 4k 60p RAW braucht CFast. Mal nachgesehen, was die kosten und wie schnell sie mit diesem Format zugeschissen wären?

Space


Antwort von DV_Chris:

Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.

Space


Antwort von Sammy D:

DV_Chris hat geschrieben:
Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.
... und die Jammerei ueber einen verbogenen oder defekten USB-C-Port auf ein Maximum. ;)

Space


Antwort von DV_Chris:

Gibt ja auch gewinkelte Stecker.

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.
Reicht denn das für 4k Raw 60p? Und wenn, die 2 TB Samsung Variante, die auf den BM-Seiten gezeigt wird, kostet fast soviel wie der Kamerabody. Und dann baumelt ein Kästchen runter oder ein Monsterrig wächst außen drum rum.

Space


Antwort von Sammy D:

DV_Chris hat geschrieben:
Gibt ja auch gewinkelte Stecker.
Das nuetzt herzlich wenig. Man beruehrt vielleicht die herausstehenden Stecker weniger, aber zieht unabsichtlich an den Kabeln.
Mir ist bisher jeder zweite Micro-USB (Tablet, Handy, Gimbal, sonstiges) nach kurzer Zeit kaputtgegangen, Mini-USB ist auch nicht gerade robust und Micro-HDMI ist ebenfalls eine Katastrophe, wenn man kein Lock dranmacht. Einzige Ausnahme ist der Micro-HDMI des Atomos Ninja-Star; der scheint unverwuestlich: da muss ich mit Kraft ziehen, um den Stecker zu loesen.

Lieber kaufe ich zwei CFast-Karten als eine Ersatz-Pocket.

Space


Antwort von Jott:

Gibt es jetzt irgendwo sinnvolle Footage zu laden? Die spanische Wunderlampe (Magic Lantern!) ist mangels Bewegung etwas arg dämlich.

Ich vermute, fcp verarbeitet das Raw wie sonst auch immer alles. Beim Schnitt via ProRes, zur finalen Ausgabe zu was auch immer wird dann wieder auf die Originalfiles, hier raw, zurückgegriffen. Wozu ein Zwischenschritt (first light)? Aber das würde ich gerne mal durchspielen. Und die Performance feststellen. Die Panik, man brauche einen Rechner im fünfstelligen Bereich ist sicher Quatsch. Was soll ich mit sieben oder mehr RAW-Strömen wie in der Angebergrafik im White Paper? Zwei reichen ja (Blende) auf einem MacBook. Picture in Picture-Orgien ist 90er-Jahre.

Space


Antwort von Axel:

"Sammy D" hat geschrieben:
Lieber kaufe ich zwei CFast-Karten als eine Ersatz-Pocket.
Exakt. Und dann wäre es aufgrund der €/GB Relation schön, wenn 40 Minuten drauf passten statt 20 (oder so, hab mich mit den Unterschieden zwischen PRR und komprimiertem DNG noch nicht näher befasst).

Space


Antwort von nic:

Jott hat geschrieben:
Gibt es jetzt irgendwo sinnvolle Footage zu laden? Die spanische Wunderlampe (Magic Lantern!) ist mangels Bewegung etwas arg dämlich.

Ich vermute, fcp verarbeitet das Raw wie sonst auch immer alles. Beim Schnitt via ProRes, zur finalen Ausgabe zu was auch immer wird dann wieder auf die Originalfiles, hier raw, zurückgegriffen. Wozu ein Zwischenschritt (first light)? Aber das würde ich gerne mal durchspielen. Und die Performance feststellen. Die Panik, man brauche einen Rechner im fünfstelligen Bereich ist sicher Quatsch. Was soll ich mit sieben oder mehr RAW-Strömen wie in der Angebergrafik im White Paper? Zwei reichen ja (Blende) auf einem MacBook. Picture in Picture-Orgien ist 90er-Jahre.
Wenn du mir eine Mail schreibst, kann ich dir was zukommen lassen: nic at neuzeit.tv

Also ein iMac Pro 10-Kerner mit Vega 64 oder einen Mac Pro 12-Kerner von 2010 mit Vega 56 lässt sich mit PRR zumindest nicht annähernd auslasten...

Space


Antwort von DV_Chris:

So wie für jede Kamera wird es auch Cages für die Pocket 4K geben. Und vernünftige Rigs zeichnen sich durch ordentliches Kabelmanagement aus. Also die SSD Sache wird genug Freunde finden.

Space


Antwort von wolfgang:

7nic hat geschrieben:
"Sammy D" hat geschrieben:


Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.
Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben. Bei der Frage warte ich aber noch auf die Antwort von Panasonic.
Ja das haben wir inzwischen auch für CDNG aus der EVA1/Shogun Kombination unter Resolve herausgefunden. ISO sollte daher auf einer der nativen ISOs stehen, und einen WB sollte man offenbar auch machen. Diese Bestätigungen finden sich inzwischen auch auf Facebook von Mitch Gross.

Mich wundert nur dass man solche relevanten Informationen nicht vorab kommuniziert?

Space


Antwort von wolfgang:

DV_Chris hat geschrieben:
Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.
Die Verkäufe dürften durch die Decke gegen, aber sicher nicht wegen PRR!

Space


Antwort von wolfgang:

7nic hat geschrieben:
Also ein iMac Pro 10-Kerner mit Vega 64 oder einen Mac Pro 12-Kerner von 2010 mit Vega 56 lässt sich mit PRR zumindest nicht annähernd auslasten...
Wie sind den diese Geräte genauer ausgestattet?

Space


Antwort von motiongroup:

http://forum.blackmagicdesign.com/viewt ... =2&t=71762 ProRes RAW is a great thing.

It gives you RAW controls inside of ProRes. I believe it’s been leaked or announced elsewhere that Resolve supports this already. It’s not just FCPx.

ProRes implementations aren’t closed to reading ProRes files so I imagine it’s just up the the ProRes app developers to write their code and you’ll see other platforms supporting this.

Cineform is dead.

They wanted too much money to licence. Now they’re owned by GoPro and have gone exactly nowhere.

It doens’t matter if they’re smarter or better. They don’t have any market support.

ProRes support is hardware assisted and it’s built into the OS and Hardware of each Apple product and they make damn sure it works very very reliably when originating to it in camera.

You will see this in cameras very soon. Think of almost any camera that shoots ProRes now, and it could potentially do ProRes RAW. It will only be up to the will of the manufacturer to implement it.

Like ProRes or not, this is big news and I suspect it will be rapidly adopted. I’d guess that the MAJORITY of the worlds high end production isn’t RAW, it’s ProRes, for many many reasons that have nothing to do with IQ and everything to do with workflow. Now you get both.

JB
John Brawley
ich vermute es wird nicht lange dauern...;)

Space


Antwort von wolfgang:

motiongroup hat geschrieben:
http://forum.blackmagicdesign.com/viewt ... =2&t=71762 ProRes RAW is a great thing.

It gives you RAW controls inside of ProRes. I believe it’s been leaked or announced elsewhere that Resolve supports this already. It’s not just FCPx.
John Brawley
ich vermute es wird nicht lange dauern...;)
Genau das ist eben die Frage, ob es lange dauert. Wenn John hier recht hätte, dann sollte es PRR längst in Resolve 15 geben. Ist aber nicht so.

Dass viele CDNG hassen - eh klar. Die Datenmengen sind eben enorm. Aber dafür gäbe es ja mit slimRAW sogar Abhilfe.

Verstehe mich richtig: ich würde uns wünschen dass PPR ein Erfolg wird. Aber dann bitte auf allen relevanten Plattformen. Also her damit! :)

Space


Antwort von cantsin:

motiongroup hat geschrieben:
http://forum.blackmagicdesign.com/viewt ... =2&t=71762 You will see this in cameras very soon. Think of almost any camera that shoots ProRes now, and it could potentially do ProRes RAW. It will only be up to the will of the manufacturer to implement it.
Dann muss man aber auch klar sagen, dass ProRes über HDMI und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProRes aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment.

Space


Antwort von srone:

wolfgang hat geschrieben:
Wenn John hier recht hätte, dann sollte es PRR längst in Resolve 15 geben. Ist aber nicht so.
noch ist es nur die beta...;-)

lg

srone

Space


Antwort von motiongroup:

Dann muss man aber auch klar sagen, dass ProRes über HDMI und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProRes aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment. ist ja bei Prores auch nicht anders...

Space


Antwort von cantsin:

motiongroup hat geschrieben:
Dann muss man aber auch klar sagen, dass ProRes über HDMI und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProRes aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment. ist ja bei Prores auch nicht anders...
Das meinte ich ja. (Ich schrieb über ProRes, nicht ProRes Raw.) Also, wenn die Ambition von ProRes Raw sich darauf beschränkt, in die Klasse Kameras einzuziehen, die heute schon ProRes aufnehmen, wird das doch eine ziemlich exklusive Veranstaltung.

Space


Antwort von motiongroup:

ach so, ich dachte Du hast das RAW einfach weggelassen..;)

Space


Antwort von Starshine Pictures:

https://youtu.be/x2RRndhLliw

Space


Antwort von WoWu:

Null Information. ... 100% Marketing.

Space


Antwort von DV_Chris:

Brawley klingt wie ein Fanboy.

Space


Antwort von WoWu:

Ich finde das ziemlich traurig, dass es zu solchen Formaten nicht mal relevante Informationen gibt.

Space


Antwort von nic:

Ich find‘s schön, wenn jemand vom eigenen Produkt ehrlich begeistert ist. Und ich kaufe es ihm auch noch ab...

Space


Antwort von WoWu:

Nennt man sowas dann Zweckoptimismus ?
Eigentlich wär’s ihm auch lieber, dass Du ihm nicht seine Begeisterung, sondern sein Produkt abnähmst.

Space


Antwort von srone:

WoWu hat geschrieben:
Nennt man sowas dann Zweckoptimismus ?
Eigentlich wär’s ihm auch lieber, dass Du ihm nicht seine Überzeugung, sondern sein Produkt abnähmst.
wobei ich anmerken möchte, dass bei diesem hersteller, eben nicht nur das produkt im vordergrund steht...;-)

lg

srone

Space


Antwort von WoWu:

Das verstehe ich nicht .... leben die nicht von ihren Produkten ?

Ich finde überwiegend in dem FCP Update nirgends irgendwelche Hinweise auf die Eingriffmöglichkeit in irgend einen De-mosaicing prozess.
Hat da schon jemand was entdeckt ?

Space


Antwort von srone:

das schon, aber diese produkte werden auch von einem gewissen lifestyle-"hype" getragen..

lg

srone

Space


Antwort von Jott:

WoWu hat geschrieben:
Ich finde das ziemlich traurig, dass es zu solchen Formaten nicht mal relevante Informationen gibt.
Wozu denn, du würdest doch ProRes aus Prinzip sowieso niemals benutzen. Ist weit unter deiner Würde, wie du unermüdlich kundtust.

Space


Antwort von nic:

Letztlich ist es wohl einfach nur lineares ‚Graustufen‘- ProRes mit variabler Bittiefe und der zusätzlichen Definition des CFA im Header...

Space


Antwort von WoWu:

Das wäre aber bitter.
Wobei sie ja irgend etwas anders als in PR machen müssen, denn nicht umsonst ist Mindestanforderung „high sierra“.
Mal sehn, ob man irgendwoher ein stück content bekommt.

Space


Antwort von nic:

WoWu hat geschrieben:
Das wäre aber bitter.
Wobei sie ja irgend etwas anders als in PR machen müssen, denn nicht umsonst ist Mindestanforderung „high sierra“.
Mal sehn, ob man irgendwoher ein stück content bekommt.
Redraw sind ja auch nur variabel wavelet-komprimierte lineare ‚Graustufen-Bilder‘... mehr ist raw auch einfach nicht.

Space


Antwort von WoWu:

Kommt immer drauf an, aus welcher Kamera es kommt.

Space


Antwort von cantsin:

Grant Petty, CEO von Blackmagic, über ProRes Raw:

"There's some problems with it. It's basically blacks in the color science. It's a look-up table and a Bayer package. It's just a container with a LUT. And so the difficulty is, when we record into that, and it winds up in Final Cut, unless our color science is in there, it's gonna look bad. So it needs more work, and at the moment. So it's just one of those things, there's some issues. I mean, we do that already in the camera. The reason why we use raw is that you wanna bypass that stage and go into DaVinci. DaVinci already does all these formats, the native camera formats, with all the color science from the camera manufacturers in there to handle that. That's where all the work is, it's in the color science. So often when we get raw files from various sources, it's the camera manufacturer's color science and our color sciences working to make these images look good".

https://youtu.be/yQHH-o_rmK8?t=392

Space


Antwort von WoWu:

Es ist immer dasselbe problem, dass die Interiewer keine wirklichen Fragen stellen und die Interviewten antworten können, was sie wollen, weil die Interviewer entweder sowieso nicht zuhören oder/und die Antworten gar nicht einordnen.
Das, was dabei heraus kommt, ist dann so ein Ergebnis.


Ic h glaube mittlerweile auch, dass das nur ein flachgebügeltes Video ist, auf dem nur RAW in goldenen Lettern glänzt und zweifel stark daran, dass FCP irgendwelches De-mosaicing macht denn gerade da könnte man maßgeblich in die Bildverbesserung einwirken. Nur braucht dazu die Palette an Tools, die (ich zumindest) bisher in 10.4.1 nicht finden kann.
Da ist mal wieder eine Marketingmaschine angelaufen und jeder fällt drauf rein.

Space


Antwort von Jott:

Und nicht vergessen: ProRes RAW ist nur MPEG 2 in s/w mit den „riesigen Makroblöcken“ der „dreißig Jahre alten DCT“. Denn Apple kann keine „modernen Codecs“. Gleich ins Buch schreiben.

Space


Antwort von nic:

Jott hat geschrieben:
Und nicht vergessen: ProRes RAW ist nur MPEG 2 in s/w mit den „riesigen Makroblöcken“ der „dreißig Jahre alten DCT“. Denn Apple kann keine „modernen Codecs“. Gleich ins Buch schreiben.
Naja, aber gerade deshalb ist es ja so perfomant. Wer schon mal versucht hat mit Long-GOP 4K zu schneiden, der weiß wieder was er an ProRes hat.

Und bei PRR von flachem Video zu sprechen, hat was von Verschwörungstheorie... die einzige Definition von Raw, die so ziemlich jeder ubterschreiben würde, ist, dass die Daten vor dem Demosaicing gespeichert werden. Und das ist bei PRR definitiv der Fall. Anders sind die Datenmengen gar nicht erklärbar. Und auch die Aussagen des PRR-Skeptikers bei BMD unterstreicht das: Er müsste seine Colorscience preisgeben, wenn seine Kameras PRR aufzeichnen würden. Könnte er flaches Video ausgeben, wäre das debayering eingebacken. Außerdem wäre das PRR whitepaper ein großer Fake und Panasonic, Sony und Canon würden den gabzen Komplott decken... weil sie ja selbst an ihrem SDI-Raw gar kein Raw ausgeben, obeohl sie das ja versprechen. Warum auch immer. Vielleicht weil sie gerne die dreifachen Datenmengen auf Rekorder pumpen wollen.

An Raw zu zweifeln finde ich absolut unsinnig. Über die konkrete Umsetzung zu diskutieren ist aber interessant. Dafür fehlen uns aber noch Informationen, vor allem über das Raw-Processing in FCPX und über die RAW-Aufbereitung in den Kameras. Was PRR macht, ist eigentlich ziemlich klar.

Space


Antwort von Roland Schulz:

Na ja, sagen wir mal so, ich glaube einige hier, mich eingeschlossen, sind doch ziemlich überrascht über das was Apple da an Performance rauszuholen scheint.
Auf diesem Level hat das bisher keiner auch nur annähernd geschafft.
Die Frage ist nun wie es zu diesem Performanceschub kommen kann, zumal das auch auf alten Systemen vergleichsweise explodiert?!
Was haben wir wirklich für Daten und wie sieht die Qualität am Ende aus?! Haben wir hier ggf. ein very quick & very dirty Debayering oder hält das tatsächlich mit anderen Verfahren mit?!
Ich meine da basteln gerade im Fotobereich seit Generationen Größen dran rum (Adobe hat 2006 mal Pixmantecs RawShooter gekauft und weiterentwickelt) aber so eine Perfromance wie jetzt hat bis heute niemand an den Tag gelegt.
Apple hat sicherlich einiges an Manpower in der Halle um sowas zu entwickeln und optimieren, nur will mir irgendwie der Zauber trotzdem noch nicht ganz einleuchten.

Weiter: warum sollte gerade Apple die RAW Entwicklung selbst mit Parametern versehen?! Gerade Apple ist doch bekannt dafür dass man versucht Sachen zu "vereinfachen"?! Warum eine doppelte (Farb-)Anpassung ermöglichen?!
Wo sollte der Unterschied liegen RAW Daten beim Debayering mit Parametern zu belegen oder die Parameter später auf ein linear debayertes RGB Bild mit hoher Bittiefe (!) anzuwenden?! Das ergibt keinen Unterschied!
Was einen Unterschied ergibt ist das Preequalizing von Sensordaten vor der Speicherung, bedeutet Gainanpassung allgemein zur Gesamtverstärkung (ISO) oder zum Weißabgleich. Letzteres würde die RAW Absicht zwar klar schwächen, wird bei geringer Quantisierung aber zu Vorteilen führen.
Hat Nikon bei der D2x/s mal so gemacht.
Jede weitere Anpassung kann während oder nach dem Debayering durchgeführt werden, wenn die Quantisierung der Verarbeitung entsprechend hoch ist. Es macht keinen Unterschied.

Space


Antwort von Axel:

Jott hat geschrieben:
Und nicht vergessen: ProRes RAW ist nur MPEG 2 in s/w mit den „riesigen Makroblöcken“ der „dreißig Jahre alten DCT“. Denn Apple kann keine „modernen Codecs“. Gleich ins Buch schreiben.
Auf EOSHD wurde gerade ProRes auch diskutiert. Darin dieser Clip (Irrtum darin: ProRes422 ist auch 10-bit):


Darum muss man verschiedene Konzepte und Aussagen voneinander trennen. Ich verglich nachträglich transkodiertes ProRes mit XAVC. Und ich fand zu meinem großen Schock in 400% Vergrößerung Unterschiede. Allerdings keine sehr augenfälligen und ganz gewiss keine wie die Makroblöcke auf dem Rasen im oben verlinkten Video.

Welche Komponente ist dafür verantwortlich?

> ProRes? - zum Teil. Es ist eine Kompression nach anderen Prinzipien, ein komplett anderes Bild als was - wie in diesem Beispiel - eine Canon C100 in AVCHD komprimiert.

> Was aus der Kamera via HDMI kommt? - kann es doch eigentlich nicht sein, denn sollte das nicht unkomprimiert sein? Mithin keine kompressionsbedingten Blockartefakte enthalten?

> Der Atomos? - das vermute ich mal stark. ProRes der BMPCC und der BMPC, das ich noch habe, zeigt keine solchen Artefakte.

Also würde ich schließen, dass es zum geringeren Teil der Codec und zum größeren Teil das schlechte Atomos-Encoding ist. Kombiniert das mit ProRes Raw auf Ninja V und mit dem, was Grant Petty oben über die nicht respektierte "Color Science" sagt. Ich vermute, wenn PRR gescheit in den Workflow integriert ist - d.h. auch unter der Bedingung, dass alle Metadaten zur herstellertypischen Color Science erfasst (also kameraherstellerseits über HDMI ausgegeben) und sowohl vom Encoder (Atomos) als auch vom NLE (FCP) benutzt werden - dann wäre PRR eine gute Alternative. Aber nur dann.

Am besten wäre natürlich, wenn der Kamerahersteller den Codec übernimmt. Nicht sehr wahrscheinlich, aber gerade noch vorstellbar bei Panasonics GH5S. Und die liebe EVA? Nein, auch unwahrscheinlich.

Space


Antwort von Jott:

Dieses eine Bloggervideo wird immer noch ausgegraben, das schon im Vorspann Unsinn verzapft? Das ist übrigens wowus Quelle für die „riesigen Makroblöcke“. Eine andere gibt es nicht.

Arri dominiert mit ProRes den Weltmarkt der TV- und Filmproduktion (ArriRaw wird selten eingesetzt). Wo sind sie denn, die „riesigen Makroblöcke“, auf den Screens und Leinwänden dieser Welt? Was für ein Gefasel. Oder hatte Arri nach diesem Video panisch auf AVCHD umgestellt? Mag ja sein, und es ist mir entgangen.

Space


Antwort von Roland Schulz:

Der Vergleich spiegelt schon einen großen Teil Realität wieder denn der Bitratenvorteil der Intracodecs ist nicht immer ein Bildqualitätsvorteil gegenüber Intercodecs.
Das Video zeigt sehr gut das bei statischen Motiven der eigentlich unterlegene Interframecodec durch Long-GOP Vorteile hat, bei dynamischen Motiven der Interframecodec mit deutlich höherer Bitrate gewinnt.
Das ist nichts anderes als logisch, ist im GH5/s Lager aber so auch noch nicht angekommen.
Von riesigen Blockartefakten bei Prores würde ich jetzt nicht unbedingt sprechen, sichtbar kann das in Details dennoch werden bzw. werden Details gar nicht erst aufgezeichnet.

Ohne Frage ist aber auch die Qualität des jeweiligen Encoders abhängig von der Implementierung.

Verstehe jetzt aber nicht was das mit RAW hier zu tun haben soll.

Space


Antwort von motiongroup:

Ich verstehe euch echt nicht wirklich ... statt das sich die User freuen das es neues gibt wird’s schlechgeredet... ich weis machen sie immer schon so wenn es gegen ihre Gesinnungsgenossen geht und nicht ihrem Verkaufsportfolio eingepflegt sein sollte..

Lass gut sein Jott er wurde schon vor Jahren der unerlaubten Verwendung der CopyPaste überführt.. und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen... periodisch schlagen sie halt immer wieder auf wenn’s was neues gibt... ist wie bei studioparis der vor Jahren noch anderorts Windows mobile als Heilsbringer auserkoren hat und oder den Usern AMD Opteron Wksts schmackhaft machte..

War ne schöne spannende vorallem unterhaltsame Zeit..

Space


Antwort von DV_Chris:

Solange das Ökosystem von PRR aus einem Rekorder (Sumo wird man je eher weniger aufs Rig packen), ein paar Raw fähigen Kameras (davon sogar schon zwei EOL) und einer NLE besteht, kann es schon rein rechnerisch zu keiner massenhaften Verbreitung kommen. Der aktuelle Stand muss aus Sicht von Atomos ernüchternd erscheinen:

- Weitere Rekorderhersteller (AJA, Convergent Design, Video Devices) erwähnen das Format mit keinem Wort. AJA hat zur NAB gar DNxHR gepusht.

- Keiner der relevanten Kamerahersteller hat Interesse an dem Format zur internen Aufzeichnung bekundet. Und ja, so was würde man am größten Branchenevent des Jahres kundtun. Oder eben auch nicht.

Nach den ersten Tests scheint das Format sehr performant, was aber im gleichen Atemzug Zweifel aufkommen lässt, ob PRR überhaupt mit einem klassischen Raw Workflow verglichen werden kann. Es wirkt mehr wie ein gepimptes ProRes. Also mehr Marketing Buzz als technologische Höchstleistung. Denn Hand aufs Herz: andere Firmen und deren Entwicklungsabteilungen sind ja nicht auf der Nudelsuppe daher geschwommen. Wäre alles so easy wie mit PRR, dann hätten das andere wohl schon Jahre früher implementiert.

Persönlich hoffe ich (aufgrund meiner guten persönlichen Beziehungen zu Atomos und vielen Mitarbeitern dort), dass man hier nicht aufs falsche Pferd gesetzt hat und Resourcen falsch eingesetzt wurden, die man gegen den Mitbewerb hätte besser einsetzen können.

Space


Antwort von Axel:

Jott hat geschrieben:
Dieses eine Bloggervideo wird immer noch ausgegraben, das schon im Vorspann Unsinn verzapft? Das ist übrigens wowus Quelle für die „riesigen Makroblöcke“. Eine andere gibt es nicht.
Das wusste ich nicht.
Ich verstehe euch echt nicht wirklich ... statt das sich die User freuen das es neues gibt wird’s schlechgeredet...



Ach Quatsch. Mich zumindest kannst du nicht meinen.

... und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen...


🤭

Space


Antwort von nic:

DV_Chris hat geschrieben:
Solange das Ökosystem von PRR aus einem Rekorder (Sumo wird man je eher weniger aufs Rig packen), ein paar Raw fähigen Kameras (davon sogar schon zwei EOL) und einer NLE besteht, kann es schon rein rechnerisch zu keiner massenhaften Verbreitung kommen. Der aktuelle Stand muss aus Sicht von Atomos ernüchternd erscheinen:

- Weitere Rekorderhersteller (AJA, Convergent Design, Video Devices) erwähnen das Format mit keinem Wort. AJA hat zur NAB gar DNxHR gepusht.

- Keiner der relevanten Kamerahersteller hat Interesse an dem Format zur internen Aufzeichnung bekundet. Und ja, so was würde man am größten Branchenevent des Jahres kundtun. Oder eben auch nicht.

Nach den ersten Tests scheint das Format sehr performant, was aber im gleichen Atemzug Zweifel aufkommen lässt, ob PRR überhaupt mit einem klassischen Raw Workflow verglichen werden kann. Es wirkt mehr wie ein gepimptes ProRes. Also mehr Marketing Buzz als technologische Höchstleistung. Denn Hand aufs Herz: andere Firmen und deren Entwicklungsabteilungen sind ja nicht auf der Nudelsuppe daher geschwommen. Wäre alles so easy wie mit PRR, dann hätten das andere wohl schon Jahre früher implementiert.

Persönlich hoffe ich (aufgrund meiner guten persönlichen Beziehungen zu Atomos und vielen Mitarbeitern dort), dass man hier nicht aufs falsche Pferd gesetzt hat und Resourcen falsch eingesetzt wurden, die man gegen den Mitbewerb hätte besser einsetzen können.
Du schreibst immer wieder den selben Beitrag in neuen Worten... Die anderen Rekorderhersteller dürfen PRR noch gar nicht implementieren. Klar, dass sie (noch) kein Interesse bekunden. BMD hat keine Lust seine CS preiszugeben und Sony, Panasonic und Canon sind schon dabei. Arri wird mit ziemlicher Sicherheit schon mit Apple in Gesprächen sein und viel mehr andere relevante Hersteller mit potentiellem Interesse an PRE gibt es gar nicht... Adobe hat schon angekündigt sich mit PRR auseinanderzusetzen. Ich glaube, dass PRR einfach für alle überraschend kam... wieso sollte sich da jemand, der nicht bei der Entwicklung dabei war in der Woche nach Ankündigung aus dem Fenster lehnen?

Raw ist doch keine technologische Höchstleistung!? Raw ist so ziemlich das Simpelste was eine Kamera mit den Sensordaten anstellen kann. Gehen wir einfach davon aus, dass FCPX in der Preview die fehlenden RGB-Werte bei schwächeren Rechnern (oder prinzipiell) schlicht mittelt oder sonst einen recht einfach zu berechnenden Weg geht... schon sind die Leistungen erklärbar.

Letztlich steht fest: In PRR sind keine RGB-Pixel drin. Also Raw.

Space


Antwort von cantsin:

7nic hat geschrieben:
Du schreibst immer wieder den selben Beitrag in neuen Worten... Die anderen Rekorderhersteller dürfen PRR noch gar nicht implementieren. Klar, dass sie (noch) kein Interesse bekunden. BMD hat keine Lust seine CS preiszugeben
So wie ich das Interview mit Grant Petty verstehe, ist das nicht das Problem. (BM tut das ja bereits in seinen CinemaDNG-Dateien und offiziellen LUTs.) Sondern dass ProRes Raw für die Farbinterpretation des Raw-Materials nur eine LUT verwendet, was laut Petty zu wenig ist für gute Ergebnisse - andererseits aber auch die gute Performance von PRR erklären könnte.

Space


Antwort von DV_Chris:

Wo wäre denn Canon dabei?

Space


Antwort von Roland Schulz:

Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.
Aber auch das würde den Performanceboost nicht erklären.
Ich kann mir nur ein stark optimiertes oder anders stark vereinfachtes Debayering erklären welches ggf. Qualitätsdefizite in der derzeitigen Form der beschleunigten Verarbeitung aufzeigt. Ggf. haben wir morgen wieder verschiedene Artefakte im Material welche wir eigentlich seit Jahren schon nicht mehr erwarten würden.

Denke es ist einfach noch etwas früh das in alle Richtungen zerreißen zu wollen, wir brauchen erstmal belastbares Material.

Space


Antwort von cantsin:

"Roland Schulz" hat geschrieben:
Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.
Einspruch. LUTs sind doch relativ primitive Farbkorrekturmittel, die Pixelwerte stur von A nach B umrechnen. Wenn das Raw-Bild einer Kamera z.B. bei verschiedenen ISOs/gains oder verschiedenen Lichttemperaturen jeweils spezifische Farbkorrekturen erfordert, ist das mit einer simplen LUT nicht zu machen.

Space


Antwort von Roland Schulz:

Die werden dann aber trotzdem nicht alle gleichzeitig auf „ein Bild“ angewendet.
Wendest du verschiedene LUT‘s auf verschiedene Szenen an schmälert das die Performance nicht.

Space


Antwort von cantsin:

"Roland Schulz" hat geschrieben:
Die werden dann aber trotzdem nicht alle gleichzeitig auf „ein Bild“ angewendet.
Wendest du verschiedene LUT‘s auf verschiedene Szenen an schmälert das die Performance nicht.
Ja, aber nochmal, genau das kann PRR laut Petty nicht. Seinen Aussagen zufolge gibt es da nur eine LUT und sonst nichts für die "color science".

Space


Antwort von Funless:

Axel hat geschrieben:
... und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen...



🤭 Ich glaube er meint den hier ...





Falls ja, ich fand den witzig und sein Hemd mit den ausladenden Kragen äußerst chick.

Space


Antwort von nic:

cantsin hat geschrieben:
"Roland Schulz" hat geschrieben:
Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.
Einspruch. LUTs sind doch relativ primitive Farbkorrekturmittel, die Pixelwerte stur von A nach B umrechnen. Wenn das Raw-Bild einer Kamera z.B. bei verschiedenen ISOs/gains oder verschiedenen Lichttemperaturen jeweils spezifische Farbkorrekturen erfordert, ist das mit einer simplen LUT nicht zu machen.
Nur, dass die iso invarianten BMD-Geräte das dann gar nicht brauchen. Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.

Space


Antwort von cantsin:

7nic hat geschrieben:
Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.
Das scheint aber das Problem zu sein, das Petty hat - dass zumindest FCPX nicht mehr kann, als die LUT anwenden. Das würde, wie gesagt, auch die gute Performance erklären.

Wenn ich seine Interview-Aussagen richtig verstehe, fehlen bei PRR auch die Metadaten, um die 'color science' im NLE vernünftig hinzukriegen. (Daher auch seine Aussage, "It's a look-up table and a Bayer package. It's just a container with a LUT.") Und deshalb auch seine Ansage, dass eine PRR-Implementation in Blackmagics Produkten (also Kameras und Resolve) noch viel Arbeit und Lösungen von Problemen erfordert.

Tja, wäre der Interviewer nicht zu inkompetent gewesen und hätte nachgefragt (statt die ganze Zeit blöd zu unterbrechen), wüssten wir mehr. Die Aussagen von Petty sind sehr komprimiert. Offensichtlich ist der Mann Techniker und weiss wovon er spricht, erklärt es aber nicht ausführlich.

Space


Antwort von Jott:

DV_Chris hat geschrieben:
Wo wäre denn Canon dabei?
Das fragst du als Händler für beide - Atomos und Canon? Verstehe wer will. Oder ist die C300 auf der Liste unterstützter Kameras ein Druckfehler?

Space


Antwort von DV_Chris:

Jott hat geschrieben:
DV_Chris hat geschrieben:
Wo wäre denn Canon dabei?
Das fragst du als Händler für beide - Atomos und Canon? Verstehe wer will. Oder ist die C300 auf der Liste unterstützter Kameras ein Druckfehler?
Das war nicht die Frage. Es geht darum, ob Canon den Codec in einer Kamera implementieren könnte.

Space


Antwort von Jott:

Wozu, wenn es das Atomos/Apple-Angebot gibt?

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Wozu, wenn es das Atomos/Apple-Angebot gibt?
...um nicht überall mit so nem blöden und unhandlichen Kamera/Recorder Gerigge rumhampeln zu müssen! Integrierte Lösungen würde ich ebenfalls vorziehen, aber bisher hat Canon außer der C200 doch gar nix mit integriertem RAW, oder übersehe ich was?!

Space


Antwort von Roland Schulz:

cantsin hat geschrieben:
7nic hat geschrieben:
Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.
Das scheint aber das Problem zu sein, das Petty hat - dass zumindest FCPX nicht mehr kann, als die LUT anwenden. Das würde, wie gesagt, auch die gute Performance erklären.

Wenn ich seine Interview-Aussagen richtig verstehe, fehlen bei PRR auch die Metadaten, um die 'color science' im NLE vernünftig hinzukriegen. (Daher auch seine Aussage, "It's a look-up table and a Bayer package. It's just a container with a LUT.") Und deshalb auch seine Ansage, dass eine PRR-Implementation in Blackmagics Produkten (also Kameras und Resolve) noch viel Arbeit und Lösungen von Problemen erfordert.

Tja, wäre der Interviewer nicht zu inkompetent gewesen und hätte nachgefragt (statt die ganze Zeit blöd zu unterbrechen), wüssten wir mehr. Die Aussagen von Petty sind sehr komprimiert. Offensichtlich ist der Mann Techniker und weiss wovon er spricht, erklärt es aber nicht ausführlich.
Kann nicht sein - ich kann ich FCP X doch auch ne weitere/andere LUT zuweisen und mit der Performance hat das nix zu tun. Genau so wenig hat es mit der Abhängigkeit zu tun ob die Kamera ISO in- oder variant ist. Es geht u.A. auch um LUTs die für verschiedene Lichtqualitäten-/Temperaturen erstellt wurden, ggf. auch für verschiedene Looks.
Eine LUT brauchen wir bei RAW eigentlich immer, ob im Container mitgebracht oder später verlinkt und deshalb sehe ich hier keinen Grund für Performanceunterschiede.

Ich kann mir das nur so erklären dass wir hier ggf. nur eine Art "Vorschauqualität" erhalten die ggf. voll mit Artefakten (Zipper...) etc. ist. Hier werden ggf. noch keine "Linien" nachgezogen und somit werden vielleicht Äste dabei wieder im Nichts enden und etwas versetzt dazu weiterwachsen. Ggf. werden auch Farben wieder "falsch" geschätzt/interpoliert - nur eine Idee, kann sein dass man auch bei der IQ volle Qualität liefert.

Space


Antwort von cantsin:

"Roland Schulz" hat geschrieben:
Kann nicht sein - ich kann ich FCP X doch auch ne weitere/andere LUT zuweisen und mit der Performance hat das nix zu tun. Genau so wenig hat es mit der Abhängigkeit zu tun ob die Kamera ISO in- oder variant ist. Es geht u.A. auch um LUTs die für verschiedene Lichtqualitäten-/Temperaturen erstellt wurden, ggf. auch für verschiedene Looks.
Eine LUT brauchen wir bei RAW eigentlich immer, ob im Container mitgebracht oder später verlinkt und deshalb sehe ich hier keinen Grund für Performanceunterschiede.
Es geht darum, dass Software wie Resolve (oder auch ACR) auf Grund der Meta-/Herstellerdaten wesentlich komplexere Farbkorrekturen an Raw-Material vornimmt, als da einfach nur eine LUT draufzuklatschen, die in der Raw-Datei mitgeliefert wird. Und diese Daten scheint ProRes Raw nicht zu enthalten, wenn es stimmt, was Petty sagt.

Und offenbar scheint die jetzige Kombi ProRes Raw+FCPX solche komplexen Farbkorrekturen nicht vorzunehmen, was den Performance-Unterschied erklären könnte.

Space


Antwort von Axel:

Hier ab 7'01":
And one of the most important things is the metadata from the camera. We record all of the metadata. We know what the white balance was, we know what the ISO setting was, we know what the shutter speed was. And it means we can do all this realtime decoding and re-encoding to make everything work in the timeline. Aha. Wie es scheint weiß Atomos diese Dinge, aber FCP nicht.

Space


Antwort von cantsin:

Alles höchst seltsam. Als ob sich die Geschichte von CinemaDNG wiederholt. Damals implementierte Adobe sein eigenes Format nur halbherzig bzw. unvollständig in Premiere, jetzt implementiert Apple sein eigenes Format nur halbherzig bzw. unvollständig in FCPX.

Bis jetzt sieht es so aus, als ob Atomos die treibende Kraft ist und der Rest der Industrie noch nicht wirklich mitzieht.

Space


Antwort von Jott:

"Roland Schulz" hat geschrieben:
Jott hat geschrieben:
Wozu, wenn es das Atomos/Apple-Angebot gibt?
...um nicht überall mit so nem blöden und unhandlichen Kamera/Recorder Gerigge rumhampeln zu müssen! Integrierte Lösungen würde ich ebenfalls vorziehen, aber bisher hat Canon außer der C200 doch gar nix mit integriertem RAW, oder übersehe ich was?!
Nö, nichts übersehen. Am internen RAW der C200 wird aber auch rumgemault (einer tut sogar immer so, als gäbe es das gar nicht). An internen ProRes-Lösungen anderer Hersteller wird ebenfalls rumgemault. An sonstigen Codecs sowieso. Jedem alles recht machen geht halt nicht. Zumal manche aus Prinzip grundsätzlich an allem etwas auszusetzen haben.

Der mündige Käufer/User/Producer wird seinen Weg schon finden! :-)

Space


Antwort von Roland Schulz:

...der mündige Käufer/User/Producer wird seinen Weg irgendwie machen, klar.
Wir wissen aber alle dass es meist doch irgendwie besser ginge wenn es die Hersteller nur wollten.
Es ist und bleibt wie immer wirtschaftlich, um morgen noch was verkaufen zu können.

Wir können uns aber noch 500 Posts über die mögliche Performance von Prores Raw unterhalten ohne wirklich was festzustellen.

Denke wir müssen einfach noch ein wenig warten bis wir mal richtiges Material vor die Flinte kriegen. Ggf. zieht 7nic oder Wolfgang ja demnächst mal ein belastbares Resümee - in Bezug auf IQ und Speed.

Space


Antwort von motiongroup:

@Axel, nein bist du nicht gemeint.... die die gemeint sind wissen es eh genau da sich die Inszenierungen über die letzten Jahre immer gleich präsentieren.. liegt in der Natur des Menschen...

Übrigens, das mit den Metadaten wie ISO ist implementiert nur sollte es auch von CAMs eingebrannt werden.. wird dieser Flag ungenutzt übergeben kann er nicht verändert werden, ja wie den auch auf Basis von Haselnüssen oder was?

Das Format steht am Anfang wie es bei Prores Anfangs auch war.. wer sich die Timeline von Prores ansieht wie so oder wann in ungefähr die einzelnen Hersteller auf den Zug aufgesprungen sind.. heute kräht kein Hahn mehr danach und es wird einfach verwendet... Ab und an poltert der Merowinger( nein nicht der Axel) das es überholtes Dreckszeuch ist und das ist auch auch gut so.... Man muss schon auch mal aus der Lethargie des einfachen Workflows herausgerissen werden um über solche Aussagen zu schmunzeln zu dürfen..

Also Leute, wo sind die angekündigten Testfiles und Ergebnisse ... ich kann damit nicht dienen aus Mangels einer passenden Cam..

Space


Antwort von Starshine Pictures:

Hab das hier gefunden. Inklusive Download von 7,5 GB Material von der EVA1 und dem Atomos Shogun Inferno.

https://youtu.be/r41IV1g3pss

Download:
DCI 4K 25fps ProRes RAW
DCI 4K 25fps ProRes RAW HQ
DCI 4K 50fps ProRes RAW HQ
DCI 4K 25fps CinemaDNG

https://mega.nz/#F!Nd0XxJzC!hlfXGYfIDwiw_UiwB3ZS-w


Grüsse, Stephan

Space


Antwort von motiongroup:

hatte ich schon hier verlinkt.. interessiert eher nicht ;)

Space


Antwort von Starshine Pictures:

Ah ok. Bin zwischendurch mal aus der Diskussion ausgestiegen. Wahrscheinlich schrecken die 7.5 GB ab. 😝

Space


Antwort von Axel:

motiongroup hat geschrieben:
... interessiert eher nicht ;)
Höchstens insofern, dass man darauf schließen kann, indirekt, dass die Metadaten zu Kameraeinstellungen wie Belichtung und Weißabgleich in diesem mov enthalten sind. Denselben Serviervorschlag sähen wir in ACR und Resolve, dort allerdings wären die Werte auch angezeigt. Spricht also zunächst mal nicht gegen PRR sondern gegen FCP.

Space


Antwort von Jott:

Wieso? Wie sollte fcp denn die Darstellung sonst treffen? Tut es ja. Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.

Space


Antwort von motiongroup:

Kann jemand oder hat schon jemand die Metadaten ausgelesen? Ich nicht aus Mangel an passenden Tools..

Space


Antwort von Axel:

Woran es effektiv liegt, weiß ich auch nicht. Ich vermute und hoffe eigene Doofheit. Aber es gelang mir in FCP noch nie, kameraspezifische EXIF-Daten auszulesen, wie sie mir Catalyst Browse für Sony in Hülle und Fülle anzeigt (interessante Sachen wie Objektiv, Brennweite, Entfernung, Blende, Verschlusszeit, ISO und WB). Noch ärger, ich versuchte, die Metadaten-Ansicht zu editieren und als Axels EXIF zu speichern (was scheinbar zunächst gelang), aber in dieser Ansicht tauchten dann völlig exotische Parameter wie Ausrichtung oder 360° Projektionsmodus auf, die ich nie sehen wollte und eigenhändig durch Entfernen des Kreuzchens in der Checkbox abgewählt hatte. Auch diese Testclips zeigen nur seeehr allgemeine Informationen. Schade. Bin wohl zu dumm.

Space


Antwort von motiongroup:

das sind die Metas der Files

com.apple.proapps.manufacturer : Panasonic
com.apple.proapps.modelname : EVA1
com.apple.proapps.image.{DNG}.CameraSeri : F7ESB0031
org.smpte.rdd18.camera.cameraattributes : F7ESB0031
org.smpte.rdd18.lens.irisfnumber : F1.4
com.apple.proapps.exif.{Exif}.FocalLenIn : Unknown kind of value!
org.smpte.rdd18.lens.lenszoom35mmstillca : 25.0mm
org.smpte.rdd18.camera.shutterspeed_angl : 180.0deg
org.smpte.rdd18.camera.neutraldensityfil : ND1
org.smpte.rdd18.camera.whitebalance : 4300K
org.smpte.rdd18.camera.isosensitivity : 1000
com.apple.proapps.image.{TIFF}.Make : Atomos
com.apple.proapps.image.{TIFF}.Model : ShogunInferno
com.apple.proapps.image.{TIFF}.Software : 9.0

warum das nicht veränderbar ist kann noch keiner erklären.. lasst noch einige Zeit ins Land ziehen und nicht schon wieder Schuldzuweisungen in den Äther plärren..

Space


Antwort von Frank Glencairn:

Jott hat geschrieben:
Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.
Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.

Space


Antwort von Axel:

motiongroup hat geschrieben:
das sind die Metas der Files

com.apple.proapps.manufacturer : Panasonic
com.apple.proapps.modelname : EVA1
com.apple.proapps.image.{DNG}.CameraSeri : F7ESB0031
org.smpte.rdd18.camera.cameraattributes : F7ESB0031
org.smpte.rdd18.lens.irisfnumber : F1.4
com.apple.proapps.exif.{Exif}.FocalLenIn : Unknown kind of value!
org.smpte.rdd18.lens.lenszoom35mmstillca : 25.0mm
org.smpte.rdd18.camera.shutterspeed_angl : 180.0deg
org.smpte.rdd18.camera.neutraldensityfil : ND1
org.smpte.rdd18.camera.whitebalance : 4300K
org.smpte.rdd18.camera.isosensitivity : 1000
com.apple.proapps.image.{TIFF}.Make : Atomos
com.apple.proapps.image.{TIFF}.Model : ShogunInferno
com.apple.proapps.image.{TIFF}.Software : 9.0

warum das nicht veränderbar ist kann noch keiner erklären.. lasst noch einige Zeit ins Land ziehen und nicht schon wieder Schuldzuweisungen in den Äther plärren..
Womit ausgelesen?

Space


Antwort von motiongroup:

mit Mediainfo.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.
...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als „Stellglieder“ für irgendwelche Maßnahmen im Post vorgesehen.

Space


Antwort von Axel:

Jetzt darfst du zweimal lachen. Einmal über mich, denn Mediainfo hatte ich schon auf dem Rechner. Und einmal über folgenden Vorschlag: Apple sollte Mediainfo kaufen. Das wäre doch ein Knaller für 10.5 im Oktober!

Kein Trost ist, dass ich es auch in Resolve nicht schaffe, die Catalyst Browse - Metadaten meiner Sony-Clips auszulesen. Codec, Länge, Größe, dann ist Ende im Gelände ....

Space


Antwort von motiongroup:

Jetzt darfst du zweimal lachen. ich lache nie... Ernst ist mein zweiter Namen..;)

Space


Antwort von DV_Chris:

Edius 9.20 kann den PRR Clip einladen, zeigt aber nur ein graues Bild an. An Metadaten steht nur der Codec Typ und der Container. Normalerweise zeigt Edius mehr an (Beispiel ist von einer X70):

Space


Antwort von Jott:

"Frank Glencairn" hat geschrieben:
Jott hat geschrieben:
Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.
Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.
Das sind doch nur Metaphern. Weder du noch ich wissen, wo das Einstellen zum Beispiel der „Belichtung“ (fcp-Regler) bei ProRes Raw greift. Wieso nicht vor dem De-Bayering? fcp weiß ja, es sind raw-Daten und geht damit vielleicht schlauer um, als man meinen könnte. Anzuzeigen, dass ein ISO-Wert konkret von 800 zu 1600 oder sonst was verschoben wird - wozu? Der „ganze Witz“ an raw wäre trotzdem da. Und so wird‘s wohl auch sein.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:
"Frank Glencairn" hat geschrieben:
Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.
...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als „Stellglieder“ für irgendwelche Maßnahmen im Post vorgesehen.
Ich rede jetzt nicht von irgendwelchen Sachen wie Blende, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar. Was meinst du warum Resolve zu den üblichen Kurven und Colorwheels noch einen zusätzlichen eigenen Raw Tab hat, wo man das alles ändern kann?

Space


Antwort von Roland Schulz:

Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGB danach passiert spielt keine Rolle, solange die (interne) RGB Quantisierung mindestens so groß ist wie die RAW Quantisierung.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:

...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als „Stellglieder“ für irgendwelche Maßnahmen im Post vorgesehen.
Ich rede jetzt nicht von irgendwelchen Sachen wie Blende, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar. Was meinst du warum Resolve zu den üblichen Kurven und Colorwheels noch einen zusätzlichen eigenen Raw Tab hat, wo man das alles ändern kann?
Die Anpassung findet trotzdem nicht vor dem Debayering statt.

Space


Antwort von wolfgang:

Also ich bin da bei Frank. Es geht darum die Metadaten verändern zu können, anstatt sofort Korrekturfilter des jeweiligen Tools drauf zu legen.

In Resolve wird das klar getrennt angezeigt und das hat schon einen Sinn, denn das Zweitere über Filter sind bereits Intensivere Umrechnungen nach dem Debayering (der Metadateneingriff wohl noch vorher, sonst macht’s ja keinen Sinn).

Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.

Space


Antwort von Axel:

wolfgang hat geschrieben:
Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.
Echt? Was motiongroup über Mediainfo ausgelesen hat, wäre exakt das gewesen, was ich anhand des Youtube-Posterframes oben geraten hätte. Offensichtlich bei Tungsten aufgenommen, für 3200 aber noch zu warm/orange und für 5600 noch zu neutral.
org.smpte.rdd18.camera.whitebalance : 4300K
Erläutere mal, was du meinst.

Was nun die Manipulation des WB (als Beispiel) betrifft, so finde ich schon, dass im Schieberegler "Farbtemperatur" von FCP dann "4300" stehen sollte als korrekter Ausgangspunkt. Dort steht aber immer "5000". Tut mir leid, Genossen, das ist schwach.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:
Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGB danach passiert spielt keine Rolle, solange die (interne) RGB Quantisierung mindestens so groß ist wie die RAW Quantisierung.
Die Anpassung findet trotzdem nicht vor dem Debayering statt.
Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGB Kontrollen gibt?

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:
Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGB danach passiert spielt keine Rolle, solange die (interne) RGB Quantisierung mindestens so groß ist wie die RAW Quantisierung.
Die Anpassung findet trotzdem nicht vor dem Debayering statt.
Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGB Kontrollen gibt?
Es macht schon allein Sinn, weil die Raw-Einstellungen über das Hersteller-SDK abgewickelt werdeb... Die RGB-Bearbeitung dann über BMD-Algorithmen.

Space


Antwort von Roland Schulz:

RAW funktioniert wie folgt:

ISO variant: Die Analogwerte der Sensel auf dem Sensor werden variabel (ISO/Gain) verstärkt und dann digitalisiert und gespeichert (alternativ vorher komprimiert).
Ggf. werden noch Gammakurven analog angewendet.
Ggf. wird eine (RGB-Sensel) ungleichmäßige Verstärkung angewendet, die vom Weißabgleich abhängt (z.B. Nikon D2x). Meist erkennbar durch Zusatzsensor an der Kamera, denke heute nicht mehr üblich.

ISO invariant: Die Analogwerte der Sensel auf dem Sensor werden unvariabel/konstant fest verstärkt und dann digitalisiert und gespeichert (alternativ vorher komprimiert).

Metadaten der Kameraparameter wie gemessener/voreingestellter Weißabgleich, Verstärkung/ISO, Belichtungs- und Objektivdaten, Framegröße, Bittiefe und Framerate werden gespeichert.

Der RAW Converter debayert die eingehenden RAW Daten meist in ein RGB (alternativ YUV-) Bild mit hoher Quantisierung (>= RAW File), wendet auf das RGB Bild dann Parameter aus den Metadaten der Datei an, die ggf. durch einen Einstelldialog adaptiert wurden. Es findet keine Veränderung der RAW Daten statt.
Im umgekehrten Fall müsste jede intern verwendete YUV- oder RGB Farbmetrik "umgekehrt debayert" nochmals entwickelt/programmiert und auf die RAW Daten angewendet werden. Der Debayeringprozess ist zudem anhand der meisten bekannten Algorithmen als deutlich aufwändiger anzusehen als eine einfach RGB Transformation. Die Anpassung der Parameter auf RGB Daten kann demnach schneller erfolgen.
Die hier entstandenen Daten mit hoher Quantisierung werden genau so im weiteren Prozess an das Programm/folgende Nodes weitergegeben.
(Alternativ können sie jetzt in der Quantisierung begrenzt werden, um Performance zu sparen. Dann sind weitere Schritte aber verlustbehaftet.)
Findet keine Reduktion der Quantisierung statt können die Daten "verlustfrei" innerhalb des Programms weiterverarbeitet werden. Somit können auch Daten in späteren Schritten bzgl. WB etc. adaptiert werden. Es macht keinen Unterschied!
Der RAW Dialog bietet nur andere Stellschrauben wie Farbtemperatur in K an, die später so nicht mehr zur Anwendung kommen, da Daten aus vorherigen Notes/Filtern/Routinen keinen "kalibrierten" Bezug (K) haben muss.
Ein Programm kann aber genau so gut ohne eine Anpassung der Aufnahmedaten/Metadaten funktionieren, wenn die interne Quantisierung hoch genug ist (vgl. z.B. Resolve).

Space


Antwort von Roland Schulz:

7nic hat geschrieben:
"Frank Glencairn" hat geschrieben:


Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGB Kontrollen gibt?
Es macht schon allein Sinn, weil die Raw-Einstellungen über das Hersteller-SDK abgewickelt werdeb... Die RGB-Bearbeitung dann über BMD-Algorithmen.
Spielt auch keine Rolle, auch das Hersteller SDK macht zuerst ein Debayering und passt dann Parameter auf RGB Daten an die anschließend übergeben werden.
Niemand verändert RAW Daten vor oder beim Debayering. Jede Änderung am Parameter würde selbst am Standbild ein neues, zeitaufwändiges Debayering erfordern.
Die ganze Farbmetrik/Routinen müssten "rückwärts debayered" nochmal entwickelt werden und würden nur Nachteile mit sich bringen.
Es hat keinen Nachteil die Informationen nach dem Debayering anzupassen, nur Vorteile! Somit kann das auch in FCP X passieren ohne einen RAW Dialog haben zu müssen.

Space


Antwort von wolfgang:

Axel hat geschrieben:
wolfgang hat geschrieben:
Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.
Echt? Was motiongroup über Mediainfo ausgelesen hat, wäre exakt das gewesen, was ich anhand des Youtube-Posterframes oben geraten hätte. Offensichtlich bei Tungsten aufgenommen, für 3200 aber noch zu warm/orange und für 5600 noch zu neutral.
Bitte vollständig lesen - ich sprach von RESOLVE und nicht von Mediainfo. Und ich sprach von CDNG udn nicht von ProRes RAW.

Space


Antwort von Axel:

@wolfgang

Okay, du bist leicht OT.

Aber eigentlich keine schlechte Frage. Ist es wichtig, ob der original in der Kamera gewählte WB-Wert als Metadaten vorliegt? Wenn ja, warum? Wenn nein, was kann es dann schon ausmachen, den ohnehin falschen Ausgangswert herzunehmen und mit dem Farbtemperatur-Regler der Software anzupassen?

Space


Antwort von wolfgang:

Und genau wegen dieser Fragestellung ist es eben nicht offtopic. Roland hat ja recht, dass offenbar analoge und digitale ISO-Werte vorhanden sein können - die dann einmal ins Material eingeprägt werden oder eben nicht.

Das dürfte aber stark von der verwendeten Kamera abhängen. Bei der EVA1 etwa gibts analoge ISO Werte die dann eben eingeprägt sind. Egal ob CDNG oder PRR. Das hat Auswirkungen auf das Rauschverhalten - und sollte daher eben dem Anwender bekannt sein. Ist es aber bestenfalls teilweise, bei der EVA1 wurde deshalb empfohlen mit einer der beiden nativen ISOs oder nahe daran zu arbeiten. RAW ist das trotzdem, denn das Debayering findet ja in der App statt.

Space


Antwort von Roland Schulz:

Die „alte Hütte“ Bob Atkins zeigt ebenfalls die Reihenfolge
RAW -> Bayer -> Colorprocessing (WB...) auf:
http://www.bobatkins.com/photography/digital/raw.html

Irgendwo gab‘s mal nen schönes Blockschaltbild aus dem RAW Shooter mit mehr Details. Ist aber wohl leider alles „mitverdunstet“.

Hier noch was aus dem Xilinx (FPGAs) Forum:
https://goo.gl/images/o95asN
Ebenfalls RAW->(bad pixel remap)->debayer->“Rest“(Gamma, Color...)

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
Die „alte Hütte“ Bob Atkins zeigt ebenfalls die Reihenfolge
RAW -> Bayer -> Colorprocessing (WB...) auf:
http://www.bobatkins.com/photography/digital/raw.html
Das sagt nur vermutlich leider nichts über den exakten Weg in einem spezifischen Gerät aus.

Space


Antwort von Roland Schulz:

Nein, das nicht und richtig, es könnte überall individuell anders verfahren werden - Sinn macht das allerdings keinen.

Warum sind wir darauf gekommen?!
Die Frage war wenn ich nichts durcheinanderwerfe warum FCPX keinen RAW Entwicklungsdialog anbietet.
Die Antwort ist weil er nicht norwendig ist. Man kann alle Bearbeitungen des RAW Dialogs auch in folgenden Nodes/Prozessen durchführen ohne dass es etwas ändert.
Apple ist meistens „einfach“ und reduziert auf‘s Notwendigste - der RAW Dialog ist ganz nett, aber in Wirklichkeit redundant.

Space


Antwort von Frank Glencairn:

Allerdings basiert diese ganze "Erkenntnis" nur auf deinen Behauptungen.

Proof is in the pudding:

Mach ne Korrektur auf BM CDNG Material mit dem RAW Tab, und dann mach die selbe Korrektur mit den Color Wheels.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Allerdings basiert diese ganze "Erkenntnis" nur auf deinen Behauptungen.
...na ja, zwei Referenzen hatte ich bereits angehängt, endlos viel wird man da auch nicht finden da das meist gut gehütete Interna sind, wobei auf dem Level eigentlich noch nichts Geheimes dabei ist.

Die Behauptung dass z.B. im Resolve RAW Dialog die WB, Gain etc. Anpassungen vor dem Debayering vorgenommen werden sollten ist aber ebenso unbelegt. Am Ende kommt auch da RGB raus und wird auf weitere Nodes gelegt.

Hier noch was dazu:
https://goo.gl/images/VJRk2K

https://goo.gl/images/VPbnj5

https://www.baslerweb.com/en/sales-supp ... ork/15182/

https://goo.gl/images/6oX8Vq

https://goo.gl/images/wBwXy6

Viele Blockdiagramme - alle debayering first, additional color processing later!!

Space


Antwort von WoWu:

wolfgang hat geschrieben:
Und genau wegen dieser Fragestellung ist es eben nicht offtopic. Roland hat ja recht, dass offenbar analoge und digitale ISO-Werte vorhanden sein können - die dann einmal ins Material eingeprägt werden oder eben nicht.

Das dürfte aber stark von der verwendeten Kamera abhängen. Bei der EVA1 etwa gibts analoge ISO Werte die dann eben eingeprägt sind. Egal ob CDNG oder PRR. Das hat Auswirkungen auf das Rauschverhalten - und sollte daher eben dem Anwender bekannt sein. Ist es aber bestenfalls teilweise, bei der EVA1 wurde deshalb empfohlen mit einer der beiden nativen ISOs oder nahe daran zu arbeiten. RAW ist das trotzdem, denn das Debayering findet ja in der App statt.
Das setzt aber eben voraus, dass ein Verfahren vorhanden ist.
Das, was von PRR als „Lut“ übergeben wurde ist wahrscheinlich kein LUT sondern eine Liste, die das CFA beschreibt, denn davon werden ja nun mittlerweile fast 10 unterschiedliche Typen eingesetzt und ohne die exakten Werte der monochromatischen Filter nicht bekannt sind, braucht man gar nicht erst mit dem De-Bayering anzufangen.
Danach geht es los ... welches De-Bayer Verfahren wird benutzt. Die Performanz der unterschiedlichen Verfahren wirkt sich ganz erheblich auf das Zielbild aus denn im De-Bayering entsteht die wesentliche Menge an Artefakten, überwiegend in der unterschiedlichen Phasenlage der einzelnen Pixels zueinander begründet. Die Frage ist also, wie stellt man die optimale spektrale und räumliche Korellation der Pixels zueinander her. Nichts, was man ohne die passenden Algorothmen in der PostPro nachbauen könnte. Es findet dazu eine Analyse der Frequenz und der räumlichen Bereiche statt.
Das De-Mosaicing führt trotzdem oft noch nicht zu perfekten Ergebnissen und Ein iterativer Nachverarbeitungsschritt der Farbkorrektur wird oft erreicht, um die Endresultatqualität durch Verstärkung der Spektralkorrelation noch zu verbessern.
Wahrscheinlich meinte der BMD Mensch das damit.

Nur das alles setzt eben das Vorhandensein der entsprechenden De-Mosaiking Algorithmen (mitsamt seiner Stellpatameter) voraus.
Wir haben damals mit 3 unterschiedlichen Algorithmen De-Mosaiced. Allerdings waren sie alle noch auf Bayer basierten CFAs. Das dürfte sich mit Zunahme der panchromatischen Filter und unterschiedlichen Geometrien der Farbkomponenten mittlerweile in den Mengen deutlich geändert haben.
Was den Rest der Metadaten (ISO, White.. etc.) angeht, ist das sowieso Schall und Rauch denn in Kameras, die direkt mit der Verstärkung auf den Sensorverstärker zugreifen ist das ISO und auch die WB sowieso eingebacken weil die Reglungen auf denselben Verstärker wirken.
Bei invarianten Kameras sind solche „on set“ Einstellungen meist hinterher ohnehin sehr verbesserungsbedürftig und „nice to have“ aber nicht wirklich Qualitätsentscheidemd.
Und sofern man im De-Mosaicing eine Objektivkorrektur vornehmen will, braucht man sowieso die exakten Tabellen des singulären Objektivs. Solange die De-Mosaicing App dafür keine Schnittstelle liefert, ist das eh nicht nutzbar.
Übrigens spielt das De-mosaicing gerade bei hoher Pixeldichte und Auflösung zur beeinflussung von Aliasing eine kritische Rolle, die man in der (herkömmlichen) Post überhaupt nicht mehr in den Griff bekommt.
Also, so wie ich das im Augenblick sehe, sofern es sich bei PRR tatsächlich um ein Luminanzsignal pro Pixel handelt, könnte die Übergabe der CFA Liste reichen, wenn nicht mehr als reines De-Mosaicing vorgenommen werden soll.
Das setzt aber zwingend eine App voraus, die ich in FCP auch noch nicht gefunden habe.

Space


Antwort von Roland Schulz:

...wie kriegen das bloß Capture One, DxO, CameraRAW, SilkyPix, On1, Luminar und andere geregelt für jede erdenkliche Fotokamera mit pluralem Objektiv den idealen Debayeralgorithmus zu eruieren.
Das klingt nach einer nahezu unlösbaren Aufgabe ;-)!
Da ich aktuell noch etwas „sonyglaslos“ bin und zig Nikonoptiken passiv adaptiere wundere ich mich doch was da für wunderbare Ergebnisse bei rauskommen - in immerhin 6K Fotoauflösung...

Ein Hersteller entscheidet sich heute für einen Algorithmus - das war‘s.
Alle Korrekturen wie WB, Gamma, Vignette, CA, Entzerrung etc. (mit Ausnahme von blackshading, bad pixel remap...) werden nach dem Debayern angewendet.

Space


Antwort von WoWu:

Ein Hersteller, der das De-mosaicing in seiner Kamera macht, braucht auch nur ein Verfahren, weil er es immer nur mit einer Signalqualität zu tun hat und immer mit einer Sorte CFA.
Findet das De-Mosaicing aber in einer Postproduktion statt, hat man es mit unterschiedlichen Bedingungen zu tun.
Farbfilter-Arrays, die z.B. auf komplementären Primärfarben basieren, finden zunehmend Verwendung, ihrer hohen spektralen Empfindlichkeit wegen und ihrer größere Bandbreite gegenüber RGB-Filtern, was insbesondere in lichtschwachen Umgebungen von Interesse ist und / oder wenn die Bildrate eine niedrige Integrationsperiode erfordert.
Das sind nur zwei Varianten, auf die sich ein externes Verfahren einstellen muss und an denen beispielsweise DNG mangels vorhandener Metadaten der Hersteller weitestgehend versagt hat, weil es für die Konversion eine Interpretation vornehmen musste und mit den Ergebnissen nur all zu oft deutlich hinter den Herstellerverfahren zurückgeblieben ist.
Verfügt man aber über die nötigen Tools in der Post, muss die Zeit, die für die Demosaicing von Bildern benötigt wird nicht mehr niedriger sein als die Bildaufnahmezeit und man muss nicht mehr nach einem Kompromiss zwischen der Verarbeitungszeit und der Leistung suchen, die von den untersuchten Demosaicing-Schemata erreicht wird, wie es in den Kameras erforderlich ist.

Was das Ergebnis betrifft, habe ich oben schon beschrieben, -und das scheint der BMD Mann zu bestätigen- dass die Ergebnisse nach der Durchführung des De-Mosaicing Verfahrens noch nicht der erwarteten Qualität eines Endbildes entsprechen und die Farbkorrektur den letzten Schliff aufsetzen muss.
Das ist aber in Kameras nicht anders, man sieht das demosaicte Bild nur nicht, weil es nicht herausgeführt wird.

Wo man allerdings nicht drum herum kommt ist das Einwirken auf die oben beschriebene Korellation der einzelnen Pixels, weil ansonsten das Ergebis eines De-Mosaicing in Bezug auf Unschärfe Artefakte, Zippereffekte und Falschfarben ziemlich unerträglich aussehen kann.
Man kommt bei der Anwendung von De-Mosaicing Schemata in der Postproduktion nicht ohne Eingriff in die Parameter zu keinem befriedigenden Ergebnis.

Space


Antwort von Roland Schulz:

Das ist ja alles nicht falsch, nur werden die ganzen von mir angeführten Foto RAW Comverter nicht mit pro zu verarbeitender Kamera verschiedenen Algorithmen arbeiten sondern jeweils auf ein gewähltes Verfahren setzen.
Bei den CFAs gibt‘s sicherlich nich Unterschiede, gerade Nikon hat mit der D5 offiziell bekanntgegeben dass man schwächere Filter einsetzt. Das muss dem Konverterhersteller entweder bekannt sein oder man macht über entsprechendes Know How Reverse Engineering und dabei sollte gerade Adobe Kenntnisse besitzen die auch auf den Videobereich anwendbar sind.
Über verschiedene Testaufnahmen mit Patchfeldern kriegt man schon ne hohe Genauigkeit raus. Das was darüberhinaus durch IR-/UV Licht „versaut“ ist ist ohnehin nicht auflösbar da keine Information über diese Lichtanteile mitgespeichert wird. Man weiß im Post nicht wie viel UV-/IR Anteil die Aufnahme beeinflusst hat. Das ist und bleibt eine unauflösbare Größe.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:
[

Viele Blockdiagramme - alle debayering first, additional color processing later!!
Und keines davon hat irgendwas mit Postproduktion zu tun.

Space


Antwort von wolfgang:

Da ist viel Spekulation enthalten, denn die Kamerahersteller geben eben diese Daten nicht öffentlich bekannt. Da Pana mit der EVA1 gemeinsam mit Atomos Pate bei PRR und der Aufzrichnung im Shogun Inferno waren, ist gerade diese Kombination intensiv diskutiert worden.

Nur kann die Kombination dieser Geräte eben auch CDNG, und das liefert interessante Zusatzinformationen. Fakt ist, dass man in Resolve bei *CDNG* einstellbare Metadaten hat. In FCP X gibt es diese Einstellmöglichkeit (zumindest oder nur ? bei PRR) offenbar nicht, aber es werden definitiv die Metadaten in die PRR Datei geschrieben (der Test von Motiongroup war hier mit PRR und Medinfo leicht nachvollziehbar).

Dass einige Dinge bei der EVA1 wie (analoge) ISO aber nicht nur in Metadaten geschrieben werden, sondern in PRR eingebrannt sind, wurde von Mitch Gross für die EVA1 auf Facebook bestätigt. Bei WB bin ich mir da nicht sicher - aber wenn man mit der nativen ISO oder nahe daran arbeitet und eine WB bei der EVA1 macht sind die praktischen Nachteile wohl begrenzt. Betrifft dann aber wie gesagt auch CDNG - weil das von der Hardware der Kamera her fixiert ist.

Dass bei den Scene Based Ansätzen wie beim Resolve Farbmanagement oder bei ACES ohnedies immer eine IDT genutz wird ist ja bekannt. Und auch bei der EVA1. Man findet im CDNG Material aus EVA1/Shogun Inferno eben v log und v Gamut in den Metadaten des Materials und Resolve liest die aus dem CDNG auch brav aus (wird also bei einer zukünftigen PRR Implementierung in Resolve nicht anders sein). Und damit werden keine LUTs genutzt wie WoWu meinte, sondern das Scene based Farbmanagement von Resolve - und wohl auch bei FCP X gibt es ja offenbar eine ACES Unterstützung?

https://www.newsshooter.com/2018/04/06/ ... w-is-here/

Sollte PRR in Resolve bearbeitbar werden, dürfte dort ebenso eine Einstellmöglichkeit der Metadaten auftauchen. Nur weil das FCP X offenbar nicht explizit vorsieht heißt das eben nicht dass eine IDT nicht korrekt genutzt wird. Aber FCP X ist ja auch keine Gradingsoftware, und hoffen wir dass die PRR Unterstützung auch in Resolve kommt.

Space


Antwort von Axel:

wolfgang hat geschrieben:
Fakt ist, dass man in Resolve bei *CDNG* einstellbare Metadaten hat. In FCP X gibt es diese Einstellmöglichkeit (zumindest oder nur ? bei PRR) offenbar nicht, aber es werden definitiv die Metadaten in die PRR Datei geschrieben (der Test von Motiongroup war hier mit PRR und Medinfo leicht nachvollziehbar).
(...)
Nur weil das FCP X offenbar nicht explizit vorsieht heißt das eben nicht dass eine IDT nicht korrekt genutzt wird. Aber FCP X ist ja auch keine Gradingsoftware, und hoffen wir dass die PRR Unterstützung auch in Resolve kommt.
FCP wäre besser bei der oft verspotteten Farbtafel geblieben, hätte sie lieber noch ein wenig aufgebohrt. Was hier seit Dezember läuft, lässt selbst Fan-Urgestein wie mich (der sich aber schon lange mit Color, Color Finale und Resolve befasst hatte) die Haare raufen.
Ich stimme dir darum zu. Potenziell revolutionäres Codec-Konzept (die Zeit wird's zeigen), aber eine Software, die es gar nicht vernünftig nutzt.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:
[

Viele Blockdiagramme - alle debayering first, additional color processing later!!
Und keines davon hat irgendwas mit Postproduktion zu tun.
Das ist aber völlig unerheblich!
Es geht darum wie aus RAW Daten RGB Daten gewonnen werden. Ob in der Kamera oder im Converter spielt keine Rolle.

Space


Antwort von wolfgang:

Aber weißt du dass genau das die Frage für mich löst, ob ich für des kommend 5.7K raw der EVA1 mir doch einen Mac anlachen soll?

Wozu nämlich wenn FCP X hier auch genug Schwächen hat? Auch wenn die Performance mit PRR beeindruckend ist.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:
[
Das ist aber völlig unerheblich!
Es geht darum wie aus RAW Daten RGB Daten gewonnen werden. Ob in der Kamera oder im Converter spielt keine Rolle.
Nein, das ist weder unerheblich noch spielt es keine Rolle, sonder das ist der Punkt über den wir hier reden.
Nochmal speziell für dich:

Es macht einen Unterschied, ob ich die erste Korrektur im Raw Tab vornehme, oder auf dem bereits debayerten RGB mit Farbrädern/Kurven etc.
Deshalb sind die RAW Tabs auch nicht einfach nur so zum Spaß da, und sie sind auch nicht überflüssig, egal wie oft du das behauptest.
Wenn du es nicht glaubst, probier es einfach aus.
wolfgang hat geschrieben:
Auch wenn die Performance mit PRR beeindruckend ist.
Naja, wie viel PIP, Burns Effekt x5 braucht man denn bei der täglichen Arbeit?
Vielleicht einmal in 30 Jahren, wenn man eine 80er Retro KnofHof Show simulieren will?

Im normalen raw Schnittbetrieb geht ja sowieso schon alles in Echtzeit oder schneller.

Space


Antwort von Axel:

wolfgang hat geschrieben:
Aber weißt du dass genau das die Frage für mich löst, ob ich für des kommend 5.7K raw der EVA1 mir doch einen Mac anlachen soll?

Wozu nämlich wenn FCP X hier auch genug Schwächen hat? Auch wenn die Performance mit PRR beeindruckend ist.
Adobe hat ja bereits angeblich Interesse bekundet, BlackMagic zeigt sich wohlwollend kritisch. Es ist so, dass weder Atomos noch Apple diese Kuh zum Fliegen bringen, wenn keiner sonst mitmacht. Die "Unterstützung" von Canon, Pana und Sony ist ja völlig passiv. Den wenigsten (nämlich nur denen, die FCPX haben und ohne Chromatic oder Color Finale eine längere Sequenz aufwändig farbkorrigieren wollten mit 10.4) ist hier klar, welche Misere ich gerade anspreche. Ich fände es ehrlich gesagt nicht so schlimm, die o.e. Metadaten in FCP nicht angezeigt zu bekommen, wenn dafür alles liefe wie geölt mit PRR. Mit den FCP-Werkzeugen selbst würde sich wohl jeder hier irgendwie anfreunden können, sie sind nicht allzu exotisch. Was leider völlig misslungen ist - meiner sehr unbescheidenen Meinung nach, aber ich könnte es *im Detail* (der Teufel steckt im Detail) aufzeigen -, ist der Farbkorrektur-Workflow. Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden. Da kriegst du in FCP 10.4 einen Schreikrampf. Das musst du dir nicht anlachen. Warte, ob und bis es von Resolve adoptiert wird.

Space


Antwort von Jott:

„Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden.“

Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss?

Space


Antwort von wolfgang:

Ja Axel, auf das Warten läuft es wohl eh raus. Hoffentlich kommt da in Resolve noch was.

Space


Antwort von Frank Glencairn:

Hatte gerade Zeit für nen kleinen Test

Blackmagic CDNG Material aus der Ursa Mini (von einer 4TB Festplatte im USB3 Dock), plus 4 x PIP mit Burns Effect in Resolve, und ne LUT oben drauf.

Läuft in Echtzeit (24p) GPU und CPU knapp zu 50% ausgelastet.

Und das auf ner uralt Win 7 Workstation mit einem i7 980 6 Kerner @ 3.33Hz (Gulftown - also eine antike CPU von 2006) und ner 4 Jahre alten GTX 980.

PRR unterscheidet sich also nicht wirklich, von CDNG, was die performance betrifft.

Space


Antwort von motiongroup:

Warum sollte das nicht laufen? 6/12 HT Core CPU und eine 980er? Wenn nicht wäre es traurig...

Im meinem Fall ist es ne 2/4 HT Core i5 ohne dedizierter GPU welches nur auf ner iGPu läuft..

Das von dir genannte Szenario als Testprojekt von Puget System mit R3D läuft auf einer i7 4970k und einer GTX970 auch ohne Probleme..

https://www.pugetsystems.com/labs/artic ... ance-1116/

Verwendet das Projekt und ihr könnt eure Maschinen 1:1 gegeneinander Vergleichen... alles andere ist nicht zielführend und auch sinnlos wie Frank selbst gerade erklärt....

Das Teil läuft seit Jahren ohne Probleme und ohne 1000 Core 18 Fach SLI GPU Konfiguration.. eure Leistungsparanoia wie damals schon beim alten NMP lassen wir besser unkommentiert..

Space


Antwort von Frank Glencairn:

Ja, was ich damit sagen wollte ist, daß CDNGs, die von vielen als sooooo Hardware hungrig und Ressourcen fressend angesehen werden, nicht mal eine 12 Jahre alte CPU, und eine 4 Jahre alte GPU auch nur halbwegs auslasten, um in Echtzeit oder schneller zu laufen.

Das einzige was tatsächlich stimmt ist, daß Einzelbildsequenzen etwas länger zum kopieren brauchen, als eine einzelne PRR Datei.

Space


Antwort von motiongroup:

Von mir hast das nie gehört;)
Im übrigen hat die Slashcam Redaktion ihr First light mit Prores RAW gehabt und bestätigt das in diesem Monsterfred geschriebene eigentlich zu 100%
Danke dafür..

https://www.slashcam.de/artikel/Kurztes ... lles-.html

Ps zu deiner CPU.. das ist auch heute noch eine 1a CPU von der Leistung her..
Die bei Intel sind und waren absichtlich keine Zauberer.. homöopathische Dosen in Funktion und Leistung für ordentlich Geld ist das Credo.. und die Dummen waren die Kunden..erst AMD hat sie aktuell ein wenig aus dem Schlaf gerissen und wie Nett es funktionierte sonst wäre es die nächsten Äonen so weiter gegangen..
das ist auch mit ein Grund warum sich Apple die neue Rel so mancher HW Produkte auf die lange Bank geschoben hatte... selbst die die in der MacFraktion einen Hackintosh mit den neuesten Komponente gebastelt hatten wurden immer wieder aufs neue enttäuscht.. die Sprünge sind vernachlässigbar..

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Hatte gerade Zeit für nen kleinen Test

Blackmagic CDNG Material aus der Ursa Mini (von einer 4TB Festplatte im USB3 Dock), plus 4 x PIP mit Burns Effect in Resolve, und ne LUT oben drauf.

Läuft in Echtzeit (24p) GPU und CPU knapp zu 50% ausgelastet.

Und das auf ner uralt Win 7 Workstation mit einem i7 980 6 Kerner @ 3.33Hz (Gulftown - also eine antike CPU von 2006) und ner 4 Jahre alten GTX 980.

PRR unterscheidet sich also nicht wirklich, von CDNG, was die performance betrifft.
Ja die GPU Last wurde doch weniger als Problem gesehen (wo soll auch bei Einzelbildern der Dekodieraufwand liegen)? Eher geht es um so Dinge wie erforderlicher Speicherplatz, da benötigt halt CDNG in etwa das Doppelte von ProRes RAW. Und deshalb hätte ich gerne ProRes RAW auch in Resolve und unter Windows implementiert.

Gegen das Speicherplatz-Problem gibt's aber bei CDNG zumindest eine teilweise Abhilfe. Man nehme einfach slimraw und kann damit nochmals Speicherplatz sparen. Ist recht performat, das kleine Tool.
http://www.slimraw.com/

Space


Antwort von motiongroup:

Es wird eh kommen ... nur keine Hast.. der Codec muss selbst unter OS X ein systemcodec werden solange er nur proprietär unter fcpx verfügbar ist brauchtest Du dir keinen Kopf machen..

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Eher geht es um so Dinge wie erforderlicher Speicherplatz, da benötigt halt CDNG in etwa das Doppelte von ProRes RAW. Und deshalb hätte ich gerne ProRes RAW auch in Resolve und unter Windows implementiert.
Naja, komprimiertes PRR HQ hat ungefähr die selbe Datenrate, wie die komprimierten CDNGs aus den BM Kameras - da ist nicht wirklich viel um.

Und ganz ehrlich, 4TB kosten nur noch um die 100 Öcken, Speicherplatz war noch nie so billig und so schnell wie heute.
Digibeta Bänder haben das zigfache gekostet, von Film ganz zu schweigen - das ist wirklich Jammern auf höchstem Niveau.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:
[
Das ist aber völlig unerheblich!
Es geht darum wie aus RAW Daten RGB Daten gewonnen werden. Ob in der Kamera oder im Converter spielt keine Rolle.
Nein, das ist weder unerheblich noch spielt es keine Rolle, sonder das ist der Punkt über den wir hier reden.
Nochmal speziell für dich:

Es macht einen Unterschied, ob ich die erste Korrektur im Raw Tab vornehme, oder auf dem bereits debayerten RGB mit Farbrädern/Kurven etc.
Deshalb sind die RAW Tabs auch nicht einfach nur so zum Spaß da, und sie sind auch nicht überflüssig, egal wie oft du das behauptest.
Wenn du es nicht glaubst, probier es einfach aus.
wolfgang hat geschrieben:
Auch wenn die Performance mit PRR beeindruckend ist.
Naja, wie viel PIP, Burns Effekt x5 braucht man denn bei der täglichen Arbeit?
Vielleicht einmal in 30 Jahren, wenn man eine 80er Retro KnofHof Show simulieren will?

Im normalen raw Schnittbetrieb geht ja sowieso schon alles in Echtzeit oder schneller.
Ja, Frank hat wieder mal recht, Weissabgleich wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)

Space


Antwort von Frank Glencairn:

dienstag_01 hat geschrieben:


Ja, Frank hat wieder mal recht, Weissabgleich wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)
Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.

Space


Antwort von WoWu:

Tja, Weissabgleich wird von Vielen häufig mit der Abstimmung der drei Farbkomponenten auf einen gemeinsamen Pegel verwechselt.

Space


Antwort von motiongroup:

Weil der Frank gerade auf seine 1A CPU aufmerksam gemacht hat.. Cores sind nicht immer ausschlaggebend...
https://m.youtube.com/watch?v=6ix2Xg2I0Jo
Es kommt immer auf das Gesamtbild an und die verwendete Umgebung in die ich mich begeben möchte..;) und noch viel wichtiger ist es im Preisvergleich der Komponenten zu sich selbst ehrlich zu sein..
Gehört aber eigentlich nicht hier her nur wird es immer wieder einmal unterschwellig eingestreut..

Space


Antwort von rudi:

An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProRes RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Naja, komprimiertes PRR HQ hat ungefähr die selbe Datenrate, wie die komprimierten CDNGs aus den BM Kameras - da ist nicht wirklich viel um.
Das gilt aber nur für BM Geräte, wo etwa 3:1 verfügbar ist. Das gilt aber schon nicht mehr für Atomos Rekorder, wo CDNG eben locker das Doppelte an Speicherplatz braucht wie PRR.

Und daher ist für diese Rekorder PRR durchaus attraktiv. Und aus dem gleichen Gründen ist es für BM eben weniger attraktiv (nicht nur wegen den persönlichen Animositäten zwischen den beiden Eigentümern).

Und die Preise für den erforderlichen Speicherplatz sind so nicht vergleichbar, den da reden wir von unterschiedlichen Geschwinfigkeits- und damit Preisklassen. Die SSD kostet halt noch immer deutlich mehr.

Space


Antwort von dienstag_01:

rudi hat geschrieben:
An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProRes RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.
Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. - Im speziellen Fall sicherlich (Ist ja ein RAW-Tool). Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)

Space


Antwort von DV_Chris:

wolfgang hat geschrieben:
Das gilt aber nur für BM Geräte, wo etwa 3:1 verfügbar ist. Das gilt aber schon nicht mehr für Atomos Rekorder, wo CDNG eben locker das Doppelte an Speicherplatz braucht wie PRR.

Und daher ist für diese Rekorder PRR durchaus attraktiv.
Und wohl der eigentliche Grund für die Entwicklung von PRR.

Nachdem aber nichts so schnell im Preis fällt wie Speichermedien stellt sich die Frage, wie viele sich in der Praxis von PRR angesprochen fühlen.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
dienstag_01 hat geschrieben:


Ja, Frank hat wieder mal recht, Weissabgleich wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)
Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.
Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.

Space


Antwort von rudi:

dienstag_01 hat geschrieben:
Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)
Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGB Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.

Space


Antwort von srone:

eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone

Space


Antwort von WoWu:

Dazu kommt noch, dass sich WB aufgrund der unterschiedlichen Quanteneffizienz des Sensors signifikant auf den Störabstand auswirkt.
Jeder Kametahersteller müsste mit dem Klammerbeutel gepudert sein, wenn er sich seine Basiswerte damit verschlechtert, dass er (ohne Not) die WB im RGB Raum vornimmt.

Space


Antwort von Frank Glencairn:

dienstag_01 hat geschrieben:

Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.
Mach dir nix draus, das ist sowieso nix für dich.

Space


Antwort von dienstag_01:

rudi hat geschrieben:
dienstag_01 hat geschrieben:
Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)
Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGB Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.
Richtig, sorry.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
dienstag_01 hat geschrieben:

Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.
Mach dir nix draus, das ist sowieso nix für dich.
Wieder mal viel Mulm, aber sonst nix ;)

Space


Antwort von Frank Glencairn:

Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?

Space


Antwort von wolfgang:

Also ICH fühle mich von PRR sehr wohl angesprochen. Es schützt meine getätigten Investitionen. WENN es nicht nur in der Mac Welt bleibt.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?
Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.

Space


Antwort von srone:

dienstag_01 hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?
Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.
was hat rudi oben getan, zur frage highlight-recovery, deine ignoranz ist wohl grenzenlos...

lg

srone

Space


Antwort von dienstag_01:

srone hat geschrieben:
dienstag_01 hat geschrieben:

Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.
was hat rudi oben getan, zur frage highlight-recovery, deine ignoranz ist wohl grenzenlos...

lg

srone
Hier geht es nicht um Highlight Recovery, sondern um WB.

Space


Antwort von srone:

als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone

Space


Antwort von dienstag_01:

srone hat geschrieben:
als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone
Du willst doch nur provozieren, von mir aus ;)

Space


Antwort von srone:

dienstag_01 hat geschrieben:
srone hat geschrieben:
als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone
Du willst doch nur provozieren, von mir aus ;)
ich? desweiteren "ohne worte"...;-)

lg

srone

Space


Antwort von Frank Glencairn:

Butter bei die Fische

1. Grading nur mit RAW Tab
RAW.jpg 2. Grading nur mit Colorwheels
RGB.jpg

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
Butter bei die Fische

1. Grading nur mit RAW Tab

RAW.jpg

2. Grading nur mit Colorwheels

RGB.jpg
Das ist aus Resolve? Clipping ist automatisch so im Color Wheels Tab? Oder Tricks (Highlight Recovery oder anderes)?

Space


Antwort von Frank Glencairn:

Ja, Resolve
Ja, so sieht's aus wenn man den Raw Tab nicht anfasst, und nur auf dem RGB mit den Color wheels arbeitet.
Highlight Recovery war nicht an (nicht nötig, weil nicht geclipt), keine sonstigen Tricks

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:
.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
Ja, Resolve
Ja, so sieht's aus wenn man den Raw Tab nicht anfasst, und nur auf dem RGB mit den Color wheels arbeitet.
Highlight Recovery war nicht an (nicht nötig, weil nicht geclipt), keine sonstigen Tricks
Ging ja eigentlich um Weissabgleich, aber egal, dieses Gebaren da am oberen Rand finde ich mehr als seltsam.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
dienstag_01 hat geschrieben:


Ja, Frank hat wieder mal recht, Weissabgleich wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)
Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.
Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.

Space


Antwort von Roland Schulz:

rudi hat geschrieben:
An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProRes RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.
Das ist auch nicht zwingend korrekt da das in RGB Werten oberhalb eines sicheren, oberen Bereichs durchgeführt werden kann. Da gibt"s keinen Unterschied.
Fakt ist dass man für die Beeinflussung der RAW Daten zwingend die SDK kennen/beeinflussen müsste - denke da sind einigen Hersteller wenig Freund von. Ohne Kenntnisse über die Rohdaten ließe sich da gar nichts verdrehen.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:

Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.
Schau dir die beiden Beispiele an die ich gepostet habe.
Wenn sich dir der Sinn da nicht erschließt, kann ich dir auch nicht mehr helfen.

Space


Antwort von Roland Schulz:

rudi hat geschrieben:
dienstag_01 hat geschrieben:
Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)
Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGB Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.
Dieser "nichtlineare Bereich" oberhalb einer "sicheren Grenze" ist aber einfach auslot- bzw. exemplarisch ermittelbar. So kann ab einem bestimmten RGB Mischwert davon ausgegangen werden, dass die Farbe hier nicht mehr dem Ausgangsmaterial entspricht und so wird diese ab diesem Grenzwert monochrom"isiert".
Das kann man ganz einfach mit 3D LUTs oder einer Grenzwertbetrachtung machen, auch in RGB.

Space


Antwort von Roland Schulz:

srone hat geschrieben:
eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone
Nö, alles ne Frage wo Du dein 100% RGB überhaupt hinlegst.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Butter bei die Fische

1. Grading nur mit RAW Tab

RAW.jpg

2. Grading nur mit Colorwheels

RGB.jpg
Da kann man sonst was hindrehen, das beweist nur dass Du mit Deinem Grading die alternative Vorlage nicht getroffen hast. Möglich muss das sein (3D-LUT, "Aufwand"...) da wir keine abweichenden NIchtlinearitäten (IR/UV Beeinflussung) im gleichen Material haben.
Wer zeigt auf dass die Hersteller die RAW Dateien nach der Aufzeichnung aber vor dem Debayering im Post beeinflussen?! Bitte um Nachweise. Es ändert nichts, nur dass ich die SDK und die CFA kennen muss! Auch Highlight (Farb-)Verschiebungen kann ich oberhalb von Grenzwerten in RGB neutralisieren.
Wo früher bei vielen Kameras bei Wolken am blauen Himmel anteilig übersteuerte Grenzbereiche noch türkis wurden kann ich diese Grenzbereiche identifizieren und in der Sättigung reduzieren - in RGB. Diese Bereiche sind ableitbar.

Space


Antwort von WoWu:

@Roland

Du gehst immer davon aus, dass WB erst in der Post bei RAW gemacht wird.
Die Annahme ist falsch denn bereits aufgrund der unterschiedlichen Quanteneffizienz nimmt der Hersteller im RAW Format einfluss auf den ersten Verstärker (im Sensor, bzw. bei Dual gain) direkt nach dem Sensor. Grund dafür ist die Beeinflussung des Noisepegels im Signal.
Dazu wird eine Reglung an der Stelle durchgeführt, an der das wenigste Rauschaufkommen vorliegt und möglichst noch vor der Quantisierung stattfindet, weil die weitere Rauschquellen hinzufügt. Auch ist es mit einer einfachen Pegelanhebung nicht getan sondern entlang der Farbanalyse des Bildes müssen bei hohen Grün und Rot Werten, diese verhältnismässig abgesenkt werden, und Blau nur mässig angehoben, damit der Rauschpegel im Bild sich noch gleichmässig verteilt.
Solche Vorgänge bedürfen einer relativ aufwändigen Bildanalyse, sind aber sicher von Kameratyp zu Kameratyp unterschiedlich und nicht jeder handelsübliche Camcorder wird einen so aufwändigen Prozess durchlaufen, wohl aber kommerzielle Kameras.
Daher funktionieren solche Recovery Algorithmen auch nur begrenzt und auch nicht für weißes Licht, weil es dabei keinen Kanal mehr gibt, der nicht ausgeglichen ist.

Space


Antwort von srone:

"Roland Schulz" hat geschrieben:
srone hat geschrieben:
eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone
Nö, alles ne Frage wo Du dein 100% RGB überhaupt hinlegst.
und wie kann ich das?, eben über die raw meta-daten, guten morgen, jetzt wird es langsam interessant...

lg

srone

Space


Antwort von Alf_300:

15 Seiten und kein Ende ;-)
Ich vermute mal dass es inzwischen unmöglich geworden ist ohne Prores-Raw gute Bilder zu machen.

Space


Antwort von WoWu:

Mal ganz davon abgesehen, dass seine Verfärbung des „blauen Himmels“ gar nicht von Überpegeln hervorgerufen werden muss.
Das kann auch eine andere Ursache haben, nämlich im Abweichen der visuellen Farbkonstanz.
Das "gray world" Verfahren und Patch-Verfahren sind globale Methoden, die alle Pixel in die Berechnung einbeziehen und mit denen die Farbkonstanz bestimmt wird.
Ein Nachteil ist aber, dass beide anfällig für statistische Anomalien sind.
Im ersten Fall wird das Verfahren falsche Ergebnisse bringen, wenn die Szene stark farbstichig ist, wie eine Außen-Szene vor einem Ozean und der Himmel ist in der Regel sehr blau ist.
Für die white spot-Methode, wenn ein paar Pixel im Bild sehr große rote, grüne oder blaue Werte beinhalten, die am Ende in der Berechung dominieren.
Solche Anomalien werden anschliessend auf alle Pixels (abgeschwächt) übertragen.
Ein türkisfarbener Himmel kann so auch bereits im RAW Signal entstehen.

Space


Antwort von srone:

Alf_300 hat geschrieben:
15 Seiten ;-)
Ich vermute mal dass es inzwischen unmöglich geworden ist ohne Prores-Raw gute Bilder zu machen.
da brauchst du nicht mal ansatzweise anfangen zu drehen, dass kann nur in die hose gehen... ;-)

lg

srone

Space


Antwort von Roland Schulz:

WoWu hat geschrieben:
@Roland

Du gehst immer davon aus, dass WB erst in der Post bei RAW gemacht wird.
Die Annahme ist falsch denn bereits aufgrund der unterschiedlichen Quanteneffizienz nimmt der Hersteller im RAW Format einfluss auf den ersten Verstärker (im Sensor, bzw. bei Dual gain) direkt nach dem Sensor. Grund dafür ist die Beeinflussung des Noisepegels im Signal.
Dazu wird eine Reglung an der Stelle durchgeführt, an der das wenigste Rauschaufkommen vorliegt und möglichst noch vor der Quantisierung stattfindet, weil die weitere Rauschquellen hinzufügt. Auch ist es mit einer einfachen Pegelanhebung nicht getan sondern entlang der Farbanalyse des Bildes müssen bei hohen Grün und Rot Werten, diese verhältnismässig abgesenkt werden, und Blau nur mässig angehoben, damit der Rauschpegel im Bild sich noch gleichmässig verteilt.
Solche Vorgänge bedürfen einer relativ aufwändigen Bildanalyse, sind aber sicher von Kameratyp zu Kameratyp unterschiedlich und nicht jeder handelsübliche Camcorder wird einen so aufwändigen Prozess durchlaufen, wohl aber kommerzielle Kameras.
Daher funktionieren solche Recovery Algorithmen auch nur begrenzt und auch nicht für weißes Licht, weil es dabei keinen Kanal mehr gibt, der nicht ausgeglichen ist.
Das der WB "immer" im Post gemacht wird habe ich nicht behauptet, Ausnahmen sind bekannt. Ich denke nur dass wir zu der von Dir beschriebenen Vorgehensweise "heute" wahrscheinlich keine belegbaren Nachweise/Beispiele mehr finden.
Es war aber bei der Nikon D2x tatsächlich so (hatte ich schon beschrieben), dass man den WB ungleichmäßig (R, G, B auf Bayerbasis) in der Kamera vorverstärkt hat. Hilfestellung war dazu der externe Sensor im Dachkant oben (ähnlich EOS 1D MKI).
Wie würde das bei einer Kamera ohne Hilfssensor funktionieren?! Hier kann der WB nur aus den Bilddaten abgeleitet werden. Wird hier eine Farbtemperatur abgeleitet die nicht der "nativen Farbaufnahmetemp." des Sensors entspricht müssten ein bis zwei Kanäle der R,G,B Kanäle auf Bayerbasis durch individuelle Analogverstärkung angepasst werden.
Kann man ohne weiteres so machen und macht auch Sinn wenn die A/D Quantisierung "stark limitiert" ist. Die Dynamik der A/D Wandlung würde so besser ausgenutzt. Auf der anderen Seite verliert man aber eine Haupteigenschaft der RAW Verarbeitung, den WB im Post frei und vor allem verlustfrei zu setzen.
Kann mir beides vorstellen und beides hat seine Vorteile. Was wo heute zum Einsatz kommt, glaube das bleibt Herstellergeheimnis. Mir liegen keine Nachweise vor.

Selbst wenn es heute noch so wäre wäre das aber trotzdem keine Vorraussetzung dafür dass die vorliegenden RAW Daten vor dem Debayering nochmal verändert werden müssten.
Es hat hier auch wie Du richtig sagst hauptsächlich nur den Grund die Quantisierung der A/D Wandlung der Analogsignale besser auszunutzen, es wurden die Analogsignale angepasst/ungleichmäßig verstärkt.
Im Post macht das aber keinen Sinn da wir hier technisch "nicht" begrenzt sind. Es hätte hier keinen sinnvollen Nutzen mehr.

Nochmal zu meiner Aussage: ich sage dass bereits aufgezeichnete RAW Daten im Post nicht mehr auf Basis der RAW Daten vor dem Debayering angepasst werden. Wir stellen lediglich Werte für black shading fest sowie bad pixels.
Die gesamte folgende Bearbeitung findet auf Basis der debayerten Daten statt. Auch im "RAW Dialog" wird zuerst debayert.
Gerade bei der Standbildverarbeitung macht das Sinn da der Debayeringprozess deutlich aufwändiger ist als eine RGB Transformation. Für eine Änderung auf RAW Basis muss ich u.A. die CFA kennen und invers debayert die Daten manipulieren. Dann zur Ansicht nach einer Änderung jedes Mal aufwändig debayern.
Einfacher und schneller ist es die vorliegenden RAW Daten 1:1 zu debayern und anschließend sämtliche Transformationen auf RGB Basis zu machen, alles weiterhin mit hoher Quantisierung.

Space


Antwort von Sammy D:

Nur mal so, im Resolve-Manual steht doch beschrieben, was, wann und wie mit RAW-Dateien passiert.

Space


Antwort von Roland Schulz:

WoWu hat geschrieben:
Mal ganz davon abgesehen, dass seine Verfärbung des „blauen Himmels“ gar nicht von Überpegeln hervorgerufen werden muss.
Das kann auch eine andere Ursache haben, nämlich im Abweichen der visuellen Farbkonstanz.
Das "gray world" Verfahren und Patch-Verfahren sind globale Methoden, die alle Pixel in die Berechnung einbeziehen und mit denen die Farbkonstanz bestimmt wird.
Ein Nachteil ist aber, dass beide anfällig für statistische Anomalien sind.
Im ersten Fall wird das Verfahren falsche Ergebnisse bringen, wenn die Szene stark farbstichig ist, wie eine Außen-Szene vor einem Ozean und der Himmel ist in der Regel sehr blau ist.
Für die white spot-Methode, wenn ein paar Pixel im Bild sehr große rote, grüne oder blaue Werte beinhalten, die am Ende in der Berechung dominieren.
Solche Anomalien werden anschliessend auf alle Pixels (abgeschwächt) übertragen.
Ein türkisfarbener Himmel kann so auch bereits im RAW Signal entstehen.
Gute Ergänzung! Ich würde aber den einen Satz ändern, nämlich dass der Algorithmus anfällig für statistische Kontinuität ist, dass ein anteilig geclippter Bereich aus den umgebenden, sicheren Bereichen auf die gleiche Farbe abgeschätzt und über die Helligkeit fortgesetzt wird, wobei die tatsächliche Farbe eine andere sein könnte.


Alles interessant und nicht falsch - trotzdem irgendwo ein wenig neben der Streckenbegrenzung: ich behaupte dass u.A. FCPX keinen typischen "RAW Dialog" zur Anpassung der Bildinformationen benötigt, da alles mit anderen Werkzeugen später genau so angepasst werden kann. Es macht keinen Unterschied da direkt nach der Übergabe der RAW Daten ohnehin zuerst das Debayering steht. Man kann u.A. auch die Bildtemperatur nach mehreren vorausgegangenen Schritten immer noch anpassen - dann allerdings nicht mehr unbedingt mit kalibrierten Kelvinwerten unter der Bezeichnung "Weißabgleich".

Space


Antwort von Frank Glencairn:

Captain Schulz im Denial Mode :-D

Die beiden Beispiele sind eindeutig, die Unterschiede sind enorm, der Beweis ist erbracht, das Thema ist durch, das kannst du dir nicht mehr schönreden - bestenfalls weiter leugnen.

Na von mir aus, jedem das seine.

Space


Antwort von Roland Schulz:

"Sammy D" hat geschrieben:
Nur mal so, im Resolve-Manual steht doch beschrieben, was, wann und wie mit RAW-Dateien passiert.
DANKE!

Ich kann ja hier hunderttausend Posts schreiben - aber - SORRY Frank ;-),
guckst Du hier, Seite 101:

https://www.google.de/url?sa=t&rct=j&q= ... YKYWQ4F1xY

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Captain Schulz im Denial Mode :-D

Die beiden Beispiele sind eindeutig, die Unterschiede sind enorm, der Beweis ist erbracht, das Thema ist durch, das kannst du dir nicht mehr schönreden - bestenfalls weiter leugnen.

Na von mir aus, jedem das seine.
Nochmal, das beweist GAR NICHTS!!! Du kannst da jeweils sonst was einstellen und es sieht niemals gleich aus. Mal mit "Beweisführung" beschäftigen...


...vorigen Post lesen und ins Resolve Manual gucken, ganz einfach - "das Thema ist durch, das kannst Du dir nicht mehr schönreden - bestenfalls weiter leugnen" ;-)!

...nix für ungut.
Freunde?!?!

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:

DANKE!

Ich kann ja hier hunderttausend Posts schreiben - aber - SORRY Frank ;-),
guckst Du hier, Seite 101:
LOL - Als Resolve Beta Tester kenn ich das Handbuch fast auswendig - aber danke für den Hinweis :-)

Und wo genau soll da was stehen, das deine kruden Theorien bestätigt?
Ich kann da beim besten Willen nix entdecken.

Steht da irgendwo, daß die raw Tabs eigentlich völlig unsinnig und überflüssig sind,
und kein Mensch raw Tabs braucht, weil man mit den Colorwheels das selbe machen kann?

Space


Antwort von WoWu:

Es ist doch weder das Eine, noch das Andere allein gültig.
Es gibt genügend Kameras im unteren bis mittleren Segment, die über derart schlechte Verarbeitung im Prozessweg verfügen und auf Dinge, wie Störabstand pfeifen, dass man dann auch sämtliche Ableiche im RGB Raum vornehmen kann.
Ebenso, wie es reichlich Codecs gibt, deren Signal gar nicht direkt dem Sensorsignal entsprechen sondern nur in der Übertragungsfunktion flach sind.

Nun kann man spekulieren ... eins steht nur ziemlich fest. Hat man es mit einem „echtem“ RAW zu tun und ist man gezwungen De-Mosaicing von unterschiedlichen Kameras durchzuführen, wird man um die üblichen Stellparameter nicht herum kommen.
Und legt man Wert auf hochwertige Zielbilder auch nicht darum, auf möglichst geringe Artefakte zu achten, wie zuvor schon beschrieben. Dazu gehören aber eben auch Rauschanteile, die man möglichst gering halten wird.
Das gelingt nicht so gut im RGB Raum, weil die Signale bereits aus mehreren Quellen belastet sind, wie im RAW Signal, in dem man es mit der Minimalmenge an Rauschen zu tun hat.
Das Alles kann man, meiner Meinung nach, überhaupt noch nicht auf PRR beziehen, weil es noch reine Spekulation ist, um was für ein Signal es sich handelt, noch dazu nicht mal klar ist, wie Prozesse in FCP mit unterschiedlichen CFRs umgehen.
Dazu gibt es lediglich die üblichen Spekulationen im Netz, die überhaupt nicht belastbar sind.
Die Kenntnis über die bisherigen RAW Verfahren ist aber aus der Historie bestens bekannt. Nur lässt sie sich bisher mit dem, was wir über PRR „erfahren“ haben (nämlich nichts Konkretes) in Einklang bringen.
Wir können noch nichtmal mit Sicherheit sagen, ob es überhaupt ein echtes RAW Signal ist, denn dafür sind die bisherigen „Erkenntnisse“ viel zu widersprüchlich.

Warum warten wir also nicht einfach mal ab ...
Und noch eins ... in Franks Beitrag oben ist es schon angeklungen.... wer Codes einzig an seiner Perfomanz misst, scheint sich die Frage nach Bildqualität nicht mehr zu stellen.
Insofern divergieren hier die jeweiligen Zielanforderungen ohnehin.

Space


Antwort von Roland Schulz:

Frank, ...da steht:
„RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page...“

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!


Dass Du zu unterschiedlichen Ergebnissen kommst liegt zum einen daran dass die „Color Wheels“ und andere Tools ggf. ein etwas abweichendes Ergebnis liefern als der Raw Dialog, zum anderen dass Du die anderen Werkzeuge ggf. nicht „richtig“ angewendet hast bzw. die entsprechenden Parameter nicht genau genug getroffen hast.

Da wir u.A. in Resolve aber mit 32bit-FP arbeiten haben wir nach dem (!) „RAW decoding“ aber mit „keinen“ qualitativen Nachteilen zu rechnen.

Space


Antwort von Roland Schulz:

WoWu hat geschrieben:
Es ist doch weder das Eine, noch das Andere allein gültig.
Es gibt genügend Kameras im unteren bis mittleren Segment, die über derart schlechte Verarbeitung im Prozessweg verfügen und auf Dinge, wie Störabstand pfeifen, dass man dann auch sämtliche Ableiche im RGB Raum vornehmen kann.
Ebenso, wie es reichlich Codecs gibt, deren Signal gar nicht direkt dem Sensorsignal entsprechen sondern nur in der Übertragungsfunktion flach sind.

Nun kann man spekulieren ... eins steht nur ziemlich fest. Hat man es mit einem „echtem“ RAW zu tun und ist man gezwungen De-Mosaicing von unterschiedlichen Kameras durchzuführen, wird man um die üblichen Stellparameter nicht herum kommen.
Und legt man Wert auf hochwertige Zielbilder auch nicht darum, auf möglichst geringe Artefakte zu achten, wie zuvor schon beschrieben. Dazu gehören aber eben auch Rauschanteile, die man möglichst gering halten wird.
Das gelingt nicht so gut im RGB Raum, weil die Signale bereits aus mehreren Quellen belastet sind, wie im RAW Signal, in dem man es mit der Minimalmenge an Rauschen zu tun hat.
Das Alles kann man, meiner Meinung nach, überhaupt noch nicht auf PRR beziehen, weil es noch reine Spekulation ist, um was für ein Signal es sich handelt, noch dazu nicht mal klar ist, wie Prozesse in FCP mit unterschiedlichen CFRs umgehen.
Dazu gibt es lediglich die üblichen Spekulationen im Netz, die überhaupt nicht belastbar sind.
Die Kenntnis über die bisherigen RAW Verfahren ist aber aus der Historie bestens bekannt. Nur lässt sie sich bisher mit dem, was wir über PRR „erfahren“ haben (nämlich nichts Konkretes) in Einklang bringen.
Wir können noch nichtmal mit Sicherheit sagen, ob es überhaupt ein echtes RAW Signal ist, denn dafür sind die bisherigen „Erkenntnisse“ viel zu widersprüchlich.

Warum warten wir also nicht einfach mal ab ...
Und noch eins ... in Franks Beitrag oben ist es schon angeklungen.... wer Codes einzig an seiner Perfomanz misst, scheint sich die Frage nach Bildqualität nicht mehr zu stellen.
Insofern divergieren hier die jeweiligen Zielanforderungen ohnehin.
Warum sollten wir u.U. im debayerten RGB Signal u.A. mehr Rauschen haben als im RAW Signal, das erschließt sich mir nicht?!
Welche Gründe könnte das haben?!
Wir könnten eigentlich nur Quantisierungsrauschen erhalten wenn wir in eine kleine Quantisierung/Bittiefe interpolieren - das hatte ich aber immer ausgeschlossen (Zielbittiefe >= RAW Bittiefe).
Resolve macht hier 32bit FP - denke da ist jede praktische Kamera WEIT von weg.

Und ja, welche Qualität das „high speed“ debayerte Bild hat steht klar noch in Frage. Das könnte am Ende ggf. „schlechter“ aussehen als ein OOC Bild wenn das Debayering dort hochwertiger ist.

Weiter richtig - sehr viel Spekulation bis hierher. Ggf. sollten wir Erfahrungen und weitere Untersuchungen abwarten.
Auf jeden Fall erzeugt das alles ne Menge Interesse und Diskussionen.
Ich find‘s interessant und ggf. hat das ganze gewisse Chancen.

Nacht zusammen...

Space


Antwort von Axel:

"Roland Schulz" hat geschrieben:
Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.
Vielleicht kann ich da ganz schüchtern aushelfen. In ACR gilt das Öffnen eines Raw-Standbildes als Vorstufe zu weiterer Nachbarbeitung. Sobald man das Raw-Bild im normalen Photoshop öffnet, hat man alle Parameter festgelegt, die normalerweise in der Kamera festgelegt würden, inklusive Weißabgleich, Belichtung (bei BM-Kameras ist z.B. ISO nichts anderes als Gamma, eingebacken durch Kompression oder nicht), Konturenschärfung, Rauschunterdrückung, Objektivkorrektur usw.. Aber im HSL-Tab lässt sich eine komplette "Color Science" festlegen (und natürlich als Profil speichern). Dieses Werkzeug erscheint vielen als so mächtig, dass sie es missbrauchen, um ordinäre JPEGs mit ACR zu öffnen und deren Farben sehr intuitiv anpassen zu können.

Im Photoshop-Klon (in manchem besser, in manchem schwächer) Affinity müssen Raw-Dateien die "Develop-Persona" durchlaufen, bevor sie zur "Photo-Persona" werden können. Eine Metamorphose!

Im Vergleich dazu ist Resolves CR ziemlich bescheiden. Aber es besagt, dass eine Raw-Datei besser zuerst interpretiert wird aufgrund von Metadaten aus der Kamera.

In FCP gibt es nur "Farbtemperatur" und der original vom Kameramann gewählte Wert wird nicht angezeigt, jedoch offenbar dennoch stillschweigend für eine erste Interpretation (das ist das "Entwickeln") herangezogen. Daher sieht der "Serviervorschlag" der Aladin-Lampe aus, wie man ihn bei 4300°K (Daten von der Mini-App "Mediainfo") erwarten würde. FCP liefert also eine vollautomatische Entwicklung. Will ich, wenn ich mir Raw "anlache" (wolfgang), einen solchen Schritt? Aus dem Atomos direkt in die "My Video Persona"? Sind das bloß sinnfreie Etiketten?

Frag mal einen Photoshop-Nutzer.

Hier noch der Hinweis zu analogem Entwickeln von Negativen, dass es Techniken wie das Flashen oder Pushen gab, um Einfluss auf das Endergebnis zu haben. Dinge, die nicht vollumfänglich beim "Vergrößern" (die normalen Photoshop-Tools haben ihre Vorbilder in der Dunkelkammer) erzielt werden konnten.
Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden.
Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss?
Auf Seite der zur Verfügung stehenden Farbwerkzeuge und daher der Wahrnehmung des Materials durch den Nutzer: in FCP kein Unterschied!

Wenn ich mir aber Raw "anlache" (wolfgang), dann möchte ich wohl in größerem Umfang Einfluss auf Farbe nehmen. FCP 10.3 war ein genialer Allrounder mit seiner kleinen Farbtafel, die zugleich eine Eigenschaft und ein Effekt war. Sie wurde oft ausgelacht, aber nur von Outsidern. Ich schrieb mal, mit ihr kann man 95% von dem erreichen, was man in Resolve tut, aber mit nur 5% Zeitaufwand.

Das galt aber für Farbkorrektur, für einfaches Aufpolieren von normalem Video. Maximal ein oder höchstens zwei zusätzliche sekundäre Schritte. Danach begann das Verhältnis zugunsten von Resolve zu kippen. Es gibt in FCP kein einfaches Organisationsprinzip für die Arbeitsschritte (wie die Nodes), keine Lösung, um eine Referenz anzeigen zu lassen. Seit Dezember gibt es mehr Werkzeuge, aber das neue Color-Tab, in dem sie leben, hat leider nichts daran geändert.

In Bezug auf den Schnitt schrieb ich oft, man müsste schon im Detail Arbeitsabläufe vergleichen, um zu sehen, welcher NLE benutzerfreundlicher sei. Klicks, Tastenbedienungen (eine Taste oder nur mit einer oder mehreren Modifyer-Tasten?) und unvermeidliche Mausbewegungen zählen. Da gewinnt FCP immer. Bei Farbe verliert es sehr schnell.

Color Finale und zumal Chromatic hatten das schon etwas besser hingekriegt (letzteres sogar mit Mocha-Tracker, Masken ohne Tracking sind ja auch doof, übrigens Chromatic nur heute noch mit 30% Preisnachlass!). Apple hat es verpfuscht. Ich hoffe, das geht nicht so weiter. Ein paar Minuten lang gab es in der amerikanischen Update-Information für 10.4.1 den Hinweis auf integrierte Rauschunterdrückung. Jemand hat einen Screenshot gemacht:

zum Bild


Bitte nicht weiter so! Hört auf, Features dazuzustopfen, die Drittanbieter besser machen. Konzentriert euch auf Medienorganisation und Schnitt!

Space


Antwort von Sammy D:

"Roland Schulz" hat geschrieben:
Frank, ...da steht:
„RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page...“

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!
...
Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.

Space


Antwort von nic:

Also zumindest für redraw kann ich mit Sicherheit sagen, dass tatsächlich vor ISO-Interpretation (Gain), Weißabgleich und selbst der 'highlight-extension' das demosaicing durchgeführt wird. Dass die Ergebnisse der Anpassungen im RAW-Dialog trotz allem nicht identisch mit den Anpassungen danach ausfallen (können), liegt daran, dass die durch das r3d-Modul vorgenommenen Korrekturen die (nur dem Hersteller bekannten) Sensoreigenheiten (Colorimetry, ...) miteinbeziehen. Sämtliche raw-Einstellungen werden auf das in Fließkommazahlen debayerte Bild durchgeführt und inkludieren alle im raw-Zustand vorhandenen Informationen. Dem NLE oder Gradingprogramm werden die verarbeiteten Daten dann als Integer in der erwarteten Bittiefe übergeben.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:
Frank, ...da steht:
„RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page...“

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!
Zunächst einmal widerspricht der erste Satz nicht dem, was ich sage, sondern er bestätigt es: Das Decoding (Raw Tab) ist ein eigener Prozess, der getrennt von allen anderen Prozessen, und vor allen anderen Prozessen (Colorwheels) passiert.

Debayering ist nur ein Teil des Decoding und nicht das selbe. Beim Decoding im RAW Tab werden eben nicht nur die Debayering Parameter gesetzt, sondern halt auch alle anderen, die in das Decoding nach RGB einfließen.
"Roland Schulz" hat geschrieben:

Dass Du zu unterschiedlichen Ergebnissen kommst liegt zum einen daran dass die „Color Wheels“ und andere Tools ggf. ein etwas abweichendes Ergebnis liefern als der Raw Dialog, zum anderen dass Du die anderen Werkzeuge ggf. nicht „richtig“ angewendet hast bzw. die entsprechenden Parameter nicht genau genug getroffen hast.
Naja, ich hab Ende der 90er Farbkorrektur auf einer DaVinci Renaissance 8:8:8 gelernt, hab das an der Uni unterrichtet, und heute bin ich Resolve Beta Tester, sprich ich setze mich jetzt gut 20 Jahre intensiv damit auseinander - ich schätze mal daß das "richtige Anwenden der Werkzeuge" schon so einigermaßen im Griff hab.

Space


Antwort von Roland Schulz:

Axel hat geschrieben:
"Roland Schulz" hat geschrieben:
Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.
Vielleicht kann ich da ganz schüchtern aushelfen. In ACR gilt das Öffnen eines Raw-Standbildes als Vorstufe zu weiterer Nachbarbeitung. Sobald man das Raw-Bild im normalen Photoshop öffnet, hat man alle Parameter festgelegt, die normalerweise in der Kamera festgelegt würden, inklusive Weißabgleich, Belichtung (bei BM-Kameras ist z.B. ISO nichts anderes als Gamma, eingebacken durch Kompression oder nicht), Konturenschärfung, Rauschunterdrückung, Objektivkorrektur usw.. Aber im HSL-Tab lässt sich eine komplette "Color Science" festlegen (und natürlich als Profil speichern). Dieses Werkzeug erscheint vielen als so mächtig, dass sie es missbrauchen, um ordinäre JPEGs mit ACR zu öffnen und deren Farben sehr intuitiv anpassen zu können.

Im Photoshop-Klon (in manchem besser, in manchem schwächer) Affinity müssen Raw-Dateien die "Develop-Persona" durchlaufen, bevor sie zur "Photo-Persona" werden können. Eine Metamorphose!

Im Vergleich dazu ist Resolves CR ziemlich bescheiden. Aber es besagt, dass eine Raw-Datei besser zuerst interpretiert wird aufgrund von Metadaten aus der Kamera.

In FCP gibt es nur "Farbtemperatur" und der original vom Kameramann gewählte Wert wird nicht angezeigt, jedoch offenbar dennoch stillschweigend für eine erste Interpretation (das ist das "Entwickeln") herangezogen. Daher sieht der "Serviervorschlag" der Aladin-Lampe aus, wie man ihn bei 4300°K (Daten von der Mini-App "Mediainfo") erwarten würde. FCP liefert also eine vollautomatische Entwicklung. Will ich, wenn ich mir Raw "anlache" (wolfgang), einen solchen Schritt? Aus dem Atomos direkt in die "My Video Persona"? Sind das bloß sinnfreie Etiketten?

Frag mal einen Photoshop-Nutzer.

Hier noch der Hinweis zu analogem Entwickeln von Negativen, dass es Techniken wie das Flashen oder Pushen gab, um Einfluss auf das Endergebnis zu haben. Dinge, die nicht vollumfänglich beim "Vergrößern" (die normalen Photoshop-Tools haben ihre Vorbilder in der Dunkelkammer) erzielt werden konnten.
Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden.
Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss? Auf Seite der zur Verfügung stehenden Farbwerkzeuge und daher der Wahrnehmung des Materials durch den Nutzer: in FCP kein Unterschied!

Wenn ich mir aber Raw "anlache" (wolfgang), dann möchte ich wohl in größerem Umfang Einfluss auf Farbe nehmen. FCP 10.3 war ein genialer Allrounder mit seiner kleinen Farbtafel, die zugleich eine Eigenschaft und ein Effekt war. Sie wurde oft ausgelacht, aber nur von Outsidern. Ich schrieb mal, mit ihr kann man 95% von dem erreichen, was man in Resolve tut, aber mit nur 5% Zeitaufwand.

Das galt aber für Farbkorrektur, für einfaches Aufpolieren von normalem Video. Maximal ein oder höchstens zwei zusätzliche sekundäre Schritte. Danach begann das Verhältnis zugunsten von Resolve zu kippen. Es gibt in FCP kein einfaches Organisationsprinzip für die Arbeitsschritte (wie die Nodes), keine Lösung, um eine Referenz anzeigen zu lassen. Seit Dezember gibt es mehr Werkzeuge, aber das neue Color-Tab, in dem sie leben, hat leider nichts daran geändert.

In Bezug auf den Schnitt schrieb ich oft, man müsste schon im Detail Arbeitsabläufe vergleichen, um zu sehen, welcher NLE benutzerfreundlicher sei. Klicks, Tastenbedienungen (eine Taste oder nur mit einer oder mehreren Modifyer-Tasten?) und unvermeidliche Mausbewegungen zählen. Da gewinnt FCP immer. Bei Farbe verliert es sehr schnell.

Color Finale und zumal Chromatic hatten das schon etwas besser hingekriegt (letzteres sogar mit Mocha-Tracker, Masken ohne Tracking sind ja auch doof, übrigens Chromatic nur heute noch mit 30% Preisnachlass!). Apple hat es verpfuscht. Ich hoffe, das geht nicht so weiter. Ein paar Minuten lang gab es in der amerikanischen Update-Information für 10.4.1 den Hinweis auf integrierte Rauschunterdrückung. Jemand hat einen Screenshot gemacht:

zum Bild


Bitte nicht weiter so! Hört auf, Features dazuzustopfen, die Drittanbieter besser machen. Konzentriert euch auf Medienorganisation und Schnitt! Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGB Daten vor.

Space


Antwort von Axel:

"Roland Schulz" hat geschrieben:
Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGB Daten vor.
Camera-Raw - man könnte es gewagt übersetzen mit "Kamera-Raw" - erlaubt Eingriff in die Metadaten, die von der Kamera mitgeliefert werden. Es mag sehr wohl sein, dass die Unterscheidung akademisch ist, weil die Hauptleistung, das Anzeigen eines RGB-Bildes, da schon stattgefunden hat, aber eben mit Hilfe von ganz bestimmten Werten. Wysiwyg.

Aus demselben Grund, aus dem in allen Farbkorrektur-Handbüchern und -tutorials immer wieder auf die Bedeutung der richtigen Reihenfolge beim Workflow hingewiesen wird, ist es allein aus der Anschauung des Bearbeiters heraus besser (oder wenn man es streng nimmt unerlässlich), die technische Interpretation des Ausgangsbildes von der kreativen Arbeit am so "entwickelten" Bild zu trennen. Selbst wenn, wie hier, die Software sagt, okay, hab die Metadaten erfasst, uninteressantes technisches Gewäsch für dich, fang mit Graden an! Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!

Farbkorrektur ist wegen des wysiwyg-Prinzips der reinste Datenhäcksler. Würde ich einen Look auflegen, bevor ich primäre Farb- und Helligkeitsbalance durchgeführt habe, bliebe nur Matsche übrig. Begönne ich einen Eingriff in ein vorentwickeltes Raw-Bild (wie von FCP mir aufgezwungen) mit Instrumenten, die dieselben sind, mit denen ich am Look arbeite, ...

Space


Antwort von Roland Schulz:

"Sammy D" hat geschrieben:
"Roland Schulz" hat geschrieben:
Frank, ...da steht:
„RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page...“

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!
...
Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.
Das steht so in der von mir verklinkten Anleitung und ich habe auch nichts anderes behauptet. Debayering first. Nirgends steht dass irgendwelche Parameter Einfluss auf das Debayering haben, außer in Bezug auf die Qualität (schnell/qualitativ höherwertig). Es ist auch nicht notwendig dass Metadaten Einfluss auf das Debayering haben.
Hier gibt es wie in den anderen von mir geposteten Links keine Rückwirkungen die aufgezeigt sind. Alles (WB...) findet danach in RGB statt. Es wird "plain" debayert, nirgends steht dass es anders ist.

Space


Antwort von Roland Schulz:

Axel hat geschrieben:
"Roland Schulz" hat geschrieben:
Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGB Daten vor.
Camera-Raw - man könnte es gewagt übersetzen mit "Kamera-Raw" - erlaubt Eingriff in die Metadaten, die von der Kamera mitgeliefert werden. Es mag sehr wohl sein, dass die Unterscheidung akademisch ist, weil die Hauptleistung, das Anzeigen eines RGB-Bildes, da schon stattgefunden hat, aber eben mit Hilfe von ganz bestimmten Werten. Wysiwyg.

Aus demselben Grund, aus dem in allen Farbkorrektur-Handbüchern und -tutorials immer wieder auf die Bedeutung der richtigen Reihenfolge beim Workflow hingewiesen wird, ist es allein aus der Anschauung des Bearbeiters heraus besser (oder wenn man es streng nimmt unerlässlich), die technische Interpretation des Ausgangsbildes von der kreativen Arbeit am so "entwickelten" Bild zu trennen. Selbst wenn, wie hier, die Software sagt, okay, hab die Metadaten erfasst, uninteressantes technisches Gewäsch für dich, fang mit Graden an! Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!

Farbkorrektur ist wegen des wysiwyg-Prinzips der reinste Datenhäcksler. Würde ich einen Look auflegen, bevor ich primäre Farb- und Helligkeitsbalance durchgeführt habe, bliebe nur Matsche übrig. Begönne ich einen Eingriff in ein vorentwickeltes Raw-Bild (wie von FCP mir aufgezwungen) mit Instrumenten, die dieselben sind, mit denen ich am Look arbeite, ...
...auch hier werden die Metadaten (WB...) auf das debayerte RGB Bild angewendet und können adaptiert werden, nirgends steht was anderes!
Das vorhandene RAW Bild wird zuerst 1:1 debayert, das steht da, da werden keine RAW Daten anhand von Metadaten verändert oder der Debayeringprozess angepasst.
Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern. Die "Farbe", und das ist auch der WB, passiert danach. Das wäre anders viel zu kompliziert und bei Änderungen unnötig langsam. Das debayerte Bild liegt in hoher Quantisierung vor (Resolve 32bit FP). Da kann man alles "verlustfrei" mit machen da keine Kamera annähernd diese Quantisierung aufweist!

In manchen Kameras selbst findet wie Wowu richtig schrieb mitunter eine Anpassung der R,G,B Verstärkungen vor der Digitalsierung statt. Da macht es auch noch Sinn da die Quantisierung der ADCs ggf. kleiner ist als die Dynamik der Sensel. An RAW Daten selbst vor dem Debayern rumzubasteln macht aber keinen Sinn und niemand gibt einen Hinweis darauf.


Noch mal zurück auf den Track: Der RAW Converter selbst muss nicht zwingend Einfluss auf die Farben (WB...) erlauben, da das verlustfrei in späteren Schritten erfolgen kann, somit auch für FCPX Gültigkeit haben kann (wenn die interne Verarbeitung eine entsprechend hohe Quantisierung aufweist).

Space


Antwort von Sammy D:

"Roland Schulz" hat geschrieben:
"Sammy D" hat geschrieben:


Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.
Das steht so in der von mir verklinkten Anleitung und ich habe auch nichts anderes behauptet. Debayering first. Nirgends steht dass irgendwelche Parameter Einfluss auf das Debayering haben, außer in Bezug auf die Qualität (schnell/qualitativ höherwertig). Es ist auch nicht notwendig dass Metadaten Einfluss auf das Debayering haben.
Hier gibt es wie in den anderen von mir geposteten Links keine Rückwirkungen die aufgezeigt sind. Alles (WB...) findet danach in RGB statt. Es wird "plain" debayert, nirgends steht dass es anders ist.
Wie siehts dann mit Raw Convertern aus, wo man das Debayering abstellen, man aber trotzdem an den Metadaten drehen kann?

Space


Antwort von Roland Schulz:

"Sammy D" hat geschrieben:
Wie siehts dann mit Raw Convertern aus, wo man das Debayering abstellen, man aber trotzdem an den Metadaten drehen kann?
Was soll das für ein "Converter" sein?! Beispiel?!
Du drehst zudem an Parametern die durch Metadaten voreingestellt sind, Du veränderst im Post nicht die Metadaten selbst denn dann würdest Du die Originaldatei ändern. Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.

Space


Antwort von dienstag_01:

Ich möchte mal daran erinnern, um was es hier (im letzten Zweig dieser Diskussion) eigentlich geht: WB auf RAW oder RGB.
EIn Pixel, dessen Farbwerte ich nur kenne, wenn ich das Bayern-Pattern kenne (Punkt 1) kann ich ohne eine Interpolation der beiden anderen Farbwerte (Punkt 2) never ever in seiner Farbe verändern. Was WB macht.
Ob Resolve das in der Anordnung seiner Tabs sichtbar macht oder nicht, ist dafür völlig irrelevant.
Es gibt auch RAW-Konverter (z.B. Lightroom), die behalten komplett das RAW-Bild und schreiben die Anpassungen (auch alle Farbanpassungen, also viel mehr als Resolve) in eine xmp. Na und, ohne Debayering passiert da nichts.

Space


Antwort von Axel:

Axel hat geschrieben:
Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!
Ich widerlege mich selbst. Ein Pocket DNG sowohl in FCP (Metadaten? Der Weißabgleich von 5600°K wird nirgendwo gelistet, aber das Bild sieht okay aus) als auch in Resolve geladen. >Farbtafel >Global und >Camera Raw >White Balance >Custom ist subjektiv gar kein Unterschied. Hmmm.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:

Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern.

Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.
Diese massive Anhäufung von völliger Ignoranz, gepaart mit mangelndem Fachwissen und Sturheit, in deinem Reality Distortion Field, das offensichtliche Beweise zuverlässig für dich filtert, ist wirklich beachtlich.

Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
Ich möchte mal daran erinnern, um was es hier (im letzten Zweig dieser Diskussion) eigentlich geht: WB auf RAW oder RGB.
EIn Pixel, dessen Farbwerte ich nur kenne, wenn ich das Bayern-Pattern kenne (Punkt 1) kann ich ohne eine Interpolation der beiden anderen Farbwerte (Punkt 2) never ever in seiner Farbe verändern. Was WB macht.
Ob Resolve das in der Anordnung seiner Tabs sichtbar macht oder nicht, ist dafür völlig irrelevant.
Es gibt auch RAW-Konverter (z.B. Lightroom), die behalten komplett das RAW-Bild und schreiben die Anpassungen (auch alle Farbanpassungen, also viel mehr als Resolve) in eine xmp. Na und, ohne Debayering passiert da nichts.
..sehe ich auch so.
Ich kann zwar in der Farbe verändern, aber entweder nicht gezielt oder ich muss invers gebayert überlagern. Also bitte, das würde wirklich dem Aufwand x2 entsprechen!

Space


Antwort von cantsin:

Das leuchtet in der Theorie ja ein. Nur ist in der Praxis merkwürdig, dass die Bildparameter-Regler, die Resolves Raw-Tab bzw. Adobes ACR zur Verfügung stellen, dann eigentlich genauso gut bei herkömmlichen Bildern (mit 12 oder 14bit Farbtiefe) funktionieren müsste.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:

Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern.

Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.
Diese massive Anhäufung von völliger Ignoranz, gepaart mit mangelndem Fachwissen und Sturheit, in deinem Reality Distortion Field, das offensichtliche Beweise zuverlässig für dich filtert, ist wirklich beachtlich.
Frank, Dein "TEST" ist bis hierher dein einziger Versuch gewesen überhaupt irgendeinen Nachweis zu bringen. Den Test verwerfe ich aber mit der Begründung dass du in beiden Vorgängen was völlig unterschiedliches hast einstellen können da es auch gar keine identischen Stellgrößen in den Dialogen gibt. Das bedeutet aber nicht dass man nicht zum gleichen Ergebnis kommen kann.

Was kam dann noch dazu, wo ist Dein Fachwissen, wo sind die Belege wie es gemacht wird?! Da ist nichts oder habe ich was überlesen?! Ich habe zig Links von Blockschaltbildern gepostet und das Resolve Manual nach Hinweis zitiert. Alles zielt auf Debayering first was auch immer mehr andere hier stützen.

Ist mir aber auch langsam echt egal, Thema ist geklärt.

Space


Antwort von Roland Schulz:

cantsin hat geschrieben:
Das leuchtet in der Theorie ja ein. Nur ist in der Praxis merkwürdig, dass die Bildparameter-Regler, die Resolves Raw-Tab bzw. Adobes ACR zur Verfügung stellen, dann eigentlich genauso gut bei herkömmlichen Bildern (mit 12 oder 14bit Farbtiefe) funktionieren müsste.
Das tun sie auch und das will BMD mit 32bit FP auch sagen.

Space


Antwort von Roland Schulz:

...noch zwei weitere für Debayering/Demosaicing first:


zum Bild






Frank - gib" auf, Du hast keine Chance, komme mit erhobenen Händen raus ;-) ;-) ;-)

...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.

Space


Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:


...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.
Du bist hier der einzige, der davon faselt, daß die WB und anderes vor dem Debayering passieren - ich hab immer schon gesagt, das die Parameter im raw Tab die Parameter FÜR das Debayering sind. Aber das schnallst du einfach nicht.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:


...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.
Du bist hier der einzige, der davon faselt, daß die WB und anderes vor dem Debayering passieren - ich hab immer schon gesagt, das die Parameter im raw Tab die Parameter FÜR das Debayering sind. Aber das schnallst du einfach nicht.
Eigentlich kotzen mich solche Sachen an, aber manchmal ist es unumgänglich (man wird hier sonst selbst als der Doofe hingestellt): Ich rede jetzt nicht von irgendwelchen Sachen wie Blende, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar.

Space


Antwort von Frank Glencairn:

Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.
Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der Farbkorrektur und dem Grading unterscheiden sollte.

Space


Antwort von dienstag_01:

7nic hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.
Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der Farbkorrektur und dem Grading unterscheiden sollte.
Wie?

Space


Antwort von nic:

dienstag_01 hat geschrieben:
7nic hat geschrieben:


Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der Farbkorrektur und dem Grading unterscheiden sollte.
Wie?
Weil der Hersteller der Kamera den Sensor und die Eigenheiten der Daten kennt und deshalb andere Algorithmen zur Verfügung stellt, die das NLE oder Gradingprogramm mit seinen eigenen Reglern so nicht exakt hinbekommt.

Space


Antwort von Axel:

... und außerdem, selbst wenn die Farbeffekte des Programms im Endeffekt dasselbe erreichen könnten, wäre es wichtig, das im selben Sinne zu trennen wie primäre Farbkorrektur und Look-Grading.

Space


Antwort von dienstag_01:

7nic hat geschrieben:
dienstag_01 hat geschrieben:

Wie?
Weil der Hersteller der Kamera den Sensor und die Eigenheiten der Daten kennt und deshalb andere Algorithmen zur Verfügung stellt, die das NLE oder Gradingprogramm mit seinen eigenen Reglern so nicht exakt hinbekommt.
Damit wäre ich sehr vorsichtig, alles was man über RAW-Bearbeitung hört und liest, läuft darauf hinaus, dass Kamerahersteller nur einen Teil ihrer internen Prozesse veröffentlichen/weitergeben. Der Rest ist reverse engineering.

Space


Antwort von Frank Glencairn:

Wobei ich nicht sicher bin, ob das tatsächlich stimmt.
Wenn ich ein (RAW) Kamera Hersteller bin, hab ich doch ein massives Interesse daran, daß mein RAW Material, von möglichst vielen Programmen, so gut und optimal wie möglich unterstützt wird. Wenn ich jetzt meine Color-Science verheimliche, dann kann ja keiner mit dem Material aus meiner Kamera vernünftig arbeiten - das kann's doch nicht sein.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
Wobei ich nicht sicher bin, ob das tatsächlich stimmt.
Wenn ich ein (RAW) Kamera Hersteller bin, hab ich doch ein massives Interesse daran, daß mein RAW Material, von möglichst vielen Programmen, so gut und optimal wie möglich unterstützt wird. Wenn ich jetzt meine Color-Science verheimliche, dann kann ja keiner mit dem Material aus meiner Kamera vernünftig arbeiten - das kann's doch nicht sein.
Scheinbar gilt: im Zweifel tot stellen ;)
Wurde aber hier auch schon diskutiert, Sony war es, die, glaube ich, eine Meldung in Richtung der Nicht-Weitergabe von Daten rausgegeben hatten.
Im Foto-Bereich kann man schon deutliche Unterschiede im Color Processing von RAW Aufnahmen verschiedener Programme sehen.

Space


Antwort von nic:

Genau deshalb bietet zB Red ein SDK an, das in Hostprogramme integriert werden kann. So muss nichts über das ‘decoding’ offengelegt werden und trotzdem bleibt die Qualität der Ausgabe über NLE-Grenzen hinweg konstant...

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.
Ich hätte jetzt von nem gestandenen Mann erwartet dass man soviel Hintern in der Hose hat irgendwann auch mal die Kurve zu kriegen ;-)!

Ob Änderungen auf RAW Daten angewendet werden oder während dem Demosaicing/Debayering Adaptionen vorgenommen werden (was beides NICHT der Fall ist) spielt keine Rolle für die Diskussion. Ausgangspunkt war dass Du behauptet hast dass Änderungen im RAW Dialog notwendig sind um die volle Qualität zu erzielen und das ist für den gegenständlichen Fall in Resolve u.v.a. falsch.
Der RAW Dialog wendet Anpassungen auf das debayerte Bild an, nicht davor und auch nicht während des Debayerings. Weitere Nodes tun es genau so. Dazwischen steckt eine "verlustfreie" 32bit FP Pipeline.
Weiterhin verändern wir im Post immer noch keine Metadaten da diese die Einstellungen und Gegebenheiten der Aufnahme widerspiegeln und in aller Regel nicht geändert werden.
Was wir machen ist eine Anpassung von Parametern die u.U. Anhand von Metadaten voreingestellt werden.

Weiterhin sind ISO, WB, Belichtung, Tint usw. auch nicht in allen Fällen nur als Metadaten"information" gespeichert sondern nach Preequalizing (Wowus Aussage, vgl. Nikon D2x, EOS 1d... unterschiedliche Verstärkung der RGB Werte auf dem Sensor) ggf. ins RAW Material eingeflossen. Die Belichtung ist ebenfalls bereits im RAW enthalten, verlustfrei passen wir da nämlich keine 2 Blenden rauf oder runter an. Auch die ISO-Verstärkung/Empfindlichkeit ist durch die Analogverstärkung eingebrannt in einem ISO-varianten System.
Die Metadaten geben einfach nur die Information über den Wert bei der Aufnahme wieder, sie dienen nicht als Stellgröße für gewollte Veränderungen.

Das Du im RAW Dialog zu anderen Ergebnissen als mit dem Color Wheel kommst ist keine Kunst, glaub" mir, das schaffe ich sogar mit verschiedenen Einstellungen im RAW Dialog selbst wenn ich welche vornehmen kann.


Zurück in der Spur braucht der FCPX RAW Decoder auch immer noch nicht zwingend Einstellmöglichkeiten um die volle Qualität weiterzugeben.
Die Anpassung kann "verlustfrei" mit anderen Werkzeugen oder nachgeschalteten LUTs im Programm erfolgen.
Die Redundanz "Einstellmöglichkeit" im RAW Dialog hat sich Apple anscheinend gespart.

Glaube wir sind jetzt "damit" endlich fertig.

Space


Antwort von Frank Glencairn:

Es wird nicht richtiger, wenn du es öfter wiederholst.

Space


Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Es wird nicht richtiger, wenn du es öfter wiederholst.
Dazu fällt mir nur noch dienstag_01 hat geschrieben:
Eigentlich kotzen mich solche Sachen an...
ein.

Ganz schwaches, buckeliges Licht! Schade.

Space


Antwort von Jott:

So viel Energie für nix. Ist doch egal, wie Apple das macht, wenn die Resultate stimmen. Hat man Gegenteiliges gehört?

Sind Sonne und Frühling nicht sowieso wichtiger? Da kann man schön filmen. Sogar ohne raw, wenn Not am Mann ist! :-)

Space


Antwort von motiongroup:



wenns noch interessiert

Space


Antwort von Frank Glencairn:

26:01

"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D

Space


Antwort von Axel:

"Frank Glencairn" hat geschrieben:
26:01

"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D
... und weiter, hier nur sinngemäß zitiert, für Leute, die ein schnelles Ergebnis haben wollen. 4 mal Raw PiP auf einem Laptop, das zeigt halt, dass man sich über FCPs Performance keine Sorgen machen muss, es geht nicht darum, dass man diese Sache im Alltag braucht.

Leider dilettiert Apple gerade auf Gebieten (Farbe), auf denen andere sehr deutlich besser sind. Oder, um es anders zu sagen, wo FCP eklatant schlechter ist. So überzeugt man mittelfristig keine Pros, und man hält längerfristig auch keine "Massen" bei der Stange.

Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.

Space


Antwort von DV_Chris:

Axel hat geschrieben:
Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.
Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das Format zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.

Obwohl ich Jeromy kenne und mag ist sein Lobbying Aufruf bei der NAB Pressekonferenz eigentlich ein Schrei nach Hilfe. Kamerahersteller haben wohl im Vorfeld (das Format wurde ja bereits zwei Jahre lang entwickelt) wohl dankend abgewunken.

Space


Antwort von Roland Schulz:

Hab vor ein zwei Jahren mal FCP X auf meinem Macbook Pro 2014 zum Testen gehabt. Also als EDIUS User kam ich mir da vor wie mit zwei linken Händen mit jeweils nur zwei Fingern dran.
Aber das würde sich sicher einschmieren sowas. Die Farbkorrektur mit den drei Schiebern war aber unterste Kanone, da scheint sich heute aber auch was getan zu haben.
Resolve liegt da heute klar vorne aber wenn man mal überlegt wo die vor ~zwei Jahren mit dem verbuggten und lahmen Scheiss noch standen kann man sich vorstellen dass wenn Apple ernst machen will da einiges geht. Performancetechnisch scheinen die auf jeden Fall schon ganz gut darzustehen.

Ich weiß auch nicht ob man heute bemängeln sollte dass es nur drei Kameras gibt die PRR supporten. Man steht jetzt erst am Anfang. Wie das alles angenommen wird und wie viel Wind da morgen drin ist wird erst die Zukunft zeigen. Wenn die Qualität stimmt kann das ne Chance sein.

Space


Antwort von Axel:

DV_Chris hat geschrieben:
Axel hat geschrieben:
Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.
Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das Format zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.
Ich denke da egoistisch an die Pocket 4k. Wenn die es hätte UND Resolve, könnte ich
> an Speicherkartenplatz sparen
> In FCP schneiden (ohne vorher, wie bei CDNG nötig, in Resolve Proxies erzeugen zu müssen)
> in Resolve Farben optimieren. Der XML-Roundtrip zwischen beiden ist für mich bereits Gewohnheit

Space


Antwort von Frank Glencairn:

Axel hat geschrieben:

Ich denke da egoistisch an die Pocket 4k.
Irgendwie seh ich das mit raw über HDMI noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDI out, und da wird die Luft schon ziemlich dünn.

Space


Antwort von Axel:

"Roland Schulz" hat geschrieben:
Hab vor ein zwei Jahren mal FCP X auf meinem Macbook Pro 2014 zum Testen gehabt. Also als EDIUS User kam ich mir da vor wie mit zwei linken Händen mit jeweils nur zwei Fingern dran.
Aber das würde sich sicher einschmieren sowas.
Was den Schnitt betrifft wahrscheinlich schon. Es ist ein anderes Konzept, aber ein konsequentes. Es gibt Leute, die nach ausgiebigem Sich-Befassen mit der magnetischen Timeline zu dem Schluss kommen, Spuren liegen mir persönlich mehr.
"Roland Schulz" hat geschrieben:
Die Farbkorrektur mit den drei Schiebern war aber unterste Kanone, da scheint sich heute aber auch was getan zu haben.
Die Farbtafel erlaubte schnelle und intuitive Farbkorrektur. Wenn man ein Larry-Jordan-Tut guckt, passiert alles in Zeitlupe. Wenn du das aber ein paarmal gemacht hattest, hast du gar nicht mehr auf die Pucks geguckt, sondern auf das Bild. Muscle Memory. Besser waren andere, mag sein. Es war die Farbtafel aus iMovie in Floating Point. Die war gut genug, sehr oft, und unschlagbar schnell. Kein Klick war nötig, um sie erst aufzurufen, denn sie war auch eine immer präsente Clip-Eigenschaft.

Farbräder sind nicht per se "besser". Aber es gab sie schon eine Zeitlang als Plugin von verschiedenen Dritt-Anbietern. Am bekanntesten wurde Color Finale, weil es sich GUI-mäßig am besten einfügte. Die Integration im Winter-Update würde ich persönlich als komplett misslungen bezeichnen. Was eben vor allem fehlt, ist das konsequente Konzept. Dieses ganze Farb-Zeug ist aufgesetzt, du gerätst vom Hochleistungssport beim Schnitt in die Inklusion-Krabbelgruppe.

Das würde sich nicht einschmieren.
"Frank Glencairn" hat geschrieben:
Axel hat geschrieben:

Ich denke da egoistisch an die Pocket 4k.
Irgendwie seh ich das mit raw über HDMI noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDI out, und da wird die Luft schon ziemlich dünn.
Als internen Codec meine ich natürlich, nicht als HDMI-out.

Space


Antwort von nic:

"Frank Glencairn" hat geschrieben:
Axel hat geschrieben:

Ich denke da egoistisch an die Pocket 4k.
Irgendwie seh ich das mit raw über HDMI noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDI out, und da wird die Luft schon ziemlich dünn.
6G SDI reicht.

Space


Antwort von DV_Chris:

7nic hat geschrieben:
"Frank Glencairn" hat geschrieben:


Irgendwie seh ich das mit raw über HDMI noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDI out, und da wird die Luft schon ziemlich dünn.
6G SDI reicht.
6G nur bis 2160p30.

Für 2160p60 braucht es 12G.

Space


Antwort von WoWu:

Kommt drauf an, wie PRR gemacht wird.
In dem Video gibt es nämlich noch ein zweites interessantes Zitat:


9:27-9:32.... the inventor of JPEG is the inventor of ProRes.... is the inventor of ProResRaw...

Benutzt Apple also weiter JPEG, wird das mit ziemlicher Wahrscheinlichkeit JPEG-XS sein.
Damit wären wir dann weg von der DCT Verarbeitung und im wavelet workflow mit sehr einfachen Codierwerkzeugen.
Damit lassen sich aber eben hohe Datenmengen sehr schnell auf minimale Datenraten bringen und 4kP120 mit Links bewältigen.
4k 60p 444 12 Bit laufen dann über 100G Ethernet. Nicht umsonst werden immer mehr Kameras auf IP umgestellt und haben die Fähigkeit, direkt auf externe Platten zu interfacen.
Geht nur eben irgendwann auf die Bildqualität.
Es wird schon sehr spannend sein, was hinterher dabei raus kommt.

Space


Antwort von R S K:

Axel hat geschrieben:
Leider dilettiert Apple gerade auf Gebieten (Farbe), auf denen andere sehr deutlich besser sind. Oder, um es anders zu sagen, wo FCP eklatant schlechter ist. So überzeugt man mittelfristig keine Pros, und man hält längerfristig auch keine "Massen" bei der Stange.

Weil 98% der "Profi" Editoren auch Farbkorrekturen auf Resolve, Baselight & Co. Level brauchen?

Dann sind wohl nur in meiner Welt die Editoren auch Editoren und die Koloristen sind Koloristen? Die die jeweils immer das Programm nutzen was ihre Aufgabe am besten schafft. Und in keinem Fall habe ich bis dato gesehen, das es jeweils ein und dieselbe Software war, bzw. von ein und derselben Person gemacht wurde, wenn wir von wirklichen "Pros" auf ihrem Gebiet reden bzw. einer "Pro"-Produktion.

"Die Massen" brauchen faktisch wenig mehr als ein Weißabgleich und evtl. die ein oder andere Kurve. Wenn sie richtig mutig sind und mal völlig durchdrehen wollen, dann nehmen sie sogar mal eine Farb- oder Formmaske dazu. Uuuuuh. 😄 Und das alles bietet FCP (und so gesehn jeder andere "Pro" NLE) weit über dem hinaus was "die Massen" brauchen. Die sub-2% die noch getrackte Power Windows und 15 Nodes brauchen können immer noch alles z.B. an Resolve abgeben (aus FCP sogar mit 100% der bisherigen Korrekturen erhalten) und von jemandem machen lassen der/die auch weiß was ein "Scope" ist und damit umzugehen weiß… etwas was "Profis" auch immer machen werden. Nicht "die Massen"… aber trotzdem sehr zufrieden sein. Und?

Demnach die Farbkorrektur-Fähigkeiten als ultimativen Maßstab nehmen zu wollen für wie "Pro" irgendein Schnittprogramm ist, finde ich reichlich solipsistisch und prätentiös. Denn dann dürfte erst recht kein "Pro" je wieder ein Avid anfassen oder je angefasst haben, wo die allen ernstes erst jetzt "Shape-based color correction tools" (nur angekündigt) haben, als neues-super-Feature.

Aber was sind schon 10 Jahre später als alle anderen? (und eine echtzeit Scope-Darstellung haben die m.W. noch immer nicht)

"Frank Glencairn" hat geschrieben:
"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D
Immer praktisch wenn man nicht fertig (oder grammatikalisch korrekt 😄) zitiert um eine Aussage zu verzerren, dass es auch hervorragend die Narrative bedient die man will, oder? Dinge wie "Final Cut is back!" ignorieren wir nebenher dafür einfach. Natürlich.

Mal zuende zitiert…
"… who are doing real work every day and don't want to get into that much detail… want to finish their job and have a good look to it… then Final Cut's for you." Plötzlich viel weniger ":-D" , oder? Aber, wie sagte einer noch… "netter Versuch". 👍🏼 Ist eben auch nichts anderes als ich oben geschrieben habe. Und gilt (zumindest vom Grundsatz her) genauso für PPro, Avid und und und…

DV_Chris hat geschrieben:
Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das Format zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.
Genau. Nach dieser so brillanten Logik, schaffen wir entsprechend auch gleich RED und Arri raw Unterstützung ab! Top!

WoWu hat geschrieben:
Kommt drauf an, wie PRR gemacht wird.

9:27-9:32.... the inventor of JPEG is the inventor of ProRes.... is the inventor of ProResRaw...

Benutzt Apple also weiter JPEG, wird das mit ziemlicher Wahrscheinlichkeit JPEG-XS sein.
Aua. 🤦🏼???

Und da Honda mit Motorräder angefangen hat, ist demnach natürlich jeder Honda Automotor… in Wirklichkeit… ein Motorrad Motor!! Egal was die Fakten sagen.

Space


Antwort von WoWu:

Jau, stimmt ... ein Honda Motor bleibt auch in einer Mercedes Karrosse ein Honda Motor.

Mietmäuler müssen übrigens zukünftig ihre Beiträge als „Werbung“ kennzeichnen.
Mach Dir schon mal ein Banner.

Space


Antwort von Jott:

Kommt nach Wavelet, Vektor und JPEG XS noch was? Spannung.

Space


Antwort von R S K:

Nee. Nur der Klassiker: gehen einem die echten Argumente aus, dann kommen nur noch die peinlich, infantilen Angriffe, mangels sonst irgendeiner echten Substanz. Äusserst unspannend. Höchstens leicht vorhersehbar.

- RK

Space


Antwort von Axel:

"R S K" hat geschrieben:
Demnach die Farbkorrektur-Fähigkeiten als ultimativen Maßstab nehmen zu wollen für wie „Pro” irgendein Schnittprogramm ist, finde ich reichlich solipsistisch und prätentiös.
Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich. Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel. Völlig verkannt. Spackig war das kollektive Aufatmen, ääändlich wieder Farbräder!
Ich weiß nicht, ob du's gesehen hast, anscheinend sollte es Rauschentfernung in 10.4.1 schaffen. Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen. Ich habe Sorge, dass FCP Bloatware wird wie APP, hundert halbherzig reingequetschte Features. Die Closed Captions (als Rollen, das kann ein Dritthersteller eben nicht so integrieren) sind Kerndesign.

Space


Antwort von motiongroup:

Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich. Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel. Völlig verkannt. Spackig war das kollektive Aufatmen, ääändlich wieder Farbräder!
Ich weiß nicht, ob du's gesehen hast, anscheinend sollte es Rauschentfernung in 10.4.1 schaffen. Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen. Ich habe Sorge, dass FCP Bloatware wird wie APP, hundert halbherzig reingequetschte Features. Die Closed Captions (als Rollen, das kann ein Dritthersteller eben nicht so integrieren) sind Kerndesign.
Der war gut zumal sich von Anfang an die Spezialisten darüber beschwert hatten das Apple mit fcpx ein homogenes System entwickelt hat welches keine Erweiterungen zulässt.. das sich die Vollhorste geirrt hatten wissen heute eh alle, nur die Vollhorste verdrängen gerne und auch die Anbetungswürdigen hier im Forum waren da keinen Deut besser.. es war und ist zum fremdschämen. Wie sie es machen machen sie es falsch ich kann’s langsam nicht mehr hören muss aber gestehen das es sich auf den Entwicklerplattformen teilweise ähnlich abspielt.. egals ob zwischen MS, Google oder apple, selbst unter OS X zwischen den Obj.-C und Swiftentwicklern gibts diese wertfreien Diskussionen.. und ich muss gestehen der Hinweis das Handbuch zu lesen kommt ungefähr eine Million mal öfter vor als hier :)))

Wird die Frage kommen .. warum hat Apple noch nicht Motion, Compressor und Logic integriert..;).. vermutlich weil sonst die Updates immer über 15GB groß wären.. neeee oder doch... ich hätte sowieso Pages, Numbers und Fotos auch gleich integriert und und ne Videooffice Lösung inkl Mandanten, Faktura, Mahnwesen eingepfropft...

Und da sind wir wieder bei ProRes RAW... es ist was es ist und wir können's nicht ändern und doch haben sie es wieder geschafft die Leute gegeneinander aufzuwiegeln und das verlustfrei... :)))

Space


Antwort von Alf_300:

Jott

NAB 2019 kommt mit tollen neuen Features, das ist so sicher wue das Amen in der Kirche.

Space


Antwort von R S K:

Axel hat geschrieben:
Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich.
😂 Was ist das schon wieder für eine völlig brillante Logik?

Wozu Pages, wo es doch Word gibt, oder?? Wozu Motion oder Fusion, wo Nuke es doch "besser kann", nein? Was sind denn Adobe für Idioten, wo sie Lumetric integrieren, obwohl es doch Resolve gibt?!

🤦🏼???

Aber du darfst jetzt gerne erzählen was die o.g. in der Farbkorrektur "besser können" als was FCP nun von Haus aus kann… ?

Lass mich raten… z.B. "Chromatic hat einen Tracker!", richtig? Schön. Nur können die sub-1% die das jemals brauchen werden a) auch so schon Masken bei Bedarf animieren und b) wenn das ihnen nicht reicht, jeder Zeit für LAU zu Resolve rüber oder auch SliceX kaufen, was ich für eine exponentiell sinnvollere Anschaffung halte, wo es tatsächlich eine funktionelle Erweiterung ist und nicht irgendwelche gleichen Funktionen, nur mit anderer GUI und sonst nichts an Mehrwert zu bieten hat. Aber wenn einem Funktionen auf Knopfdruck zu haben (die man allesamt auch so schon hat, nur halt mit ein paar Klicks mehr) wichtiger sind als 100+€… wer genau hält dich ab?

Also, was hinsichtlich der tatsächlichen Korrektur, was auch jeder braucht, können die "anderen besser"? Ach ja… nichts. Ganz im Gegenteil. CFP kann am Ende sogar weniger als die FCP eigenen Tools. Oh… ja… peinlich.

Und die Fähigkeit sein Projekt auf einem beliebigen anderen Rechner (oder gar Jahre oder Monate später nach evtl. Updates und/oder Neuistallationen) aufmachen zu können ohne ein Wald an Warnschild-Ausrufezeichen zu sehen… das interessiert natürlich auch niemanden. Was für ein Blödsinn, oder? Noch will irgendjemand das was er bis zur Übergabe zu Resolve bereits angelegte Korrekturen erhalten. Doppelt und dreifache Arbeit ist schließlich "Pro"! 😏


Axel hat geschrieben:
Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel.
Da stimme ich dir sogar zu. Schau an. 😄 Ich für mein Teil habe die Farbtafel schnell verstanden und benutze es noch immer als aller erstes bei >70% meiner Korrekturen. Schnell, einfach, intuitiv. Und auch da: die Räder können nicht mehr oder weniger, sie machen es nur anders. Das einzige was mich (gelegentlich) gestört hat, war die mangelnde Präzision (besonders bei Farbmasken), aber das ist ja jetzt alles Geschichte.


Axel hat geschrieben:
Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen.
Aber klar… es wird mit Sicherheit jeder super sauer, oder? So ein Denoiser FÜR LAU ist doch echt scheisse, ich weiß. Vor allem, wie wir ja alle wissen, sobald sie es einbauen, ist das kaufen und installieren von vermeintlich "besseren" Denoiser sofort gesperrt und bisherige werden gelöscht!! Schweinerei. Ach ja… und natürlich voll peinlich.

Was nur nochmals beweist, dass Apple zum Glück weiß, dass meine Bedürfnisse und Ansprüche die aller aller aller ALLER wichtigsten überhaupt sind. Was interessieren mich andere? Pff…


- RK

Space


Antwort von Jott:

Nicht so aufregen. Es wird nie Konsens geben, was besser oder schlechter ist.

Axel nutzt und kennt fcp, der darf kritisieren. Es gibt immer etwas zu verbessern, egal in welcher Software. Einen Tracker direkt in fcp x fände ich schon hübsch, das würde die Sache gut abrunden.

Die anderen natürlich, die fcp erkennbar NICHT nutzen und kennen, aber jahrein, jahraus als schräges Hobby oder beruflich bedingt dagegen kämpfen und haltloses Zeug verbreiten, sind was anderes. Ich habe da auch immer wieder mal den Drang, als Korrektiv nach Wikipedia-Prinzip gegenzuhalten. Aber aufregen in Form von fetten und kursiven Lettern - nö. Der mündige und regelmäßige Mitleser sollte hoffentlich auch so sortieren können.

Space


Antwort von R S K:

Jott hat geschrieben:
Einen Tracker direkt in fcp x fände ich schon hübsch, das würde die Sache gut abrunden.
Aber NUR wenn es BESSER ist als MOCHA!!!

Jetzt verstanden? Willst du es jetzt also immer noch? Bist du wirklich so anspruchslos? 😏

Meinst du, dass ich es nicht genauso begrüße wenn FCP jegliche neue Funktionalität bekommt? Das dann aber widerstandslos als „peinlich” titulieren zu „dürfen” nur weil man User ist und es seinen überlegenen Ansprüchen nicht entspricht, als ob man nicht noch immer jeden Plugin seiner Wahl nehmen kann, wenn es denn alles so schrecklich ist? 😄 Ernsthaft?

Nochmals: „Was andere besser können sollte man nicht als neues Feature aufnehmen, das ist peinlich.” Dem stimmst du demnach also zu? Das ist für dich völlig legitime und sachliche Kritik, weil User? Okay. Na denn. Ich eben nicht.
Jott hat geschrieben:
Der mündige und regelmäßige Mitleser sollte hoffentlich auch so sortieren können.
Du weißt aber schon, dass du mit der Aussage knapp 18 Seiten zu spät dran bist und sie damit allesamt ins ad absurdum führst, oder?
:-)))

- RK

Space


Antwort von Jott:

Das Beispiel Tracker hätte halt gut zu der jetzt - aus meiner bescheidenen Sicht - sehr guten Farbkorrektur gepasst. Seit 10.4. nutzt bei uns kein Cutter mehr Resolve oder Color Finale.

Natürlich haben wir Slice X und all die anderen ergänzenden "teuren" Spielsachen, was auch nicht juckt, weil fcp x selbst ja quasi nichts kostet. Aber - am Elegantesten ist immer das, was wirklich intern an Bord ist. Insbesondere bei Kollaborations-Projekten. Also: ein schicker Tracker steht auf der Wunschliste für 10.5. - auch ohne deinen Segen! :-)

Was das Problem mit ProRes Raw sein soll, das alle die haben, die nichts damit zu tun haben und auch niemals haben werden, erschließt sich wie immer nicht. Aber das läuft unter Unterhaltung.

Space


Antwort von R S K:

Jott hat geschrieben:
Also: ein schicker Tracker steht auf der Wunschliste für 10.5. - auch ohne deinen Segen! :-)
Meinen Segen?? :-D

Ergo: du hast da offensichtlich was gänzlich missverstanden. Oh well.

- RK

Space


Antwort von Axel:

Um noch mal die Kurve zu kriegen von So Scheiße ist FCP😡 zu Neues Apple ProRes Raw Format:
Gesetzt den Fall PRR bleibt exklusiv FCP vorbehalten, dann wird Raw, traditionell mit dem Vorurteil behaftet, anspruchsvolles Grading vorauszusetzen, so einfach wie Farbverbesserungen in der Fotos-App (wozu eigentlich Photoshop?). Ich hätte nichts dagegen, denn ich bin selbst nicht besonders geschickt mit Farben. Ich bin außerdem mit meiner Abneigung der 10.4- Farbtools der totale Geisterfahrer, was womöglich auf einen Wahrnehmungsfehler hindeutet. Meinungen sollten respektiert werden, finde ich, allerdings haben sie einen Wert nur für ihren Inhaber. Und es kann sehr gut sein, dass ich in einem halben Jahr den Kopf schüttele über Leute, die meinen (Meinungen, nicht Fakten!), es hätte irgendwelche tatsächlichen Vorteile, Raw-Video mit irgendetwas anderem zum Glänzen zu bringen als der Farbtafel oder meinetwegen den Rädern. Das würde ich dann hier schreiben, und die üblichen Verdächtigen würden raderkastendoll (woran ich mich ehrlich gesagt ergötze).

Space


Antwort von Funless:

Axel hat geschrieben:
... würden raderkastendoll ...
Ich musste erstmal googeln was das heißt. Nun bin ich schlauer. Wieder was dazugelernt.

Space


Antwort von Axel:

Ein Wort entsteht nicht bei einer so blödsinnigen Etymologie (Rheindampfer-Radkasten? Da gibt's doch keinerlei Bezug).

Ich habe Verwandte am Niederrhein, nahe der holländischen Grenze. Dort gibt es schon lange eine große Psychiatrie, deren Namen weit über die Region hinaus gleichbedeutend mit "Irrenhaus" ist. Shutter Island. Dieser Zweig meiner Sippe war seit mehreren Generationen dort beschäftigt. Ich hörte sie über jemanden sagen, er/sie sei raderkastendoll geworden. Ich fragte meine Patentante, was gemeint sei (ich war zehn oder so). Sie sagte, ein Raderkasten sei ein Vorläufer der Gummizelle gewesen. Wenn jemand ausgeflippt sei, habe man ihn dort eingesperrt, bis er sich beruhigt habe. Ein Raser-Kasten.

Space


Antwort von Funless:

Auch wenn deine Erklärung zur Herkunft des Worts (hierfür vielen Dank) für mich erheblich plausibler klingt, finde ich die Rheindampfer-Radkasten Schlussfolgerung dennoch witziger, weil sie mehr zu dem Klischee passt, welches ich mir bzgl. der Rheinländer angeeignet habe. Für mich sind sie die Hobbits von Deutschland (ist nicht abwertend gemeint).

Jetzt aber zurück zu ProRes RAW.

Space


Antwort von R S K:

Axel hat geschrieben:
ich bin selbst nicht besonders geschickt mit Farben.
Hat sich wieder gelohnt.

Space


Antwort von nic:

"R S K" hat geschrieben:
Axel hat geschrieben:
ich bin selbst nicht besonders geschickt mit Farben.
Das geht hervorragend mit der „zu respektierenden Meinung” zusammen, welche also doch nicht nur auf reinen Mutmaßungen und völlig willkürlichen Annahmen, sondern wirklich kompetentes, sachlich fundiertes Fachwissen basiert! Demnach bist du natürlich der völlig legitime Oberrichter in allen Sachen „peinlich” was Farbe (und ProRes raw sowieso) angeht! Und das ohne rot zu werden. Muss daran liegen, dass du User bist. Hab's jetzt endlich verstanden. 👍🏼

Hat sich wieder gelohnt.
Selbst wenn du regelmäßig Hollywodfilme graden würdest, stünde dir diese Arroganz nicht gut zu Gesicht...

Space


Antwort von R S K:

Bewundernde Zustimmung ist hier also auch nicht erwünscht? Na dann…

Space


Antwort von nic:

"R S K" hat geschrieben:
So krass wollte ich es ihm jetzt nicht sagen… aber, ja.
...

Space


Antwort von R S K:

Zustimmung ist also nicht erwünscht. Alles klar.

Space


Antwort von R S K:

7nic hat geschrieben:
...


Space


Antwort von Axel:

Da ich ja schon zugegeben habe, dass ich gerne provoziere, solltest du diese Dinge nicht zu persönlich nehmen, Robin.

Space


Antwort von motiongroup:

Brad Olsen ProRes RAW is a true RAW format. I spoke with Jeremy from Atomos at the SuperMeet. He said that all the ISO and WB metadata from the camera is saved in ProRes RAW. He went on to say that while at the moment Apple's 1.0 implementation of ProRes RAW doesn't let you change those controls the way we're used to like with REDCODE RAW the debayering happens at playback, rendering, and exporting. SO if you use the manual white balance tool or the exposure tools on with the color wheels or color board you are essentially doing the same thing as making those adjustments in camera before debayering. I believe that we will probably see specific controls in Final Cut in the future. Wir lassen uns einfach mal überraschen ;)

Space


Antwort von Axel:

motiongroup hat geschrieben:
Brad Olsen ProRes RAW is a true RAW format. I spoke with Jeremy from Atomos at the SuperMeet. He said that all the ISO and WB metadata from the camera is saved in ProRes RAW. He went on to say that while at the moment Apple's 1.0 implementation of ProRes RAW doesn't let you change those controls the way we're used to like with REDCODE RAW the debayering happens at playback, rendering, and exporting. SO if you use the manual white balance tool or the exposure tools on with the color wheels or color board you are essentially doing the same thing as making those adjustments in camera before debayering. I believe that we will probably see specific controls in Final Cut in the future. Wir lassen uns einfach mal überraschen ;)
Okay. Ich möchte von vornherein klarstellen, dass das jetzt kein Haten sein soll, sondern Gedanken und Wünsche eines Fans. Kein Grund, auf irgendwas steil zu gehen:

Innerhalb der bisherigen Diskussion ist ja nicht schlüssig bewiesen, dass die Kamera-Metadaten dem Benutzer überhaupt angezeigt werden *müssen*, um mit vorhandenen Farb-Tools ein Raw-Video zu optimieren. Wir haben ja bereits gesehen, dass der blöde PRR-Testclip mit 4300K aufgenommen wurde (Mediainfo), dass aber das naheliegende / naheliegendste Tool in FCP - "Temperatur" unterhalb der Farbräder - immer nur stur "5000" anzeigt.

Außerdem habe ich (siehe dort) ein DNG-Bild aus einem CDNG-Ordner parallel in FCP und in Resolve geöffnet, und in beiden Programmen wurden die Metadaten korrekt gelesen. Nur Resolve zeigte sie auch an, und nur Resolve hat einen "Farbtemperatur"-Slider, der mit den Kamera-Kelvin startet (Camera Raw).

Man sollte nun erwarten (ich habe es zumindest erwartet), dass besagter Resolve-Slider "besser" ist als das "primitivste" Tool aus FCP, der "Global"-Puck der Farbtafel. Das ist aber offensichtlich nicht so. Da ist kein Unterschied zu sehen.

Farbe in FCP sind die Werkzeuge eines Cutters, der obendrauf noch Farbkorrektur macht, es sind keine High-End-Coloristen-Werkzeuge. Soviel habe ich demütig verstanden. Dann wäre es nur konsequent, auf alles zu verzichten, was nicht eindeutig einen Vorteil bringt.

Space


Antwort von motiongroup:

wieso denn Axel..wenn Du dich über die Jahre mit einem Programm angefreundet hast sollte das doch ein leichtes sein einen passenden Workflow zu generieren.. selbst das Preset für 4300k ist doch ein leichtes zu generieren.. das ist doch schon auch über Jahre der Weg wenn du bspw lediges Prores verwendest.. selbst die nachträgliche Isoschrauberei bei der Manche hier glauben Wurst welcher Fehler dabei auch geschehen ist im Nachhinein durch schrauben an der ISO im Programm wieder hinbiegen zu können ist doch eher als undurchführbar abzulegen.. ist das Material Schrott will ich Nachhinein Zeit und Ressourcen vergeigen es wieder hinzubiegen?.. wir hier eigentlich und Du auch haben doch besseres zu tun.. Ich weis nicht , ich bin der ewigen Radneuerfinderei eher unglücklich... ebenso wie mit den ewigen Genörgel derer die eh niemals damit arbeiten werden..

übrigens.. die neuesten NV Webdriver haben wieder mit fcpx Freundschaft geschlossen.. Artefakte sind Schnee von Gestern..;:)

nochmals zurück fcpx, nein dort ist nicht alles in Ordnung... die Interlacesverabeitung ist bei manchen Cam der alten Garde ziemlich buggy... die GH3 bstw wird immer noch falsch interpretiert trotz P Aufzeichnung.. Wurst sich darüber aufzuregen Workflow anwenden done..
Die Shortcuts machen mir aktuell und auch anderen etwas das Leben schwer ... wir werden es richten und gut wird's sein..
in der Summe sind es Baustellen die alle Anbieter vorweisen können und auch die Arbeiten daran..

Space


Antwort von Jott:

Am Rande:

"ProRes RAW is in its early stages and we are currently looking into it!"

Jan Heugel
Application Engineer, Arri

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Apple ProRes HQ Codec vs AVC Format
Fraunhofer Institut zeigt 50% besseren HEVC Nachfolger VVC auf der // IBC 2018
EOS R (2018) als Einstieg zum filmen?
Premiere 2018 12.1.2 - geht das mit der CC App?
Premiere Pro CC 2018
Panasonic GH6 Firmware 2.0: 120 fps ProRes RAW mit Ninja V+, mehr internes ProRes und mehr...
Apple: Neues 7K Studio Display mit integriertem Apple Silicon in Entwicklung?
Brief History on Apple ProRes RAW
Briefing Raw Cam 4k60p mit AF S5+ Ninja oder R5 oder? Format für Resolve
Canon EOS R3 Sensor Test - 6K Large Format RAW für 6K!
Sonys komprimiertes 16 Bit RAW Format erklärt: X-OCN Whitepaper Version 1.1
Plant Nikon eine REDCODE RAW-Offensive zur NAB 2024?
Panasonic G9II erhält Blackmagic RAW und ProRes RAW Aufnahme via HDMI
Neues Cine-Zoom Fujinon Premista19-45mmT2.9 angekündigt
Neues von Fujifilm -- Support für BRAW angekündigt sowie ua. FUJIFILM X-T30 II
Neues Leica DG Vario-Elmarit 12-35mm Weitwinkel-Zoomobjektiv für Lumix G angekündigt
Neues Cine-Objektiv Irix 65mm T1.5 angekündigt
Neues Nikkor Z 28-135mm f/4 PZ angekündigt




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash