Logo Logo
/// 

Neues Apple ProRes RAW Format angekündigt // NAB 2018



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Mit der Ankündigung von Final Cut Pro 10.4.1 für nächsten Montag hat Apple auch ProResProRes im Glossar erklärt RAW angekündigt.

ProRes RAW soll die Qualitäts- und Workflow-Vorteile von RAW m...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neues Apple ProResProRes im Glossar erklärt RAW FormatFormat im Glossar erklärt angekündigt // NAB 2018




Antwort von ZacFilm:

Das heißt 12 Bit?



Antwort von WoWu:

Das heißt, dass sich erst mal Kamerahersteller finden müssen, die das unterstützen und das wird sicher etwas mit den Lizenzbedingungen, Preisen und Kompatibilitäten auch zu ändern Schnittprogrammen zu tun haben.
Dann wird sich vermutlich auch die Frage stellen, wo die vermeintlichen Vorteile zu eigenen Kamers-RAW Formaten liegen.
Nicht umsonst hat sich DNG nicht durchgesetzt.





Antwort von -paleface-:

Vermutlich wird es da auf der NAB was geben. Sowas klärt man ja meist vorher.

Würde lachen wenn es BMD wäre :-D



Antwort von Jott:

Atomos und DJI sind schon mal im Boot. BM - traditionell Apple-affin - könnte auch ein Kandidat sein. Who knows. Ein paar Tage noch warten ...



Antwort von freezer:

Das kommt jetzt doch ziemlich überraschend.
Apple hätte zumindest die Möglichkeit und den Willen so etwas als Standard am Markt unterzubringen.



Antwort von mash_gh4:


Das heißt, dass sich erst mal Kamerahersteller finden müssen, die das unterstützen und das wird sicher etwas mit den Lizenzbedingungen, Preisen und Kompatibilitäten auch zu ändern Schnittprogrammen zu tun haben.

naja, wenn man sich anschut welche gravierenden probleme es gibt, wenn prores od. dbxhr als intermediate fomat in ACES od. anderen auf linearen farbräumen basierenden systemen mit sich bringen, macht es ganz gewiss sinn, dass in diese richtung verbesserungsvorschläge gemacht werden. dass das im falle von apple nicht sonderlich offen ausfällt und den den relativ breit gesetreuten anwendungswünschen nur bedingt entgegenkommt, überrascht aber leider nicht wirklich. vermutlich zielt es also eher wieder nur darauf ab, mit einem weiteren inkompatiblen zuckerl ihre eigenen systeme gegenüber konkurrierenden produkten weiter abzuschotten.

Nicht umsonst hat sich DNG nicht durchgesetzt.

das würde ich nicht so sehen. in seinem ausgesprochen eng abgestckten feld ist es durchaus als einigermaßen offener standard allgemein akkzeptiert und vernünftig verwendbar.



Antwort von Axel:

Es hieß, ProResProRes im Glossar erklärt Raw könne ohne weiteres von FCP 10.4.1 (ab Montag also) importiert werden. Toll. Und dann?

Denn ein eigenes "Camera Raw" Tool hat FCP nicht im "neuen" (4 Monate alten) Color-Tab. Wäre nur konsequent, wenn das auch käme.

Ich weiß, dass ich hierfür Prügel kriege, ich sage es dennoch. Die Einzeltools für FarbkorrekturFarbkorrektur im Glossar erklärt sind echt nicht schlecht, ein paar kleinere Bugs werden ab Montag sicher verschwunden sein. Aber ich persönlich finde, dass ein wirklich umfassendes Grading bei, sagen wir, *bloß* 100 Clips in der TimelineTimeline im Glossar erklärt (ich erwähne das, weil die Notwendigkeit, Clips miteinander zu vergleichen, in dieser Version gar nicht berücksichtigt ist! Und ich kenne auch die Tricks: 1. gegradeter Browser-Clip als Referenz mit Viewer und Canvas. 2. Toggeln von "S", sodass das angezeigte Bild zwischen Playhead und Skimmer zum Vergleich wechselt. 3. Verbinden eines Referenz-Standbildes mit Sichern des "Grades" als Effekt-Voreinstellung.) soviel redundantes Geklicke, Getippe und Geschiebe bedeutet, dass es m.E. Apples Anspruch, Benutzerfreundlichkeit an erste Stelle zu setzen, nicht würdig ist. Und ich benutze schon ctrl+tab und ctrl+shift+tab, um zwischen Effekt- und Farbpalette zu switchen.

Wer ernsthaft das Beste aus diesem ProResProRes im Glossar erklärt Raw herausholen will, wird vor allem darauf hoffen, dass Resolve schnell mit an Bord ist.



Antwort von Paralkar:

Blackmagic ist ja auch normalerweise schnell bei sowas, bin mal gespannt,

Was is das Wavelet wie bei Red???

Hört sich gut an, mich hats schon immer genervt ProResProRes im Glossar erklärt über 2k laufen zu lassen, weil unnötig hohe Datenmengen zu Stande kommen im Vergleich zu Cinema DNG (4:1)

Außerdem wäre compressed Raw für die Alexas geil, hoffentlich zieht Arri mit und das ganze geht hardwaretechnisch überhaupt.



Antwort von Axel:


Es hieß, ProResProRes im Glossar erklärt Raw könne ohne weiteres von FCP 10.4.1 (ab Montag also) importiert werden. Toll. Und dann?

Denn ein eigenes "Camera Raw" Tool hat FCP nicht im "neuen" (4 Monate alten) Color-Tab. Wäre nur konsequent, wenn das auch käme.

Okay, im Whitepaper zu ProResProRes im Glossar erklärt Raw steht's. Es gibt drei Möglichkeiten. Erstens die neue Clip-Eigenschaft im Inspektor: Raw zu Log-Konversion. Zweitens die LUT, entweder als Clip-Eigenschaft oder als Effekt Benutzer-LUT. Drittens das Graden ohne Seil und doppelten Boden.



Antwort von Jott:

Was is das Wavelet wie bei Red???

Nö. Solche Fragen und mehr beantwortet das aufschlussreiche White Paper:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf



Antwort von Frank Glencairn:

Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die KompressionKompression im Glossar erklärt gefunden.



Antwort von CameraRick:

Ich frage mich ja, ob es sich ggf sogar so verhält wie Cineform RAW. Also, mit der "active Metadata"; reine Spekulation aufgrund des Namens.
Vom Whitepaper ausgehend scheint das erstmal nicht so.

Apple täte gut daran, dass nicht nur auf seine eigenen Applikationen laufen zu lassen; ich fand es zugegeben recht erstaunlich dass sie jetzt mit so einem Ding um die Ecke kommen, solang Du das Zeug aber nicht in einen Resolve oder baselight bekommst sehe ich da nicht so die große Zukunft in der Akzeptanz. Da ja FCPx anscheinend nur eine RAW zu Log conversion anbietet ist das Ganze ja schon in sich recht limitiert, wenn man mal in eine andere Anwendung will, wenn einem Motion oder so zB mal nicht zu sagt. Ich habe natürlich auch nur ein sehr eingeschränktes Sichtfeld, indem niemand FCPx oder Motion benutzt, kann den Markt da schlecht einschätzen :/



Antwort von Abercrombie:

Ob man wohl komfortabel CinemaDNGs in ProResProRes im Glossar erklärt RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?



Antwort von Axel:


Ob man wohl komfortabel CinemaDNGs in ProResProRes im Glossar erklärt RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?

Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.



Antwort von nic:



Ob man wohl komfortabel CinemaDNGs in ProResProRes im Glossar erklärt RAW umwandeln werden können ohne nennenswert Informationen zu verlieren?

Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.

Theoretisch geht das schon. Nur wird Apple wohl kein entsprechendes Programm anbieten...



Antwort von Jott:


Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die KompressionKompression im Glossar erklärt gefunden.

Ich schon, gleich im Intro:

"Apple ProResProRes im Glossar erklärt RAW is based on the same principles and underlying technology as existing ProResProRes im Glossar erklärt codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels."

Steilvorlage für wowu ("30 Jahre altes DCI")! :-)



Antwort von nic:



Nö, tut es nicht.

Ich hab jedenfalls kein Wort über die KompressionKompression im Glossar erklärt gefunden.

Ich schon, gleich im Intro:

"Apple ProResProRes im Glossar erklärt RAW is based on the same principles and underlying technology as existing ProResProRes im Glossar erklärt codecs, but is applied to a camera sensor’s pristine raw image data rather than conventional image pixels."

Steilvorlage für wowu ("30 Jahre altes DCI")! :-)

Wavelet statt DCTDCT im Glossar erklärt wäre schon sinnvoll gewesen...



Antwort von CameraRick:


Wavelet statt DCTDCT im Glossar erklärt wäre schon sinnvoll gewesen...

Aber dann müsste man ja was neues entwickeln... :)

Cineform RAW hat den Ansatz ja, leider ist der nicht komplett lizenzfrei für die Implementierung in Hardware und erfreut sich offenbar keiner großer Beliebtheit. Eine Schande, eigentlich finde ich das FormatFormat im Glossar erklärt ganz gut.



Antwort von mash_gh4:



Umkodieren geht grundsätzlich nicht. Es ist, wie gesagt, nur ein Aufnahmevodec.

Theoretisch geht das schon. Nur wird Apple wohl kein entsprechendes Programm anbieten...

dieser schritt ist normalerweise der erste, den man unternimmt, wenn man die unterstützung für ein neues raw format in freier software umsetzt, da die entsprechenden raw converter von adobe wirklich immer fast alles vernünftig unterstützen. in wahrheit sind raw formate aber verhältnismäßig einfach aufgebaut und sehr schnell nachzubilden.



Antwort von Frank Glencairn:



"the same principles and underlying technology as existing ProRes" noch schwammiger gings nicht mehr?
Von einem "White Paper" erwarte ich normal schon etwas mehr Substanz, als von einer Pressemeldung.



Antwort von mash_gh4:



"the same principles and underlying technology as existing ProRes" noch schwammiger gings nicht mehr?
Von einem "White Paper" erwarte ich normal schon etwas mehr Substanz, als von einer Pressemeldung.

naja -- während die tatsächlichen technischen dokus von apple meist ganz brauchbar sind, schauen whitepapers eben immer ungefähr so aus. das ist aber bei avid und seinen veröffentlichungen zu dnxhr um kein bischen besser...

inhaltlich ist die sache aber ohnehin klar.
raw-aufufzeichnungsformate haben grundsätzlich mehr ahnlichkeit mit einer s/w aufzeichnung bzw. enthalten nur einen kanal. dafür gibt's ein paar zusätzliche metadaten angaben, die festlegen, wie die farbige anordnung der sensel zu interpretieren ist, und ein paar faktoren betreffend weißabgleich und aussteuerung der einzelnen farben. der größte unterschied zu den klassischen videoufzeichnungsformaten besteht aber in der verteilung der aufgezeichneten werte. die kameras bzw. raw daten liegen ja normalerweise annähernd in linearer darstellung vor, was man normalerweise aber besser in log od. div. fließkomma darstellungen abspeichert, um eine gleichmäßigere verteilung bzw. bessere komprimierbarkeit zu erreichen. wenn man diese anpassung nicht richtig vornimmt od. beachtet -- also bspw. ProResProRes im Glossar erklärt od. DNxHR im resolve als cache-format für ACES projekte einstellt od.ä. -- hat das fatale auswirkungen auf die resultierende qualität.



Antwort von Paralkar:

Welche sind diese? Also meinst du TimelineTimeline im Glossar erklärt Color Space oder was genau?

Im Endeffekt muss er doch nur Linear in Rec 709 für die Cache Files umrechnen.



Antwort von WoWu:

Ich würde erst mal abwarten, was der CodecCodec im Glossar erklärt überhaupt transportiert denn wenn er nicht in der Kamera sitzt und das eigentliche Luminanzsognal des Sensors führt, sondern die de-mosaicten Prozesswerte, ist es nicht anderes, als ein neues Etikett, das alten Verfahren aufgedrückt wurde.
Also, erst mal abwarten, was da kommt.



Antwort von Paralkar:

Nein im White Paper steht schon undebayerte Raw Daten. Die Frage is wie sie die Komprimierung hinkriegen, ich schätze ganz stark Wavelet (steht nix drin), bei den Datenraten.

Ich denke Apple wird sich schon bei den Kameraherstellern erkundigt haben, obs Interesse gibt.

Hoffe das ganze kommt in die Alexas. Wäre doch mal schön komprimiertes Raw zu haben und Alternativ Arri Raw



Antwort von Jott:

Man könnte das Whitepaper lesen:

"ProRes RAW directly encodes the Bayer pattern image. Demosaicing and processing are deferred to the time of playback and are performed by application software."

ProRes Raw wird also - bis jetzt nur von DJI - direkt in der Kamera komprimiert (so wie Red das schon immer macht), oder ein externer Recorder (Atomos) komprimiert das, was aus dem Raw-Ausgang einer Kamera rauskommt. Atomos leistet dazu diverse gängige Modelle wie FS700 oder FS5, mit denen das klappt.

In beiden Fällen also nicht de-bayertes Raw. Das De-Bayering macht fcp x dann live bei der Wiedergabe, und gleich für mehrere Streams. Oder kann man das anderes lesen/interpretieren/verstehen?

Wavelet? Nö, Apple schreibt im Whitepaper von gleicher technischer Basis wie ProRes. Ebenso auf bestmögliche Performance hin entwickelt.



Antwort von nic:


Nein im White Paper steht schon undebayerte Raw Daten. Die Frage is wie sie die Komprimierung hinkriegen, ich schätze ganz stark Wavelet (steht nix drin), bei den Datenraten.

Ich denke Apple wird sich schon bei den Kameraherstellern erkundigt haben, obs Interesse gibt.

Hoffe das ganze kommt in die Alexas. Wäre doch mal schön komprimiertes Raw zu haben und Alternativ Arri Raw

DCT.



Antwort von cantsin:

Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProResProRes im Glossar erklärt RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProResProRes im Glossar erklärt RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.



Antwort von Jott:

Da würde ich nicht gegenhalten wollen! :-)



Antwort von Alf_300:

@Cantsin

Du mußt viel Gekd haben

Von mir 10 Euro dagegen.



Antwort von WoWu:


Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProResProRes im Glossar erklärt RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProResProRes im Glossar erklärt RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.

Das kann ich mir auch gut vorstellen ... nur eine Schwalbe macht natürlich noch keinen Sommer ... und die Frage bleibt eben, was steckt drin, in dem "RAW".



Antwort von Frank Glencairn:



In beiden Fällen also nicht de-bayertes Raw. Das De-Bayering macht fcp x dann live bei der Wiedergabe, und gleich für mehrere Streams. Oder kann man das anderes lesen/interpretieren/verstehen?

Ja, so schaut's aus.



Antwort von wolfgang:


Wollen wir wetten, dass Resolve 15 (das wahrscheinlich am Montag vorgestellt wird) ProResProRes im Glossar erklärt RAW unterstützen wird - und dass zumindest Blackmagics neuere Kameras ProResProRes im Glossar erklärt RAW per Firmwareupdate bekommen werden?

Blackmagic hat bisher alle ProRes-Codecs in seiner Hardware und Software implementiert und wird das hier wahrscheinlich schon lange in Zusammenarbeit mit Apple vorbereitet haben.

Na ich hoffe stark dass Resolve 15 das kann. Denn ich will ja 5.7K ProResProRes im Glossar erklärt Raw aus meinem Shogun Inferno verarbeiten können, und bisher wird lediglich gesagt dass dies nur FCP X können wird. Und damit wären Windows Anwender außen vor.



Antwort von cantsin:


Na ich hoffe stark dass Resolve 15 das kann. Denn ich will ja 5.7K ProResProRes im Glossar erklärt Raw aus meinem Shogun Inferno verarbeiten können, und bisher wird lediglich gesagt dass dies nur FCP X können wird. Und damit wären Windows Anwender außen vor.

Als Canon sein proprietäres Canon RAW-Format mit der C200 brachte, unterstützte Resolve es eine Woche später per Softwareupdate. Würde mich wundern, wenn es hier anders laufen würde.



Antwort von DV_Chris:

Nachdem erstmal nur wenige Kamerabesitzer mit Shogun Inferno bzw Sumo das FormatFormat im Glossar erklärt aufzeichnen werden können, könnte es durchaus sein, dass die Implementierung in anderen NLE nicht höchste Priorität hat.



Antwort von Jott:

Keine Panik.



Antwort von wolfgang:


Nachdem erstmal nur wenige Kamerabesitzer mit Shogun Inferno bzw Sumo das FormatFormat im Glossar erklärt aufzeichnen werden können, könnte es durchaus sein, dass die Implementierung in anderen NLE nicht höchste Priorität hat.

Na so wenige Kameras sind es nicht wo das mit Montag funktionieren wird. Inzwischen werden von Inferno ja etliche Kameras mit Raw Ausgabe unterstützt.



Antwort von Funless:

Ich spekuliere: April 2018 wird als "der Beginn von RAW Video für jedermann" in die Geschichte eingehen.



Antwort von nic:


Ich spekuliere: April 2018 wird als "der Beginn von RAW Video für jedermann" in die Geschichte eingehen.

War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...



Antwort von cantsin:



Ich spekuliere: April 2018 wird als "der Beginn von RAW Video für jedermann" in die Geschichte eingehen.

War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...

Hardware-seitig ja. Software-seitig ist doch die Unterstützung von RAW in allen Mainstream-NLEs erstaunlich dürftig und lückenhaft geblieben.



Antwort von Frank Glencairn:

Also ich hätte das PrawRes genannt :-)



Antwort von nic:



War das nicht eher der Release der BMCC? Seitdem kann doch jeder in RAW drehen, wenn er nur will...

Hardware-seitig ja. Software-seitig ist doch die Unterstützung von RAW in allen Mainstream-NLEs erstaunlich dürftig und lückenhaft geblieben.

Ich hätte nichts dagegen, wenn ProResProRes im Glossar erklärt RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...



Antwort von nic:


Also ich hätte das PrawRes genannt :-)

Ich eher ProRaw, Final Raw oder iRAW.



Antwort von cantsin:


Ich hätte nichts dagegen, wenn ProResProRes im Glossar erklärt RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...

Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProResProRes im Glossar erklärt (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.



Antwort von Funless:



Ich hätte nichts dagegen, wenn ProResProRes im Glossar erklärt RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...

Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProResProRes im Glossar erklärt (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.

Brauchst auch nicht erwarten. Jede Wette, dass das nächste iPhone Videos in ProResProRes im Glossar erklärt RAW aufzeichnen können wird. Und dann wird sich zeigen, wie lange die großen Kamerahersteller mit dem Nachziehen warten werden.

Wie gesagt, reine Spekulation meinerseits, aber irgendwie habe ich da so‘n Gefühl. ;-)



Antwort von nic:



Ich hätte nichts dagegen, wenn ProResProRes im Glossar erklärt RAW das ‚poor man‘s redraw‘ werden würde. Ob das Potential dazu da ist, werden wir wohl nach der NAB wissen...

Von den großen Kameraherstellern (Sony, Canon, Panasonic, aber auch von Fuji, Nikon, Olympus) erwarte ich da nichts. Die haben in ihren Consumer- und Prosumerkameras noch nie ProResProRes im Glossar erklärt (oder vergleichbar breitbandige Codecs angeboten) und werden es auch in naher Zukunft nicht tun.

Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei. BMD ist ja sicher auch dabei...



Antwort von cantsin:


Jede Wette, dass das nächste iPhone Videos in ProResProRes im Glossar erklärt RAW aufzeichnen können wird.

Da wette ich gegen Dich. Bei einer DatenrateDatenrate im Glossar erklärt von mehr als 1000 Mbit/sMbit/s im Glossar erklärt bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.



Antwort von cantsin:


Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei.

Ich hatte ja explizit von Consumer- und Prosumerkameras geschrieben, nicht von Kameras in der Güte- und Geldklasse von EVA & Co.



Antwort von nic:



Panasonic ist über Atomos ja schon dabei. PRR ist die einzige Möglichkeit an das 5.7K Raw der EVA zu kommen. Sony ist im gleichen Zuge ja auch schon dabei.

Ich hatte ja explizit von Consumer- und Prosumerkameras geschrieben, nicht von Kameras in der Güte- und Geldklasse von EVA & Co.

Ist die EVA nicht prosumer?



Antwort von Funless:


Sony ist im gleichen Zuge ja auch schon dabei.

Am Montag ist ja die Sonys NAB PK und vielleicht sehen wir bei einer evtl. Ankündigung einer A7sIII dann auch ProResRAW Support via Atomos für das Gerät. Wer weiß? Sind ja alle hier unisono, dass Sony im DSLM Bereich irgendwas gegen die 10Bit intern der GH5/GH5s entgegensetzen muss.

Jede Wette, dass das nächste iPhone Videos in ProResProRes im Glossar erklärt RAW aufzeichnen können wird.

Da wette ich gegen Dich. Bei einer DatenrateDatenrate im Glossar erklärt von mehr als 1000 Mbit/sMbit/s im Glossar erklärt bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.

ProResRAW geht ja auch compressed wenn ich‘s nicht falsch verstanden habe. Apple setzt seit zwei iPhone Generationen immer größeren Schwerpunkt auf Kamerafeatures (die anderen Hersteller wie bspw. Samsung, etc. aktuell ja auch). Außerdem weiß keiner was nun die Hydrogen bringen wird. Und Marktanteile im Smartphone Markt sind hart umkämpft, so dass nicht davon auszugehen ist, dass Apple sich auf seinem Platzhirsch Status ausruhen wird.

Wie bereits oben gesagt, alles Spekulation von mir, bin kein Insider. Doch für mich persönlich würde es Sinn machen.



Antwort von cantsin:


Am Montag ist ja die Sonys NAB PK und vielleicht sehen wir bei einer evtl. Ankündigung einer A7sIII dann auch ProResRAW Support via Atomos für das Gerät. Wer weiß? Sind ja alle hier unisono, dass Sony im DSLM Bereich irgendwas gegen die 10Bit intern der GH5/GH5s entgegensetzen muss.
Niemals wird Sony einen Apple-Codec lizenzieren, die haben ihre eigenen Codecs.

Da wette ich gegen Dich. Bei einer DatenrateDatenrate im Glossar erklärt von mehr als 1000 Mbit/sMbit/s im Glossar erklärt bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung. Vor allem aber nützt RAW-Aufzeichnung beim Smartphone sehr wenig, weil da die Bildqualität nicht aus dem Rohsignal, sondern dem Hoch- und Schönrechnen der Signals in der Hardware kommt.

ProResRAW geht ja auch compressed wenn ich‘s nicht falsch verstanden habe.
Die genannten Bitraten sind bereits compressed und beziehen sich auf die Angaben in der Slashcam-Newsmeldung.

Apple setzt seit zwei iPhone Generationen immer größeren Schwerpunkt auf Kamerafeatures (die anderen Hersteller wie bspw. Samsung, etc. aktuell ja auch).

Ja, aber vor allem durch computational imaging - also Signalschönrechnung durch maximalen algorithmischen Aufwand. Das ist genau das Gegenteil von RAW.



Antwort von Jott:


Bei einer DatenrateDatenrate im Glossar erklärt von mehr als 1000 Mbit/sMbit/s im Glossar erklärt bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung.

Es ist etwa halb so viel bei ProResProRes im Glossar erklärt raw. Also immerhin ein Stündchen 4K/25p auf 256 GB, was ja wohl das Mindeste wäre, wenn man so was mit einem Smartphone vorhätte. Und wenn‘s auch HD tut, sind’s gleich ein paar Stunden. Zudem pumpt das iPhone laufend Bilder und Videoclips in die Cloud und macht Speicher wieder frei. Soderbergh würde auch einen Hunderter drauflegen und eins mit 512 GB kaufen! :-)

Red will ja definitiv ein Handy mit Redraw bringen. So völlig aus der Luft gegriffen finde ich das daher gar nicht mit einem Raw-Edel-iPhone. Dass die Mini-Kameratechnik riesige Sprünge macht, ist ja wohl nicht abzustreiten. Vielleicht knallt ja Apple mit so was in den Markt, noch bevor Red in die Hufe kommt?

Keiner weiß, was es da für Roadmaps gibt. Ich find‘s spannend.



Antwort von cantsin:


Ist die EVA nicht prosumer?

Da haben wir unterschiedliche Begriffe von "Prosumer". Ich dachte dabei eher an Kameras wie die GH5/s, nicht an einen 7500-Euro-Body.



Antwort von cantsin:



Bei einer DatenrateDatenrate im Glossar erklärt von mehr als 1000 Mbit/sMbit/s im Glossar erklärt bei 4K reichen selbst 128MB freier interner Speicher gerade mal für eine Viertelstunde Aufzeichnung.

Es ist etwa halb so viel bei ProResProRes im Glossar erklärt raw.

Nein.

Apple spezifiziert die DatenrateDatenrate im Glossar erklärt von ProResProRes im Glossar erklärt Raw im dazugehörigen White Paper als variabel zwischen der von ProResProRes im Glossar erklärt HQ und der von ProResProRes im Glossar erklärt 444.

Laut diesem anderen White Paper liegt die DatenrateDatenrate im Glossar erklärt von ProResProRes im Glossar erklärt HQ bei 4K bei 754 Mbit/sMbit/s im Glossar erklärt (24fps) bzw. 943 Mbit/sMbit/s im Glossar erklärt (30fps) und die von ProResProRes im Glossar erklärt 444 bei 1131 bzw. 1414 Mbit.

Also habe ich da noch zurückhaltend gerechnet.

Red will ja definitiv ein Handy mit Redraw bringen.
Stimmt so auch nicht. Es wird ein Handy mit anflaschbaren RedRaw-Kameramodul geben (so ähnlich, wie das als Fotokamera die DxO One macht), aber kein Raw-Recording im Handy selbst.



Antwort von Jott:

Da kursieren verschiedene Stories und Vermutungen. Facts gibt es noch keine.

Ist ja auch egal. Die Welt hat andere Probleme.

ProRes Raw liegt übrigens variabel zwischen 422 und HQ. Du musst schon richtig lesen. Du nennst die Werte von ProResProRes im Glossar erklärt Raw HQ, der High End-Variante, was in einem Handy nun wirklich Schwachsinn wäre.



Antwort von cantsin:


ProRes Raw liegt übrigens variabel zwischen 422 und HQ. Du musst schon richtig lesen. Du nennst die Werte von ProResProRes im Glossar erklärt Raw HQ, der High End-Variante, was in einem Handy nun wirklich Schwachsinn wäre.

Da hast Du in der Tat recht und ich nehme meinen Punkt zurück.

Werde aber meine Wette gegen Alf gewinnen. Blackmagic wird eine neue 4K Pocket vorstellen, und Resolve 15. Beide höchstwahrscheinlich mit ProResProRes im Glossar erklärt RAW. Blackmagics Betatester/Influencer John Brawley sagt, dass er (wohl wegen NDA) noch nicht viel sagen kann, bestätigt aber sowohl die Echtheit des 4K-Pocket-Plakats, als auch das folgende: "I’ve seen iterations of working with ProResProRes im Glossar erklärt with the same controls you get with shooting any RAW format in the way we all would understand a real RAW format to work. Umm..so its’ actually awesome. I mostly shoot ProResProRes im Glossar erklärt these days anyway and now ProResProRes im Glossar erklärt will be even better :-)"



Antwort von Funless:

Und wenn die BMPCC4K so um die 1.000 - 1.500 Euro kosten sollte plus die PRR Implentierung in Resolve 15 (also auch für die Windows Welt), liege ich doch mit meiner spekulativen Vorhersage "RAW Video für Jedermann" gar nicht mal so verkehrt. :-)



Antwort von WoWu:

"I mostly shoot ProResProRes im Glossar erklärt these days anyway and now ProResProRes im Glossar erklärt will be even better :-)"

Das ist ja nun auch nicht besonders schwer.
Den meisten Distributionscodecs fällt das ja noch nicht mal schwer.
Daher sagt das noch nichts über die effektive Qualität aus.



Antwort von cantsin:


Und wenn die BMPCC4K so um die 1.000 - 1.500 Euro kosten sollte plus die PRR Implentierung in Resolve 15 (also auch für die Windows Welt), liege ich doch mit meiner spekulativen Vorhersage "RAW Video für Jedermann" gar nicht mal so verkehrt. :-)

Nur, dass sich da eigentlich nicht soviel ggü. früher verändert hat. Die erste Pocket ist seit 2013 für 1000 EUR auf dem Markt, und schneiden kann man mit Resolve schon seit Version 11, die 2014 'rauskam.

"RAW Video für Jedermann" wäre dann doch eher Raw-Video in unter-2500-Euro-Kameras, die à la GH5, A7 oder XC10 Autofocus, Stabilisierung, brauchbare interne Mikrofone und lange Batterielaufzeit mitbringen und keine IR-Cut-Filter brauchen - und was sich dann anschließend problemlos in Premiere, FCPX & Co. schneiden lässt inkl. einfacher Einstellungsmenüs für Raw-Bildparameter (wie WeißabgleichWeißabgleich im Glossar erklärt und Gain).



Antwort von WoWu:

Vielleicht überraschen sie uns ja alle und führen eine vectorbasierte Compression der RAW Signale ein.
Das wäre allerdings der "Durchbruch" für ein "RAW für Jedermann" und der erste Schritt zu einem Umdenken in Sachen Kompression.
Wir werden es sehen. Die Datenraten wären dafür schon mal richtig.



Antwort von Funless:

Eben, warten wir ab und harren der Dinge die da kommen. Interessant finde ich es allemal.



Antwort von Axel:

Apple hätte wenig davon, PRR gegen eine bescheidene Gebühr unter‘s Volk zu bringen. Da dieses hier so eine Art Vorhersage-Wette wird, hier meine: PRR wird nichts welterschütternd Neues, nur eine Art aufgebohrtes Cineform Raw mit etwas schlankeren Datenraten. Es wird für wenigstens ein Jahr nicht auf Resolve verfügbar sein und deswegen wohl auch nicht auf BM Kameras. Denn die sind, wie cantsin sehr richtig sagte, das "Raw für jedermann". Nicht allein durch CDNG auf ihren günstigen Kameras, sondern durch die Software, das "Ökosystem". Das will FCP jetzt auch schaffen, mit einem alternativen Ansatz.



Antwort von Jott:

Wieso vermutet ihr Wavelet oder gar irgend eine fancy Vectorkompression?

Im Whitepaper steht doch, dass es ProResProRes im Glossar erklärt ist wie gehabt, nur eben auf "Bayerpixel" angewandt. LuminanzLuminanz im Glossar erklärt plus Metadaten. Es geht Apple ja um Speed, damit werben sie, 8 Raw-Streams realtime in fcp x de-bayert bla bla.

Dafür spricht ja auch, dass die Implementierung von ProResProRes im Glossar erklärt Raw für DJI und Atomos ein simples Firmware-Update ist. Müsste auch bedeuten, dass jeder andere Kamerahersteller, der bisher schon ProResProRes im Glossar erklärt anbietet - also praktisch alle - ebenfalls problemlos mitspielen könnte.

Der NAB-Pressetag naht.



Antwort von Frank Glencairn:

Interresant





Antwort von cantsin:


Interresant

Eigentlich sagt er durch die Blume, dass CinemaDNG als Standard wegen seiner Usability und mangelhaften Unterstützung gescheitert ist, und dass die Initiative für ProResProRes im Glossar erklärt Raw nicht von Apple, sondern von Atomos ausging.



Antwort von Frank Glencairn:

Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.



Antwort von nic:


Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.

CDNG ist schon ein Kack und hat alle Erwartungen massiv untertroffen.



Antwort von Frank Glencairn:

Hä? Welche "Erwartungen"?



Antwort von wolfgang:


Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen. Und ja, sieht so aus, als ob nicht Apple sondern Atomos die Idee hatten.

Und damit sind die Windows Anwender mal wieder draußen, zumindest nach heutigem Stand. Na vielleicht hilft Resolve 15.



Antwort von nic:


Hä? Welche "Erwartungen"?

Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.



Antwort von Frank Glencairn:

Da musst du dich beim NLE Hersteller deines Vertrauens beklagen, wobei das bei Adobe ja extrem bizarr ist, daß die sich weigern ihr eigenes FormatFormat im Glossar erklärt vernünftig zu unterstützen.



Antwort von rush:


Was CinemaDNG betrifft, redet er ein bisschen einen Schmarrn, was verständlich ist, er will ja gerade ein Konkurrenzprodukt etablieren, deshalb kann man ihm das nachsehen.

Dann mal Butter bei die Fische... welcher Hersteller bietet denn CDNG in seinem aktuellen Kamera-Portfolio? Da bleiben neben Blackmagic nur noch eine Hand voll übrig... und einige Hersteller davon existieren heute doch de facto gar nicht mehr beim Blick auf Wikipedia... vielleicht noch die Weisscam... aber die anderen dort aufgeführten? Eher in der Versenkung versunken :D https://de.wikipedia.org/wiki/CinemaDNG

Der Rest sind eher die paar Rekorder-Hersteller die hier und da auch mal CDNG anbieten um überhaupt von sich Rede zu machen und dem Kunden was anbieten müssen...
Ein wirklicher Standard hat sich daraus leider nicht etabliert.

Irgendwie schwimmen doch alle viel lieber in Ihrer eigene Soße mit popraritären RAW-Formaten... egal ob Arri, RED, Kinefinety, Sony und wie sie alle heißen.

Ob da ProResProRes im Glossar erklärt RAW was dran ändern wird? Ich bin eher skeptisch... aber wünschenswert wäre ein etwas breiter aufgesteller Standard ja schon, auch die für Hersteller von NLE's, Gradinggedöns und Co...



Antwort von nic:


Da musst du dich beim NLE Hersteller deines Vertrauens beklagen, wobei das bei Adobe ja extrem bizarr ist, daß die sich weigern ihr eigenes FormatFormat im Glossar erklärt vernünftig zu unterstützen.

Alleine die Idee auf Einzelbilder in Ordnern zurückzugreifen macht das FormatFormat im Glossar erklärt auf Dateiebene unsinnig langsam und umständlich.



Antwort von cantsin:



Hä? Welche "Erwartungen"?

Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.

Ich wüsste nicht, was im CinemaDNG-Standard fehlt, ausser dass die Ordner-/Einzelframestruktur ein Usability-Problem ist, dass man sehr einfach durch einen tar- oder zip-Container lösen könnte, wodurch die Äquivalenz von Clip und Datei wiederhergestellt wäre.

Das echte Problem ist doch, dass CinemaDNG von den großen Softwareanbietern stiefmütterlich behandelt wird, allen voran vom Erfinder des Formats, Adobe. Es ist unbegreiflich, warum man die Adobe Camera Raw-Parameter von CinemaDNG-Aufnahme zwar in Lightroom einstellen kann, aber nicht bzw. nur äußerst rudimentär in Premiere.

Man könnte da Verschwörungstheorien entwickeln, weil CinemaDNG von den großen Kameraherstellern links liegen gelassen und nur von den Spezial- und Nischenanbietern implementiert wurde. Die Hoffnung ist wohl, dass mit ProResProRes im Glossar erklärt RAW endlich eine Mainstream-Lösung für RAW-Video kommt.



Antwort von wolfgang:



Hä? Welche "Erwartungen"?

Dass sich ein sinnvoller compressed raw-Standard entwickeln könnte, der sich auf allen gängigen NLEs ordentlich verarbeiten lässt.

Was eine nette Vision ist.



Antwort von Frank Glencairn:



Alleine die Idee auf Einzelbilder in Ordnern zurückzugreifen macht das FormatFormat im Glossar erklärt auf Dateiebene unsinnig langsam und umständlich.

Etwas langsamer beim kopieren - okay, läßt sich aber durch Plattenoptimierung immerhin ein bisschen beschleunigen - der Unterschied zwischen DNG Ordner kopieren und Clip kopieren ist definitiv da, aber so klein, daß er für mich kein Dealbreaker ist. Läuft sowieso im Hintergrund, während ich was anderes arbeite.
Aber ob ich einen Ordner mit Einzelbildern, Ton- und Metadaten drin anfasse und irgendwo hin schiebe, oder einen Clip, macht nun wirklich keinen Unterschied. Is ja sowieso nur eine Desktop Metapher - unter dem .mov Symbol befinden sich ja auch nur Einzelbilder, du kommst nur nicht dran, weil sie in dem Container verpackt sind. In der NLE macht es sowieso keinen Unterschied, die DNGs tauchen auf wie ganz normale Clips.

Dann mal Butter bei die Fische... welcher Hersteller bietet denn CDNG in seinem aktuellen Kamera-Portfolio? .
Ein wirklicher Standard hat sich daraus leider nicht etabliert.
..

Naja - das sind dann immerhin um die 10-12 Kameras (und ein paar Recorder)

Wie viel Kameras können ProResProRes im Glossar erklärt schreiben? Ungefähr genauso viel - nach deiner Logik wäre also ProResProRes im Glossar erklärt
auch kein wirklich etablierter Standard.



Antwort von WoWu:

Wobei der Atomos Mann ja auch auf das eigentliche Problem im Hinblick auf DNG hingewiesen hat und sagt, dass es keinen Sinn macht, ein Video-Signal zu verarbeiten.
Denn die alte Frage ist ja, ist eine codierung in DNG noch RAW. Er beantwortet das in dem Interview eher mit NEIN denn er weist direkt darauf hin, dass PRR ein Sensorsignal enthält, das nicht in Frame-Formatierung vorliegt sondern in individuellen Pixelpaketen, losgelöst von Frameformaten.
Das deutet ja eigentlich darauf hin, dass wir es mit soetwas wie einem echten RAW zu tun haben.
Und genau das war auch für mich der schwächste Punkt von DNG, weil es eigentlich nur ein flaches Videoformat mit geringer KompressionKompression im Glossar erklärt war.

Ich bin mal gespannt, was da herauskommt denn Zeit wäre es, ein neues FormatFormat im Glossar erklärt zu etablieren.
Und wenn es sich tatsächlich um ein Vectorformat handelt, bin ich mal auf Sony gespannt, weil die ja ebenso auf diesen "Zug" setzen.



Antwort von Peppermintpost:

ich hab den Beitrag ja nicht kompl gelesen, evtl ist das was ich schreibe obsolet, aber mir scheint die grösste "Krücke" am ProResProRes im Glossar erklärt (egal welche Geschmacksrichtung) das es halt unter Windows nicht durchgängig funktioniert. Ich habe weil ich immer mehr auf Windows mache und grosser ProResProRes im Glossar erklärt Fan bin Mirazon ProResProRes im Glossar erklärt installiert und bis jetzt scheint es auch gut zu funktionieren. Es gibt natürlich auch einige Software die ProResProRes im Glossar erklärt Schreiben kann, aber grundsätzlich finde ich ist es der Job von Apple das mal einheitlich für alle Plattformen zur Verfügung zu stellen.



Antwort von Frank Glencairn:

Vor allem in 64bit



Antwort von WoWu:

Das Problem, und darin liegt der Unterschied in "Standards" besteht darin, dass dazu ein FormatFormat im Glossar erklärt festgeschrieben wird und mit einer Referenzimplementierung dokumentiert wird.
Dann können sich alle Hersteller daran halten und sind sicher, das 100% Kompatibilität entsteht und das ganze nicht schon wieder (nach der nächsten Modifizierung seitens des Codechetstellers) Anpassungen erforderlich werden.
Das ist auch das Problem der freien "Standards".

Insofern wäre Apples Sache gewesen, es z.B. von der SMPTE standardisieren zu lassen. Dann wäre eine platformübergreifende Akzeptanz eher gegeben.
Aber Apple hat ja ganz bewusst den CodecCodec im Glossar erklärt proprietären gehalten, um die eigene Platform zu stärken.
Da wundert es niemanden, dass viele Hersteller nicht mit fliegenden Fahnen mitmachen.



Antwort von Jott:

Stimmt, da macht kaum einer mit. Außer dieser Handvoll unbekannter Firmen vielleicht:

https://support.apple.com/de-de/HT200321

Wowu mal wieder im Kreuzzug-Modus! :-)



Antwort von R S K:

Dann wird sich vermutlich auch die Frage stellen, wo die vermeintlichen Vorteile zu eigenen Kamers-RAW Formaten liegen.

Die Stichworte heißen Performance und Datenrate und Kamera-Hersteller unabhängig, insofern lizensiert und keine Transcodierung um überhaupt damit (mit multiplen Streams!) arbeiten zu können und Performance… ach ja und Performance.

Das mit der Unabhängigkeit reicht mir schon. Und ich denke über kurz oder lang wird keiner drumrum kommen es in der einen oder anderen Form zu implementieren, insofern die hardware es grundsätzlich hergibt.

Z.B. eine Shogun kann cDNG in 4K gerade mal mit 30p aufzeichnen. In ProResProRes im Glossar erklärt raw… mit 60p.

Nicht umsonst hat sich DNG nicht durchgesetzt.

Genau. Deswegen weil es nicht von einem Kamerahersteller kam. Nicht weil es eine halb gare Anpassung eines Formats war/ist, was eigentlich für Bilder gedacht war, gar nicht für Bewegtbilder. Dementsprechend auch unerträglich in der Benutzung, Verwaltung und Performance ist. Nee. Deswegen nicht. 😏

Beide überhaupt vom Grundsatz her vergleichen zu wollen ist allein schon ziemlich… ach, egal.

Da wundert es niemanden, dass viele Hersteller nicht mit fliegenden Fahnen mitmachen.

Gut erkannt. Weshalb auch absolut niemand die sechs anderen Geschmacksrichtungen von ProResProRes im Glossar erklärt übernommen hat, richtig? So unfassbar wichtig ist ihnen die Standardisierung. 👍🏼

Niemals wird Sony einen Apple-Codec lizenzieren, die haben ihre eigenen Codecs.

Genau! Die FS7, FS5 und und und und und machen es schon seit 2014 illegal!

😄😄😄

- RK



Antwort von Frank Glencairn:


..Nicht weil es eine halb gare Anpassung eines Formats war/ist, was eigentlich für Bilder gedacht war, gar nicht für Bewegtbilder.

Ach deswegen heißt es CINEMA-DIGITAL-NEGATIVE, weil es nicht für "Bewegtbilder" gedacht ist.

Kopfschüttel



Antwort von R S K:

Ach deswegen heißt es CINEMA-DIGITAL-NEGATIVE, weil es nicht für "Bewegtbilder" gedacht ist.

:-))))
Au weia.

Kopfschüttel

Allerdings.



Antwort von nic:

CDNG ist ganz klar ein RAW-Format... die Möglichkeit RGB-Werte je PixelPixel im Glossar erklärt aufzuzeichnen ist für Foveon und 3-chipper gedacht. Ansonsten speichert es nur Sensordaten im Bezug auf ein color filter array.



Antwort von PowerMac:

Cinema DNG ist scheisse. Hat schonmal jemand probiert, 20 TB davon auf LTO-Band zu archivieren? Die kleinen Dateien und dann Tausende davon sind ein Graus. Die LTO-Archivierung dauert fünf bis zehnmal so lange, wie man bei der Dateigröße annehmen könnte.



Antwort von R S K:

Cinema DNG ist scheisse.

Auf den Punkt gebracht. :-)))

Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht. Scheisse ist gar kein Ausdruck.

Ach, und bevor sich jemand hämisch, lechzend draufstürzt, habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten.
[Edit: Habe es auf den "ersichtlichen" Weg gemacht. Wenn es einen anderen, besseren Weg gibt, super. Dieser ist dann aber wohl nicht gerade ersichtlich)

Warum auch immer, haben es sowohl Motion als auch After Effects wiederum in zwei Klicks als einzelnen Clip importiert. Nicht mal einen Balken. Versteh wer will. Ich muss es nicht. cDNG ist für mich gestorben. ProResProRes im Glossar erklärt raw FTW.

- RK



Antwort von cantsin:


Warum auch immer, haben es sowohl Motion als auch After Effects wiederum in zwei Klicks als einzelnen Clip importiert. Nicht mal einen Balken. Versteh wer will. Ich muss es nicht.

Na, ist doch einfach. Dein Beispiel zeigt doch, dass die Performance nicht an cDNG liegt, sondern an dessen durchwachsener Software-Unterstützung, die schon an Boykott grenzt. Adobe signalisiert ja sozusagen mit dem Zaunpfahl, cDNG nur als Motion Graphics-, nicht aber als Mainstream-Videoformat zu akzeptieren.

Mich würde nicht wundern, wenn es da Mauscheleien bzw. vertragliche Absprachen zwischen den großen NLE-Herstellern und den großen japanischen Kameraherstellern gab, die nicht wollten, dass Blackmagic ihnen den Markt versaut. Wozu ja auch dann die Tatsache passt, dass Blackmagic sein eigenes Resolve (wohl aus Not) zum NLE mit vorbildlicher cDNG-Unterstützung ausgebaut hat.



Antwort von Axel:

Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht. Mehr muss ich nicht sagen. Scheisse ist gar kein Ausdruck.

Ach, und bevor sich jemand hämisch, lechzend draufstürzt... habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten! UPS.

CDNGs werden in Premiere wie in Resolve als Clips und nicht als Sequenz importiert, wenn man statt über cmd+i über den Mini-Explorer des Medienbrowser (oder wie das heißt) unten links geht. Importzeit: Sekundenbruchteile, Performance gefühlt etwas schlechter als in Resolve.



Antwort von R S K:

Interessiert mich auch wie gesagt nicht die Bohne. ProResProRes im Glossar erklärt raw FTW.



Antwort von Frank Glencairn:



Habe mal eine ca. 2 Minuten Sequenz, vielleicht auch etwas länger, in FCP laden wollen. Hat sage und schreibe 22 Minuten gebraucht.


So ist es halt, wenn man mit einem Messer zu einer Schießerei kommt.


Ach, und bevor sich jemand hämisch, lechzend draufstürzt... habe die gleiche Sequenz in PPro importiert... wo es doch von Adobe ist, war ich mir sicher ich würde neidisch werden... 28 Minuten! UPS.

..und wenn du nicht zu ignorant wärst, hätte der Import in PP nur ne Sekunde gedauert, wie in Resolve auch.

Aber Hauptsache erst mal ne große Klappe, und sich großmäulig hier vor allem zum Horst machen - gratuliere.



Antwort von R S K:

😂😂😂

Danke für's vormachen.
So armselig.



Antwort von wolfgang:

Was mich mehr als die große Klappe von irgendwem stört ist, dass mit ProResProRes im Glossar erklärt RAW mal wieder schlagartig alle Windows Anwender von dem Material ausgeschlossen worden sind. Vielleicht ist das gleich am Montag mit Resolve 15 anders. Aber da kaufst dir eine EVA1, auch wegen der Ankündigung dass die 5.7K raw ausgibt. Dann wartest fast ein halbes Jahr darauf. Und dann kommen Atomos und Panasonic und innovieren ProResProRes im Glossar erklärt RAW welches erst wieder für Windowsnutzer nicht verwendbar ist. Warten wir also wieder ein halbes Jahr um zu sehen, ob das unsere anderen Applikationen auch können werden. :(

Da kommt man sich schon über den Tisch gezogen vor. Denn von einer Einschränkung, dass 5.6K RAW nur der Mac Welt zu Verfügung stehen wird, war ja nie die Rede.



Antwort von Frank Glencairn:

Ist das eigentlich sicher?

Jede andere ProResProRes im Glossar erklärt Variante ist doch auch auf Win problemlos lesbar



Antwort von cantsin:


Ist das eigentlich sicher?

Jede andere ProResProRes im Glossar erklärt Variante ist doch auch auf Win problemlos lesbar

Ich sehe da auch keine Einschränkungen, denn ProResProRes im Glossar erklärt kann man ja unter Windows vor allem nicht schreiben/exportieren. Dass ist bei ProResProRes im Glossar erklärt Raw aber irrelevant. Und Hersteller wie Atomos und DJI würden niemals auf ProResProRes im Glossar erklärt Raw setzen, wenn das eine Mac-only-Lösung wäre.



Antwort von R S K:

Ist das eigentlich sicher?

Im Moment, ja. FCP X wird ab morgen bis auf weiteres die einzige App sein die PR raw lesen/bearbeiten kann. Allerdings anzunehmen, dass Apple nicht an eine größtmögliche Verbreitung interessiert ist wäre natürlich Mumpitz. Resolve beispielsweise wird wahrscheinlich in üblicher Manier mit die erste App sein die es kann. In Wochen wenn nicht Tagen.

- RK



Antwort von motiongroup:

Klar ist das Geseire Mumpitz denn hätten die Entwickler eine Lizenz von Apple dafür geordert wäre es auch unter Windows kein Problem gewesen...
Wie viele NLE Hersteller gibt es die für spezielle CodecCodec im Glossar erklärt extra Lizenkosten von den Kunden einfordern..



Antwort von R S K:

Klar ist das Geseire Mumpitz denn hätten die Entwickler eine Lizenz von Apple dafür geordert wäre es auch unter Windows kein Problem gewesen...

Jepp. Zu behaupten der Export anderer ProResProRes im Glossar erklärt Formate unter Windows ist per se nicht möglich ist natürlich völliger Unsinn.

- RK



Antwort von wolfgang:

Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProResProRes im Glossar erklärt RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.



Antwort von Jott:


Vom Export spricht zunächst noch niemand

Auch in Zukunft nicht, da völlig sinnbefreit.



Antwort von nic:


Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProResProRes im Glossar erklärt RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.

Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.
Er bestätigt vielleicht, dass bisher niemand sonst den Support angekündigt hat - dass es niemand wird, sicher nicht.



Antwort von R S K:

Weil H.264, DNG und und und und vor ihrem eigentlich Release schon von allem und jeden Unterstütz wurden? Die Logik darf gerne mal einer erklären.

BMD kam bisher auch "erst" 2-3 Tage NACH einem Release mit einem Update mit Unterstützung für neue FCPXML Versionen raus, was es im übrigen diesmal auch geben wird. Den Zynismus sollte man sich also vielleicht erstmal aufsparen für die nächste Apple Meldung, oder zumindest den eigentlichen Release? Auch wenn das hier ein pathologischer Zwang für mache ist.

- RK



Antwort von wolfgang:



Stand heute ist das von mir gepostet sicher, und wurde sowohl vom Produktmanager Panasonic Mitch Gross wie auch von Atomos Stephan Kexel auf Facebook bestätigt. Unmittelbar geht das nur mit FCP X.

VIELLEICHT unterstützt ja das kommende Resolve 15 auch in der Windows-Welt das neue ProResProRes im Glossar erklärt RAW. Sonst wird’s wohl eher unmittelbar eng.

Vom Export spricht zunächst noch niemand, sondern zunächst mal vom Import und der Verarbeitung.

Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.

Ich sagte im ersten Posting nichts über die Strategie anderer Firmen. Aber die Bestätigung liegt vor dass 5.7K nur zu ProResProRes im Glossar erklärt RAW im Atomos Sumo/Shogun Inferno aufgenommen wird. Und dass die Verarbeitung nicht in Applikationen erfolgen kann die ProResProRes im Glossar erklärt verarbeiten können, sondern Stand Heute nur in FCP X.

Kannst gerne auf Facebook nachlesen, bist ja in den entsprechenden Gruppen drinnen.

Und es geht gar nicht mal gegen Apple - sondern das ist aus Sicht des EVA1 Users mit Windows Anwendungen primär ein Panasonic Thema. Die 5.7K versprechen und dann in der Business to Business Abstimmung ganz offensichtlich zustimmen dass die nur in ProResProRes im Glossar erklärt RAW aufgezeichnet wird. Mit entsprechenden Konsequenten für Windows User.

Wie gesagt, wenn wenigstens Resolve 15 Studio das kurzfristig unterstützt entspannt sich das ein wenig. Hoffentlich.



Antwort von wolfgang:

Ach ja, und von "pathologischen Zwängen" würde ich nach einiger deiner Postings hier an deiner Stelle weniger sprechen. ;)



Antwort von R S K:

ist scheinbar auch viel zu viel verlangt einfach mal auf den Release zu warten und der Sache auch nur EINE WOCHE zu geben. Als ob irgendjemand dich MORGEN dazu zwingen wird mit einer Atomos 5.7K in PR raw aufzuzeichnen. Es gibt ja auch keine Alternativen. Die verschwinden auch mit dem Update. So mächtig ist Apple. 😄

BMD ist im übrigen ganz offensichtlich auf dem Beta-Team. Die wissen schon was, ob, wann passiert was das angeht. Die wollen es vermutlich auch nur für v15 aufsparen um es für sich PR-technisch zu melken. Dass sie PR raw über kurz oder lang unterstützen werden steht denke völlig ausser Frage.

- RK



Antwort von wolfgang:

Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?



Antwort von R S K:

Nimmst mir die Worte aus dem Mund.



Antwort von nic:



Mitch Gross sagt prinzipiell nichts zu den Strategien anderer Firmen. Dass er sich dir gegenüber aus dem Fenster lehnt, wage ich zu bezweifeln.

Ich sagte im ersten Posting nichts über die Strategie anderer Firmen. Aber die Bestätigung liegt vor dass 5.7K nur zu ProResProRes im Glossar erklärt RAW im Atomos Sumo/Shogun Inferno aufgenommen wird. Und dass die Verarbeitung nicht in Applikationen erfolgen kann die ProResProRes im Glossar erklärt verarbeiten können, sondern Stand Heute nur in FCP X.

Kannst gerne auf Facebook nachlesen, bist ja in den entsprechenden Gruppen drinnen.

Und es geht gar nicht mal gegen Apple - sondern das ist aus Sicht des EVA1 Users mit Windows Anwendungen primär ein Panasonic Thema. Die 5.7K versprechen und dann in der Business to Business Abstimmung ganz offensichtlich zustimmen dass die nur in ProResProRes im Glossar erklärt RAW aufgezeichnet wird. Mit entsprechenden Konsequenten für Windows User.

Wie gesagt, wenn wenigstens Resolve 15 Studio das kurzfristig unterstützt entspannt sich das ein wenig. Hoffentlich.

Es gibt momentan einfach kein RAW-Format, das die 5.7K der EVA wegspeichern kann. Technisch möglich wäre das nur mit r3d. Panasonic hat von Anfang an mit offenen Karten gespielt: Sie werden die 5.7K RAW bis zum SDI-Port bringen, alles danach ist Sache der externen Rekorderhersteller. Und war bis dato Spekulation. Dass das nicht mit CDNG passieren wird und nicht von heute auf morgen geht, war mir klar. PRR ist für mich eine Überraschung und es freut mich, dass Apple wieder Interesse am professionelleren Videomarkt zeigt. FCP ist wieder da. Der iMac Pro ist ordentlich geworden. CUDA kommt. Ein neuer MacPro ist in Arbeit... Apple wird die Tür durch eine künstliche Beschränkung von PRR auf FCPX nicht wieder zuschlagen. Die kommen um zu bleiben.



Antwort von Jott:

Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProResProRes im Glossar erklärt raw sein? Oder doch? Das würde dann aber bedeuten, dass die EVA bisher auf gut Glück gekauft wurde, ohne zu wissen, was man mit dem raw-Ausgang anfangen soll? Also gezockt? Ich versteh‘s nicht, muss ich aber auch nicht.



Antwort von R S K:

… es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich aufgetauchte ProResProRes im Glossar erklärt raw sein?

Mein Reden. Danke. Aber… ist ja UNSINN! Wie kannst du nur. ;-P

Hauptsache aufgeregt. Wie immer. 💤

- RK



Antwort von wolfgang:

Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProResProRes im Glossar erklärt abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output FormatFormat im Glossar erklärt 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).



Antwort von wolfgang:


Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProResProRes im Glossar erklärt raw sein? Oder doch?

Es ist erst seit zwei Tagen klar dass es ProResProRes im Glossar erklärt RAW bei 5.7K sein MUSS. Die Dauerei ist eben dass das vorher nicht gesagt worden ist.

Und es gibt bisher keine andere Möglichkeit das raw einer EVA1 "abzugreifen" wie du es nennst. Denn das geht nur wenn der Kamerahersteller an Third Parties die erforderlichen Daten liefert oder selbst Rekorder baut. Das ist kein freier Markt sondern ein kleines Oligopol.



Antwort von nic:


Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProResProRes im Glossar erklärt abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output FormatFormat im Glossar erklärt 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).

Wenn du den RAW Output in ProResProRes im Glossar erklärt debayerst, hast du kein RAW mehr. Natürlich kannst du den gecroppten 4K RAW Stream als CDNG, ProResProRes im Glossar erklärt oder DNxHDDNxHD im Glossar erklärt speichern. Nur eben nicht die 5.7K. Das geht vorerst nur in PRR. Und, dass der Inferno mit den 5.7K umgehen können wird, stand auch nirgendwo.



Antwort von nic:



Was ist denn die Panik mit der EVA? Die gibt jetzt raw aus, fein, aber es ist doch egal, wie und womit man das abgreift? Muss doch nicht das plötzlich unerwartet aufgetauchte ProResProRes im Glossar erklärt raw sein? Oder doch?

Es ist erst seit zwei Tagen klar dass es ProResProRes im Glossar erklärt RAW bei 5.7K sein MUSS. Die Dauerei ist eben dass das vorher nicht gesagt worden ist.

Und es gibt bisher keine andere Möglichkeit das raw einer EVA1 "abzugreifen" wie du es nennst. Denn das geht nur wenn der Kamerahersteller an Third Parties die erforderlichen Daten liefert oder selbst Rekorder baut. Das ist kein freier Markt sondern ein kleines Oligopol.

Den RAW-Stream der EVA kann jeder abgreifen. Nur fehlt das FormatFormat im Glossar erklärt, um es abzuspeichern und an NLEs weiterzureichen. Das ist eben Neuland. Sei froh, dass Apple ohne Not in die Bresche gesprungen ist.



Antwort von R S K:

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.

Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

"Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?" Geliefert oder nicht?



Antwort von nic:


Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.

Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

"Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?" Geliefert oder nicht?

Du schreibst aber auch mehr Unsinn als nicht, insofern dürftest du dich mit Kommentaren gerne zurückhalten.



Antwort von R S K:

Welcher Teil genau? Kannst du auch sachlich argumentieren oder bist du jetzt auch nur auf persönliche Attacken reduziert?



Antwort von nic:


Welcher Teil genau? Kannst du auch sachlich argumentieren oder bist du jetzt auch nur auf persönliche Attacken reduziert?

So ziemlich jeder deiner Beiträge beginnt mit einer überheblichen Geste und endet mit einer Provokation. Das vergiftet die Atmosphäre und nervt nur noch...



Antwort von R S K:

und endet mit einer Provokation.

Die Zitate die ich einfüge. Ja da hast du recht. Wird aber irgendwie dann zu meiner Provokation. Faszinierend. Andere wiederum dürfen umkommentiert (umprovoziert) regelrecht ausfallend werden, aber wenn ich mal jemand seine eigenen Worte auftische bin ich der überhebliche Provokant. Alles klar. :-)))

Versteh schon. Lass gut sein… ich bin dann mal in der Sonne. Müsste es ja inzwischen besser wissen mich auf die kleine Clique hier einzulassen. My bad. Tschö. ??



Antwort von DV_Chris:

Wer das Interview mit Jeromy Young aufmerksam verfolgt wird zu folgenden Schlüssen gelangen:

1. Die Idee zu ProResProRes im Glossar erklärt RAW kam von Atomos. Vor allem deshalb, weil die DNG Verarbeitung zu aufwendig schien.

2. Seit Firmengründung ist Apple Partner von Atomos, also war das der erste Ansprechpartner.

3. Als Launch Partner ist die Verarbeitung erstmal FCPX vorbehalten.

4. Jeromy hofft auf eine breite Unterstützung in Soft- und Hardware in den kommenden Monaten.

5. Den High End Markt (Arri) hat er bewusst nicht im Visier, er will Raw for the masses, das mit geringen Anforderungen zurecht kommt. Somit ideal für AIO Rechner ohne performante OpenGL Hardware oder CPU Leistung.



Antwort von mash_gh4:

ich glaub der einzige wirklich bedeutsame unterschied dieses formats besteht darin, dass es nicht mit bildsequenzen sondern einem kontinuierlichen aufzeichnungsstream arbeitet. das ist ein ein ganz entscheidender punkt, der ja nicht nur RAW betrifft, sondern auch andere professionelle RAW und intermediate formate wie OpenEXR od. DPX. während aber letztere formate nur in einem umfeld zur anwendung kommen, wo die die verwendete hardware die entsprechenden leistungsreserven aufzubringen vermag, ist das bei mobilen geräten und kameras bzw. eben der RAW-aufzeichnung weit problematischer. dort macht es also besonders großen sinn, dieses problem auszumerzen. trotzdem ist das natürlich keine sonderlich aufregende innovation, über die man viele worte verlieren muss. ähnliche und z.t. deutlich weitreichendere versuche hat es ja immer wieder gegeben (bspw.: OpenMOX). es erscheint mir daher reichlich absurd, wenn jetzt um apples völlig proprietären lösung, die ja wieder nur einem ganz kleinen teil der realen anwendungsmöglichkeiten offen steht, ein solcher wind gemacht wird.



Antwort von cantsin:


es erscheint mir daher reichlich absurd, wenn jetzt um apples völlig proprietären lösung, die ja wieder nur einem ganz kleinen teil der realen anwendungsmöglichkeiten offen steht, ein solcher wind gemacht wird.

So kann man das aus technischer Perspektive sehen. Aus einer Marketing- bzw. Produktentwicklungsperspektive bedeutet es aber mehr, nämlich, dass es endlich signifikante Industrie-Bestrebungen gibt, um Raw-Video Mainstream zu machen. Bis vor kurzem hat die Industrie - mit der einzigen Ausnahme von Blackmagic - das für Kameras unterhalb der Klasse von Arri und RED offenbar nur als ein esoterisches Geek-Feature gesehen und mehr als stiefmütterlich behandelt.

Sehr interessant finde ich auch, dass Atomos jetzt seinen 5"-HDMI-Recorder neben ProResProRes im Glossar erklärt Raw bewirbt. Die Frage ist daher, ob es in irgendeiner Form Raw über HDMIHDMI im Glossar erklärt geben wird - und ob da eventuell auch größere Kamerahersteller (wie z.B. Sony mit der anstehenden A7sIII) mitspielen werden.



Antwort von Jott:

Gut beobachtet. "ProRes raw für DSLR und Mirrorless" ist der Slogan. Da steigt wohl ein noch viel größerer Ballon als bisher gedacht.



Antwort von mash_gh4:


So kann man das aus technischer Perspektive sehen. Aus einer Marketing- bzw. Produktentwicklungsperspektive bedeutet es aber mehr, nämlich, dass es endlich signifikante Industrie-Bestrebungen gibt, um Raw-Video Mainstream zu machen. Bis vor kurzem hat die Industrie - mit der einzigen Ausnahme von Blackmagic - das für Kameras unterhalb der Klasse von Arri und RED offenbar nur als ein esoterisches Geek-Feature gesehen und mehr als stiefmütterlich behandelt.

ich würde das zwar natürlich auch gerne so sehen, da ich die damit verbundenen möglichkeiten in erschwinglichen kameras persönlich immer sehr stark vermisse, halte es aber leider trotzdem für ein wunschdenken, mit dem ich nicht sehr viel realistische hoffnungen verbinde.

das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten. RAW aufzuzeichnen und die nachbearbeitung auf leistungsstärkere rechner in der postproduktion auszulagern ist ja bekanntlich deutlich einfacher als jede form einer befriedigenden internen aufbereitung in der kamera. blackmagic hat hier also einfach nur aus der not eine tugend gemacht -- aber eben auch weiter nichts damit zu verlieren gehabt. bei den meisten anderen kameraproduzenten, die ja bekanntlich fast alle die eigentlichen sensoren vom gleichen fremhersteller beziehen, sieht die sache da ein bisserl anders aus. dort kommt der differenzierung über die firmenspezifischen farbvorstellungen ein ganz anderes gewicht zu, schließlich will ja keiner, dass das ergebnis völlig gleich wie bei der konkurrenz ausssieht, wie es bei zugang zu den RAW daten der fall wäre.

blackmagic hat aber damals, um diese lösung tatsächlich plausibel verkaufen zu können, auch einfach davinci aufkaufen und um entsprechende RAW-import möglichkeiten aufbohren müssen. das ist eine lösung, die nicht alle gehen wollen. ich sehe es in diesem zusammenhang weiterhin als ein ganz gravierendes problem, wie weit die gegenwärtig verfügbaren film-RAW-entwickler in ihren möglichkeiten hinter vergleichbaren programmen im foto-umfeld nachhinken. auch resolve ist diesbezüglich in meinen augen maximal ein akzeptabler kompromiss, aber nicht wirklich überzeugend.

Die Frage ist daher, ob es in irgendeiner Form Raw über HDMIHDMI im Glossar erklärt geben wird - und ob da eventuell auch größere Kamerahersteller (wie z.B. Sony mit der anstehenden A7sIII) mitspielen werden.

das ist technisch kein problem -- kann man schon länger am bsp. des apertus projekts praktisch demonstriert und erklärt bekommen:

https://www.apertus.org/axiom-beta-uhd- ... e-may-2016

sony macht das bei seinen raw-aufzeichnungsmöglichkeiten im zusammenhang mit externen rekordern nicht anders, nur dass dort halt ein großes geheimnis daraus gemacht wird...



Antwort von cantsin:


das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten. RAW aufzuzeichnen und die nachbearbeitung auf leistungsstärkere rechner in der postproduktion auszulagern ist ja bekanntlich deutlich einfacher als jede form einer befriedigenden internen aufbereitung in der kamera.
Blackmagics Kameras hatten schon immer exzellentes 10-Bit ProResProRes im Glossar erklärt in Log und Rec709. Da gab es keinen Zwang zu Raw. Im Gegenteil, hätte man Kameras wie die Pocket als reine ProRes-Kameras verkauft, hätten die meisten Käufer damit weniger Probleme gehabt und wäre die Kamera eventuell erfolgreicher am Markt gewesen.



Antwort von WoWu:

"Sehr interessant finde ich auch, dass Atomos jetzt seinen 5"-HDMI-Recorder neben ProResProRes im Glossar erklärt Raw bewirbt."

Lass uns erst mal abwarten, ob das überhaupt (echtes) RAW ist oder vielleicht nur wieder flaches Video.



Antwort von Jott:

Das Whitepaper zu lesen ist unter wowus Würde.



Antwort von Peppermintpost:

Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIHDMI im Glossar erklärt Ausgang einer Kamera auslese, dann hab ich ja debayertes Rec709, das hat ja mit RAW erstmal so garnichts zu tuen. Selbst wenn ich einen aufzeichnungs LUT benutze, dann sehen meine Farben zwar anders aus aber RAW ist das immer noch nicht. RAW ist doch die Sensordaten auszulesen oder nicht? Ohne debayering einfach luma Informationen in ein File schreiben, also Sensor_2_File.
Ist jetzt vereinfacht, ist mir auch klar, natürlich hockt da auch noch ein Prozessor dazwischen, aber wir reden ja grundsätzlich von Sensordaten und halt nicht von einem bereits mit einem Farbraum versehenen Bild.

Was soll mir dieses RAW FormatFormat im Glossar erklärt also im Falle eines Atomos der schön den HDMIHDMI im Glossar erklärt einer Nikon ausliest bringen? Verstehe ich nicht? Jetzt sehen wir aus dem sog. Whitepaper das da offensichtlich noch eine KompressionKompression im Glossar erklärt am Werke ist die noch härter zuschlägt als ProResProRes im Glossar erklärt es sowieso schon tut (ca. 1:6) und das es sich jetzt durch eine besondere BitBit im Glossar erklärt Tiefe auszeichnet hab ich auch nicht gelesen.

Was ist jetzt also genau die Frohe Botschaft? Wieso haben wir schon wieder 4 Seiten Hass Komentare?



Antwort von cantsin:


Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIWas soll mir dieses RAW FormatFormat im Glossar erklärt also im Falle eines Atomos der schön den HDMIHDMI im Glossar erklärt einer Nikon ausliest bringen? Verstehe ich nicht?

ProRes Raw aus einer (heutigen) Nikon per HDMIHDMI im Glossar erklärt auslesen, geht sowieso nicht.

Was Atomos aber in der Vergangenheit gemacht und hingekriegt hat, ist, in Zusammenarbeit mit Kameraherstellern (wie Sony bei der FS5 und Panasonic bei der EVA) ein undebayertes Signal über SDISDI im Glossar erklärt auszulesen und als CinemaDNG Raw aufzuzeichnen. Ich vermute, mit proprietären Protokollen/Handshakes.

Auf ihrer Website geben sie an, ProResProRes im Glossar erklärt Raw via SDISDI im Glossar erklärt mit zwei ihrer Recorder aus einer Handvoll Panasonic- (EVA + Varicam), Sony- und Canon (C200)-Kameras aufzeichnen zu können.

Ausserdem bewerben sie jetzt auf der NAB einen neuen 5"-HDMI-Recorder direkt neben ProResProRes im Glossar erklärt Raw. Die Frage ist also, (a) ob es in der Zukunft Kameras geben wird, die über ein (proprietäres) Protokoll undebayerte Videosignale per HDMIHDMI im Glossar erklärt an Atomos-Recorder schicken können, die dann in ProResProRes im Glossar erklärt Raw aufgezeichnet werden, und - falls das so kommt - ob dann (b) es eine neue Klasse von Consumer-/Prosumerkameras mit externer Raw-Aufzeichnung geben wird. HDMIHDMI im Glossar erklärt findet man ja eher bei A7, GHx und Konsorten. Wenn man jetzt noch weiter spekuliert, liegt die Frage auf der Hand, ob eventuell die künftige A7sIII sowas anbieten wird.



Antwort von wolfgang:



Nachdem raw nicht definiert ist, sind viele Lösungen denkbar. Mir hätte es etwa schon gereicht wenn man das Material in den Rekordern in herkömmlichen ProResProRes im Glossar erklärt abgelegt hätte.

im Produktfolder von Panasonic steht nur unter raw Output FormatFormat im Glossar erklärt 5.7 raw mit späterem Firmware Update. Und mit keiner Einschränkung auf die Mac Welt.

Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten. Denn es ist nicht geliefert wenn man es nicht nutzen kann obwohl man die im Vorfeld genannte Hardware hat (EVA1 und Shogun Inferno).

Wenn du den RAW Output in ProResProRes im Glossar erklärt debayerst, hast du kein RAW mehr. Natürlich kannst du den gecroppten 4K RAW Stream als CDNG, ProResProRes im Glossar erklärt oder DNxHDDNxHD im Glossar erklärt speichern. Nur eben nicht die 5.7K. Das geht vorerst nur in PRR. Und, dass der Inferno mit den 5.7K umgehen können wird, stand auch nirgendwo.

Wer sagt denn dass ich unbedingt das 5.7K Material als raw benötigt hätte? Mir hätte es als ProResProRes im Glossar erklärt gereicht.



Antwort von wolfgang:


Das Versprechen, raw 5.7K mit Ende März zu liefern, wurde daher nicht eingehalten.

Klar wurde es eingehalten. Schreibst du selbst. Halt (vorerst) für 2,5+ Millionen Leute, zu denen du halt nicht gehörst. Deine Entscheidung, nicht deren Schuld.

"Merkst du eigentlich selbst noch was du da für einen Unsinn schreibst?" Geliefert oder nicht?

Für einen Usersnteil von um die 12%.

Großartig.



Antwort von wolfgang:


Wer das Interview mit Jeromy Young aufmerksam verfolgt wird zu folgenden Schlüssen gelangen:

1. Die Idee zu ProResProRes im Glossar erklärt RAW kam von Atomos. Vor allem deshalb, weil die DNG Verarbeitung zu aufwendig schien.

2. Seit Firmengründung ist Apple Partner von Atomos, also war das der erste Ansprechpartner.

3. Als Launch Partner ist die Verarbeitung erstmal FCPX vorbehalten.

4. Jeromy hofft auf eine breite Unterstützung in Soft- und Hardware in den kommenden Monaten.

5. Den High End Markt (Arri) hat er bewusst nicht im Visier, er will Raw for the masses, das mit geringen Anforderungen zurecht kommt. Somit ideal für AIO Rechner ohne performante OpenGL Hardware oder CPU Leistung.

Alles richtig, genau so habe ich auch sein Interview verstanden. Er ist und bleibt halt ein energiegeladener und stärker Visionär, und solche Leute setzten ihre Vision auch um und sind damit durchaus oft erfolgreich.

Ob das mit ProResProRes im Glossar erklärt RAW klappen kann wird man sehen. Ob er die Unterstützung von Adobe, Blackmagic, Grass Valley und Magix bekommt wird man sehen. Schlecht wäre es nicht, um aus dem raw Durcheinander rauszukommen. Skeptisch darf man aber sein.



Antwort von Jott:

Atomos baut doch keine Geräte nur für die "12%". Die sind ja nicht bescheuert, waren sie bisher auch nicht. Vielleicht ein paar Tage oder Wochen Geduld?

Jeder NLE- und Kamerahersteller wird wenige Minuten nach Messeöffnung von all den Bloggern als erstes gefragt werden: Unterstützung von ProResProRes im Glossar erklärt RAW? Die Antwort geht dann sofort um die Welt. Bis dahin einfach noch in die Sonne legen.



Antwort von wolfgang:



Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIWas soll mir dieses RAW FormatFormat im Glossar erklärt also im Falle eines Atomos der schön den HDMIHDMI im Glossar erklärt einer Nikon ausliest bringen? Verstehe ich nicht?

ProRes Raw aus einer (heutigen) Nikon per HDMIHDMI im Glossar erklärt auslesen, geht sowieso nicht.

Was Atomos aber in der Vergangenheit gemacht und hingekriegt hat, ist, in Zusammenarbeit mit Kameraherstellern (wie Sony bei der FS5 und Panasonic bei der EVA) ein undebayertes Signal über SDISDI im Glossar erklärt auszulesen und als CinemaDNG Raw aufzuzeichnen. Ich vermute, mit proprietären Protokollen/Handshakes.

Auf ihrer Website geben sie an, ProResProRes im Glossar erklärt Raw via SDISDI im Glossar erklärt mit zwei ihrer Recorder aus einer Handvoll Panasonic- (EVA + Varicam), Sony- und Canon (C200)-Kameras aufzeichnen zu können.

Ausserdem bewerben sie jetzt auf der NAB einen neuen 5"-HDMI-Recorder direkt neben ProResProRes im Glossar erklärt Raw. Die Frage ist also, (a) ob es in der Zukunft Kameras geben wird, die über ein (proprietäres) Protokoll undebayerte Videosignale per HDMIHDMI im Glossar erklärt an Atomos-Recorder schicken können, die dann in ProResProRes im Glossar erklärt Raw aufgezeichnet werden, und - falls das so kommt - ob dann (b) es eine neue Klasse von Consumer-/Prosumerkameras mit externer Raw-Aufzeichnung geben wird. HDMIHDMI im Glossar erklärt findet man ja eher bei A7, GHx und Konsorten. Wenn man jetzt noch weiter spekuliert, liegt die Frage auf der Hand, ob eventuell die künftige A7sIII sowas anbieten wird.

Oder sie verpassen dem Ninja doch nur eine SDISDI im Glossar erklärt Schnittstelle. ;)



Antwort von nic:


Ich glaube ich hab da irgend einen Verständniss Fehler. Wenn ich den HDMIHDMI im Glossar erklärt Ausgang einer Kamera auslese, dann hab ich ja debayertes Rec709, das hat ja mit RAW erstmal so garnichts zu tuen. Selbst wenn ich einen aufzeichnungs LUT benutze, dann sehen meine Farben zwar anders aus aber RAW ist das immer noch nicht. RAW ist doch die Sensordaten auszulesen oder nicht? Ohne debayering einfach luma Informationen in ein File schreiben, also Sensor_2_File.
Ist jetzt vereinfacht, ist mir auch klar, natürlich hockt da auch noch ein Prozessor dazwischen, aber wir reden ja grundsätzlich von Sensordaten und halt nicht von einem bereits mit einem Farbraum versehenen Bild.

Was soll mir dieses RAW FormatFormat im Glossar erklärt also im Falle eines Atomos der schön den HDMIHDMI im Glossar erklärt einer Nikon ausliest bringen? Verstehe ich nicht? Jetzt sehen wir aus dem sog. Whitepaper das da offensichtlich noch eine KompressionKompression im Glossar erklärt am Werke ist die noch härter zuschlägt als ProResProRes im Glossar erklärt es sowieso schon tut (ca. 1:6) und das es sich jetzt durch eine besondere BitBit im Glossar erklärt Tiefe auszeichnet hab ich auch nicht gelesen.

Was ist jetzt also genau die Frohe Botschaft? Wieso haben wir schon wieder 4 Seiten Hass Komentare?

Wie cantsin schon schrieb: es muss natürlich von Kameraseite ein RAW-Stream anliegen und kein Videosignal. Bei Panasonic gibt es am SDI-port zB einen 10bit RAW in log. Bei Sony 12bit linear. Ob das jetzt über HDMIHDMI im Glossar erklärt, SDISDI im Glossar erklärt oder Rauchzeichen als Schnittstelle geschieht, ist ja irrlelvant, sofern sich Kamera und Rekorder verstehen. Das muss dann nur weggespeichert werden in einem FormatFormat im Glossar erklärt, das auch die NLEs verstehen.
Bedenke: PRR muss nur 1/3 der Werte (RAW) von PR 444 (RGB) komprimieren mit vergleichbarer DatenrateDatenrate im Glossar erklärt aber mit einem vergleichbaren Algorithmus. Welche KompressionKompression im Glossar erklärt stärker zuschlägt, kannst du dir denken.



Antwort von Jott:

Ninja mit SDI? Dann wäre die Werbung "ProRes raw für DSLR und Mirrorless" aber sinnbefreit. Filmende Fotoapparate mit SDISDI im Glossar erklärt im Anflug? Glaube ich jetzt mal nicht. Raw-Signale über die HDMI-Buchse anbieten ist wohl realistischer.



Antwort von wolfgang:

Na warten wir es ab. Kann ja sein dass so eine innovative HDMIHDMI im Glossar erklärt Lösung naht und du recht hast . Oder aber man kommt einfach drauf dass der Shogun doch für viele recht schwer und groß ist, zusätzlich zu einer S35mm Kamera.



Antwort von DV_Chris:

Im professionellen Umfeld kann sich wohl niemand eine Aufwertung von HDMIHDMI im Glossar erklärt wünschen, solange es nicht mal eine standardisierte mechanische Fixierung gibt...



Antwort von Jott:

Das ist allerdings wahr. Ich würde so was nie ernsthaft benutzen, zu labberig, aber das hat nichts zu sagen. Externe HDMI-Recorder sind schon seit vielen Jahren hip und quasi Zwangszubehör! :-)



Antwort von Axel:


Im professionellen Umfeld kann sich wohl niemand eine Aufwertung von HDMIHDMI im Glossar erklärt wünschen, solange es nicht mal eine standardisierte mechanische Fixierung gibt...

Was ist denn heute "das professionelle Umfeld"?

Gibt es etwa keine Profis (hauptberufliche), die nicht zumindest auch mit spiegellosen Systemkameras hantieren? Wegen Größe und Handlichkeit z.B.?

Benutzen die dann nie HDMI-Fieldrecorder oder HDMI-Monitore?

Sind die kleinen Kabelklemmen/Zugentlastungs-Stopper, die es, je nach Hersteller für 7-70 € gibt, weniger sicher als ein (vergleichsweise auch starres) SDI-Kabel?



Antwort von Frank Glencairn:



das blackmagic diesen weg beschritten hat, hat in meinen augen ausschließlich damit zu tun, dass sie zum zeitpunkt des erscheinens ihrer ersten kameras einfach nicht in der lage gewesen wären, ein andere lösung umzusetzten.
blackmagic hat aber damals, um diese lösung tatsächlich plausibel verkaufen zu können, auch einfach davinci aufkaufen und um entsprechende RAW-import möglichkeiten aufbohren müssen. das ist eine lösung,

Da kennst du BM aber schlecht :-)

Bei BM ging's immer schon - seit der ersten Decklink Karte - hauptsächlich um eines: so-unkomprimiert-wie-möglich.
Als sie Resolve aufgekauft hatten, wollten sie den Leuten auch eine Kamera an die Hand geben, deren Material beim ersten Anfassen nicht auseinander fällt - DAS war der Grund für die Kamera Entwicklung und der Grund für RAW.
Das sie In-Kamera Debayering nebenbei sowieso beherrschen, sieht man ja daran, daß die selbe Hardware völlig Problemlos 709 in verschiedenen Codecs aufzeichnen kann.



Antwort von WoWu:

Fraglich, was da wirklich auf HDMIHDMI im Glossar erklärt ausgegeben wird ...

"The Sony FS RAW Record Option features a unique RAW-to-video mode, where the 4K RAW data is deBayered and turned into high quality video, which is then captured in Apple ProRes. Although all formats are derived from the 4K RAW data, recordings are available in 4K and UHD up to 30fps as well as 2K and HD up to 60fps."

Auch die oben verlinkte Methode ist nichts anderes als die KompressionKompression im Glossar erklärt in ein anderes (Video)Frame. Das hat nichts mit echtem RAW zu tun.
Darüber hinaus denke ich auch, dass HDMIHDMI im Glossar erklärt nicht eben mal seinen Standard für proprietären Kram zur Verfügung stellt.
Dazu kommt noch, dass die höheren Bandbreiten auf HDMIHDMI im Glossar erklärt über die Clock geregelt werden.
So gesehen ist HDMIHDMI im Glossar erklärt für nicht Videosignale denkbar ungeeignet.
Und wenn der 5"Monitor PPR über HDMIHDMI im Glossar erklärt macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Wir werden es abwarten müssen.



Antwort von cantsin:


Und wenn der 5"Monitor PPR über HDMIHDMI im Glossar erklärt macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.

Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?! (Ich denke da an alte Computerzeiten - Modemtechnologie und uuencode/uudecode -, aber auch heutige Methoden, um z.B. Netzwerkprotokolle durch andere Netzwerkprotokolle zu tunneln.)



Antwort von nic:


Fraglich, was da wirklich auf HDMIHDMI im Glossar erklärt ausgegeben wird ...

"The Sony FS RAW Record Option features a unique RAW-to-video mode, where the 4K RAW data is deBayered and turned into high quality video, which is then captured in Apple ProRes. Although all formats are derived from the 4K RAW data, recordings are available in 4K and UHD up to 30fps as well as 2K and HD up to 60fps."

Auch die oben verlinkte Methode ist nichts anderes als die KompressionKompression im Glossar erklärt in ein anderes (Video)Frame. Das hat nichts mit echtem RAW zu tun.
Darüber hinaus denke ich auch, dass HDMIHDMI im Glossar erklärt nicht eben mal seinen Standard für proprietären Kram zur Verfügung stellt.
Dazu kommt noch, dass die höheren Bandbreiten auf HDMIHDMI im Glossar erklärt über die Clock geregelt werden.
So gesehen ist HDMIHDMI im Glossar erklärt für nicht Videosignale denkbar ungeeignet.
Und wenn der 5"Monitor PPR über HDMIHDMI im Glossar erklärt macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.
Wir werden es abwarten müssen.

Du verwechselst da etwas. Convergent Design beschreibt in dem Text was rekorderseitig passiert. Das debayering nimmt deren Gerät vor und nicht die Kamera. Die gibt nämlich ein 12bit lineares Sensorsignal aus.



Antwort von wolfgang:

Und Atomos macht das gleiche Spiel. Wobei das Sony Signal ja sehr wohl noch komprimiert ist.



Antwort von Jott:


Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?!

Auf dvxuser wurde das Thema raw über HDMIHDMI im Glossar erklärt schon öfters mal diskutiert.

Mitch Gross, Panasonic Product Manager (unzweifelhaft jemand, der Bescheid weiß):

"So if you were to build a device with RAW output over HDMIHDMI im Glossar erklärt, you would likely also have to build the device on the other end. And if you are going to do that, you are going to be spending a lot of time and money to make this system work, and it will all be a technical cheat and jumping through a lot of hoops in order to make it work with the limiting factors of the signal path that must be adhered to in order to remain HDMI-compliant ... so short answer is yes it is technicaly possible to send RAW over HDMI."

Mal schauen, vielleicht wird der "Trick" ja von Atomos und dem einen oder anderen Kamerahersteller so gepusht und salonfähig.



Antwort von cantsin:


And if you are going to do that, you are going to be spending a lot of time and money to make this system work, and it will all be a technical cheat and jumping through a lot of hoops in order to make it work with the limiting factors of the signal path that must be adhered to in order to remain HDMI-compliant ...
so short answer is yes it is technicaly possible to send RAW over HDMI."

Mal schauen, vielleicht wird das ja von Atomos zu gepusht und salonfähig.

Gehen wir mal davon aus, dass Atomos in diesen Entwicklungsaufwand investiert hat. Die wollen ja im Zeitalter von interner 10bit-Aufzeichnung in Prosumerkameras kein Auslaufmodell werden und Leuten weiterhin Gründe geben, die Extrakosten und Mühen der externen Aufzeichnung nicht zu scheuen.



Antwort von Funless:


Mal schauen, vielleicht wird der "Trick" ja von Atomos und dem einen oder anderen Kamerahersteller so gepusht und salonfähig.

Ich vermute ganz stark, dass es sich in diese Richtung bewegen wird.



Antwort von DV_Chris:

In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online



Antwort von WoWu:



Und wenn der 5"Monitor PPR über HDMIHDMI im Glossar erklärt macht, deutet das zunächst mal darauf hin, dass es ein Videosignal ist und kein Paketformat.

Aber es ist doch denkbar, Raw-Daten in ein Pseudo-Videosignal zu verpacken und anschließend wieder auszupacken?! (Ich denke da an alte Computerzeiten - Modemtechnologie und uuencode/uudecode -, aber auch heutige Methoden, um z.B. Netzwerkprotokolle durch andere Netzwerkprotokolle zu tunneln.)

Denkbar ist das schon, Arri macht ja sowas mit seinem T-link RAW auch, nur eben über Dual SDI. Wenn man das Ganze mit den nötigen Timings versieht, kommen da auch Daten in einem Videosignal verpackt raus.
Damit ist das dann aber keine HDMIHDMI im Glossar erklärt Schnittstelle mehr sondern nur noch ein HDMIHDMI im Glossar erklärt Stecker mit Kabel denn HDMIHDMI im Glossar erklärt besteht ja immer aus einem Sender und einem Empfänger, die ein Handsake voraussetzen.
Nimmt man aber die Schnittstelle, müsste beides ersetzt werden und hätte dann nichts mehr mit HDMIHDMI im Glossar erklärt zu tun.
Frage ist ja auch, warum man dann nicht lieber über SDTI als Datenschnittstelle geht.
Aber wir werden es morgen ja sehen oder spätestens, wenn jemand mal so eine Kette betreibt.
Aber so oder so müssten sich erst mal genügend Hersteller finden, die solche Hardwareeingriffe mitmachen.
Wenn ADOBE für ihr relativ einfaches Verfahren keine Mitstreitet gefunden hat, dann fragt sich’s ob es Apple da anders geht.
ADOBE ist ja auch daran gescheitert, dass die Hersteller ihre Prozessspezifischen Daten nicht in die Metadaten eingefügt haben und das RAW Signal dann interpretiert werden musst, was zu deutlichen Abweichungen geführt hat.
Warum sollten sie ihre RAW "Geheimnisse" nun Apple anvertrauen ?

Ich bin da noch skeptisch.
Freuen würde es mich, wenn sie, wie ich oben schon angemerkt habe, in die Vectorübertragung gehen würden.
Das wäre endlich mal ein signifikanter Schritt nach vorn.



Antwort von WoWu:


In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online

? ich krieg da nur ein Werbeposter ?



Antwort von DV_Chris:

Für alle, die sich etwa auf die FS5Mk2 freuen: die Sony PK beginnt um Mitternacht, also in zwei Stunden.



Antwort von Jott:


In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online

Das war schon im Februar rumgegeistert:

http://www.fcp.co/final-cut-pro/article ... o-x-at-bve



Antwort von cantsin:



In Sachen Raw/Grading gibt es für FCPX morgen auch eine sehr interessante Ankündigung:

https://colorsynth.codex.online

? ich krieg da nur ein Werbeposter ?

Ich verstehe das so, dass jetzt auch Hardware-Gradingpanels, die es bisher nur für Resolve & Co gab, für FCPX angeboten werden. Für einen Markt/Bedarf, der offenbar durch ProResProRes im Glossar erklärt Raw gerade geschaffen wird.



Antwort von DV_Chris:

Da geht es ja nicht nur um das Panel sondern auch um die Grading Software, die als PluginPlugin im Glossar erklärt in FCPX läuft. Spannende Woche.



Antwort von WoWu:

Hmmm.
ob man da jetzt nicht zuviel hineininterpretiert ?
Warum sollten sie ihr Panel und ihre Software nicht auch für FCP anbieten und zur NAB in den Markt bringen ?
Na ja, wir werden es sehen.



Antwort von motiongroup:

viewtopic.php?f=29&t=140576&p=937581#p937581

Interessierte nur keinen Menschen.. ;)

@Dr.

Na klar wird hier zu viel hineininterpretiert...

Das war immer so und wird immer immer so sein.. wie auch bei Prores ..

Es wird einefach verwendet werden auch wenns es von den Gurus als veraltet, dreck, unnötig, nicht kostenlos usw erscheint..
Die Windowsfraktion braucht sich doch eh keine Sorgen machen.. erstens haben sie genug Auswahlmöglichkeiten bis hin zu unkomp und dem allseitsgeliebten Cineform und lesen Werders ihr es alle können nur exportieren nur gewisse die sich auch ein Programm dafür nehmen und dafür blechen was wiederum legitim für Apple ist da es alle anderen auch so tun..

Freut euch doch auf etwas neues.. die Welt ist doch Trist genug...



Antwort von nic:

Kinefinity wird wohl auch PRR implementieren.

https://www.newsshooter.com/2018/04/09/ ... vo-primes/



Antwort von blickfeld:

im nächsten ae und pre update ist prores raw wohl auch mit drin. wird wohl nur ein paar tage dauern, so wie es aussieht. ob man es braucht, ist wieder rum eine andere frage, die der markt klären wird.



Antwort von nic:


im nächsten ae und pre update ist prores raw wohl auch mit drin. wird wohl nur ein paar tage dauern, so wie es aussieht. ob man es braucht, ist wieder rum eine andere frage, die der markt klären wird.

Quelle?



Antwort von blickfeld:

die öffentlich zittierbare quelle:

We’re looking into adding support for ProResProRes im Glossar erklärt RAW as we speak.
https://adobe-video.uservoice.com/forum ... _id=332668
und mehr habe ich nicht gesagt ;).



Antwort von R S K:

Ist ja auch wahrlich keine Überraschung. BMD dann nächste Woche.

- RK



Antwort von DV_Chris:

Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProResProRes im Glossar erklärt RAW.



Antwort von wolfgang:


Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProResProRes im Glossar erklärt RAW.

Absolut. Und hat komprimierte CDNG (3:1, 4:1) Varianten.



Antwort von R S K:

Und hat komprimierte CDNG (3:1, 4:1) Varianten.

Mache grad die ersten Tests. Ist von der Performance her nicht mal im Ansatz zu vergleichen.

- RK



Antwort von wolfgang:

ProRes RAW wird in der Liste der unterstützen codecs NICHT aufgeführt.

https://www.blackmagicdesign.com/manual ... c_List.pdf



Antwort von wolfgang:

Und auch nach erfolgter Installation des Beta1 wird ProResProRes im Glossar erklärt RAW eben NICHT unterstützt.



Antwort von R S K:

Ach so… weitere Updates sind also nie wieder geplant? Schade.

😏

Du glaubst doch nicht wirklich, dass wenn sogar Adobe auf den Zug aufspringt, dass die nicht nachziehen? Nur weil es am ersten Tag und in einer BETA nicht so ist, ist alles klar, oder wie? Wer's glaubt.

Und wenn… bestenfalls deren Problem. Wir werden ja sehen.

- RK



Antwort von WoWu:

War nicht auch bisher nur vom 5" Monitor im Zusammenhang mit PRR die Rede ?



Antwort von Axel:


Die neue Pocket bleibt bei DNG. Bei der Resolve Vorstellung gerade auch kein Wort zu ProResProRes im Glossar erklärt RAW.

Interviewer: "... and in terms of codecs? Recording codecs? It keeps the old ones?"
Grant Petty: "Yes, obviously we do RAW, ProResProRes im Glossar erklärt, and,er, and ... ... we can add other codecs of course ..."



Antwort von nic:


War nicht auch bisher nur vom 5" Monitor im Zusammenhang mit PRR die Rede ?

Shogun Inferno und Sumo sind die SDI-Raw-Rekorder.



Antwort von WoWu:

Ja, verstehe ...
Nur interessant ist ja die Verbindung zu HDMI.
mal sehn, ob das wirklich klappt.
Da müsste ja während der NAB auch schon mal jemand in der Lage sein, das zu verifizieren.



Antwort von DV_Chris:

Grant Petty hat bei der Präsentation eben ProResProRes im Glossar erklärt RAW mit keinem Wort erwähnt. Auch bei Sony oder Canon hört man nichts auf der NAB. Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.



Antwort von WoWu:

Wenn man dem Intetview von Atomos (Jeromy Young ) auf der NAB glauben darf, kann der neue Ninja V das auch noch nicht ...(sometimes in the future).
Denn der Ninja soll das ja auch über HDMIHDMI im Glossar erklärt kriegen.



Antwort von Axel:


Grant Petty hat bei der Präsentation eben ProResProRes im Glossar erklärt RAW mit keinem Wort erwähnt. Auch bei Sony oder Canon hört man nichts auf der NAB. Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.

Kommt Zeit kommt Rat.

Es ist anscheinend so, wie ich vorgestern schrieb.

Apple hätte wenig davon, PRR gegen eine bescheidene Gebühr unter‘s Volk zu bringen. Da dieses hier so eine Art Vorhersage-Wette wird, hier meine: PRR wird nichts welterschütternd Neues, nur eine Art aufgebohrtes Cineform Raw mit etwas schlankeren Datenraten. Es wird für wenigstens ein Jahr nicht auf Resolve verfügbar sein und deswegen wohl auch nicht auf BM Kameras. Denn die sind, wie cantsin sehr richtig sagte, das "Raw für jedermann". Nicht allein durch CDNG auf ihren günstigen Kameras, sondern durch die Software, das "Ökosystem". Das will FCP jetzt auch schaffen, mit einem alternativen Ansatz.

Damit also wollte man gar keinen Industriestandard schaffen, sondern im Gegenteil ein proprietäres Gemauschel zwischen Atomos und Apple. PRR schnell überall zu verbreiten wäre doch ganz leicht gewesen.



Antwort von WoWu:

Jeromy Young hat in dem Interview aber ziemlich deutlich den Wunsch, einen neuen Standard zu schaffen, Ausdruck verleiht.
" Panasonic .... give me HDML RAW..."

https://youtu.be/0l3tknMX6wk



Antwort von wolfgang:


Ach so… weitere Updates sind also nie wieder geplant? Schade.

Sagt wer? Wir reden bei Resolve 15 Studio Beta1 von einem public beta, und weil es wohl ziemlich unwahrscheinlich ist dass es bei dem public beta bleibt wird es wohl ein weiteres beta geben, und dann noch eines.... also bitte.

Aber Fakt ist, dass die gerade angekündigte Pocket eben NICHT auf ProResProRes im Glossar erklärt Raw setzt, und dass das Beta1 von Resolve eben dieses FormatFormat im Glossar erklärt nicht kann. Das werden sogar hardliner wie du zur Kenntnis nehmen müssen.



Antwort von Jott:

Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.

Aber wenn's stimmt, das Adobe mitspielen wird ...



Antwort von DV_Chris:

Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.



Antwort von WoWu:

Es wäre ja schon mal schön, wenn irgend eine Kamera mitspielen würde denn auch BMDs Ninja 5 kann es ohne Kamera nicht.



Antwort von wolfgang:


Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.

Ja aber gerade BM hält sich nicht eisern an solche Regeln.



Antwort von DV_Chris:


Somit scheint der Wunsch von Jeromy Young und Apple, hier einen neuen Industriestandard etablieren zu wollen, sehr optimistisch gedacht.

Aber wenn's stimmt, das Adobe mitspielen wird ...

Es werden wohl mehrere NLE das FormatFormat im Glossar erklärt lesen können. Ist halt die Frage, wie weit oben das auf der Prioritätenliste steht.

Aber wenn die Akquisition ausschließlich zwei externen Rekordern vorbehalten sein wird, ist das eine reine Nischenveranstaltung. Und bei BMD sieht alles nach einem klaren Nein aus.

Apropos Rekorder: weder von Convergent Design noch AJA gibt es ein Wort zu PRR. Im Gegenteil, AJA unterstützt jetzt Avid DNxHR .



Antwort von WoWu:

Die Recorder nutzen auch noch nix.

Davor muss ein Sensor sitzen und ein Kamerahersteller, der den CodecCodec im Glossar erklärt implementiert hat.
Wenn irgend eine BMD Kamera das könnte, hätten sie es sicher gezeigt.



Antwort von motiongroup:



Als Apple Software Intimus sollte RSK eigentlich wissen, dass bei "Beta" der Feature Katalog in der Regel geschlossen ist und es nur um das Aufspüren von Bugs geht.

Ja aber gerade BM hält sich nicht eisern an solche Regeln.

Sie halten sich nicht nur nicht in der BETAPhase daran auch in der final REL wurden immer wieder neue eingepflegt.. ;)



Antwort von DV_Chris:

Es gibt zwei Gründe, warum BMD das PRR wohl nicht so schnell implementieren wird:

1. Die haben seit Jahren einen funktionierenden CDNG Workflow.

2. Atomos ist ein direkter Konkurrent.



Antwort von WoWu:

Und was soll dann der CodecCodec im Glossar erklärt ?



Antwort von wolfgang:


Es gibt zwei Gründe, warum BMD das PRR wohl nicht so schnell implementieren wird:

1. Die haben seit Jahren einen funktionierenden CDNG Workflow.

2. Atomos ist ein direkter Konkurrent.

3. Das Verhältnis der beiden Gründer zueinander ;)



Antwort von Frank Glencairn:



2. Atomos ist ein direkter Konkurrent.

...und ex BM Angestellter :-)



Antwort von WoWu:

Das ganze Thema kann man doch getrost ad acta legen.
PRR ist weder irgendwo implementiert, noch unterstützt der neue NINJA das Format.
Insoweit ist es auch ziemlich egal, ob irgend ein NLE das jemals unterstützt, solange es keine Kameras gibt, die das ausgeben und wie es scheint, kann auch die neue BMD Pocket das noch nicht.

Worüber reden wir also ?
Über einen CodecCodec im Glossar erklärt, der die Bezeichnung RAW trägt, von dem aber niemand weiß, ob es sich um ein echtes RAW FormatFormat im Glossar erklärt handelt oder wieder nur so ein pseudo RAW-Video, wovon es nun wirklich schon ausreichend gibt und von dem es noch nicht einmal eine Beurteilungsgrundlage für die Qualität gibt.
Mal ganz davon abgesehen, dass auch nicht klar ist, wie die hardwarspezifischen Eigenschaften der Kameras in dem CodecCodec im Glossar erklärt behandelt werden, woran ja schon ADOBE gescheitert ist.

Viel Lärm also, um nichts.



Antwort von Jott:

Wenn ich richtig zähle, sind‘s am ersten Messetag schon 9 Kameras, die kompatibel sind. Sony und Panasonic gehören dazu. Viel Lärm, ja, aber wirklich um nichts?

Zum Beispiel:

https://www.redsharknews.com/production ... -fs5-fs5ii



Antwort von wolfgang:

Das würde ich auch so sehen. Der "Lärm" dürfte lauter werden. Die Sache wird etwa von NLE Herstellern sehr genau beobachtet werden.



Antwort von WoWu:

Wenn da man nicht der Wunsch Vater des Gedankens ist.



Antwort von DV_Chris:

9 Kameras (davon zwei bereits EOL) extern auf zwei Rekorder in eine NLE. Dünn.



Antwort von rush:


9 Kameras (davon zwei bereits EOL) extern auf zwei Rekorder in eine NLE. Dünn.

Naja aber ist doch immerhin ein "Anfang".

CDNG ist auch nicht sonderlich verbreitet wenn man mal ehrlich ist.
Ganz zu schweigen von all den proprietären Lösungen.

Ich sehe da aber auch viel eher die Softwarehersteller in der Pflicht, denn ob Pro Res RAW zu einem "Standard" werden könnte sehe ich eher skeptisch, muss es ja aber vielleicht auch gar nicht... Im Fotobereich gibt es ja auch diverse RAW-Formate wie NEF's, CRW, ORF, ARW's und Co und letzten Endes ist es Aufgabe des RAW-Konvertes die verschiedensten Formate lesen und interpretieren zu können... DNG bietet zwar eine Cross-Konvertierungsmöglichkeit bzw lassen sich viele RAW-Formate dahingehend wandeln... in die Kameras selbst hat es DNG - genauso wenig wie CDNG dagegen kaum direkt geschaft.



Antwort von DV_Chris:

Wie ich schon geschrieben habe:

Aktuell weder Thema bei Sony, Canon. BMD, Convergent Design und AJA.



Antwort von rush:

Habe mich nicht weiter damit beschäftigt - aber zumindest für die fs5 und fs5II von Sony ist extern per Atomos Sdi Recorder proRes RAW machbar.... Intern kann die kleine eh kein RAW, daher spielt Sony zumindest indirekt mit wenn sie die Möglichkeit geben das entsprechend rauszugeben.

Und das 1-2 Tage nicht all sofort an Board sind dürfte auch klar sein...

Ich bin ja auch skeptisch aber schauen wir einfach Mal was die Zeit so bringt.



Antwort von Jott:

Bleiben wir mal sachlich: die Bestsellerkamera
FS5 kriegt eine neue Firmware für das ProResProRes im Glossar erklärt RAW-Recording. Die Mark II ist sowieso schon dabei. Die EVA auch, 5,6K raw ist doch nett? Auch die anderen mit Atomos/ProRes RAW spielenden genannten Kameras sind nicht gerade Exoten. Wie viele FS7 und FS700 gibt es da draußen? Schon mehr als eine Handvoll.

ProRes RAW gibt es jetzt seit - öhm - gerade mal einem Tag. Wie sieht‘s in einem Jahr aus? Weiß doch keiner. Auch nicht das traditionelle ProRes/Apple-Niedermach-Pärchen DV-Chris/wowu. Ihr beide habt keinerlei Einfluß auf den Lauf der Dinge. Auch nach all den Jahren gibt es Apple immer noch, es wächst und gedeiht, der Kampf fruchtet einfach nicht! :-)

Und müssen tut sowieso niemand, nicht wahr? Was sich zeigen wird ist, ob die anfängliche Schnittmenge aus fcp x-Nutzern, Atomos- und Kamerabesitzern happy sein wird mit dem neuen RAW-Workflow und den Resultaten. Es wird berichtet werden. Auch bald aus dem Adobe-Lager?

Patrick Palmer (Sr. Product Manager, Adobe DVA) auf deren Seite für Feature Requests:

"We’re looking into adding support for ProResProRes im Glossar erklärt RAW as we speak."



Antwort von TomStg:

Auch nach all den Jahren gibt es Apple immer noch, es wächst und gedeiht, der Kampf fruchtet einfach nicht! :-)

Randbemerkung
Apples Existenz und Erfolg hat Gottseidank wirklich nichts mit den Usern hier zu tun - egal, ob Niedermacher oder Fanboys. Etwas mehr hat es mit der Rechner- und Softwaresparte zu tun:
Aber Apples Erfolg beruht zu rund 85% auf den Verkäufen von Smartphones einschl iTunes und nachlassend auf den Tablets. Rund 11% des Umsatzes beruhen auf der Mac-Sparte. Nachzulesen zB in Apples Annual Report, Form 10-K. Welche Anteile die Sparten jeweils am Gewinn haben, bleibt zwar Apples Geheimnis, allerdings sind dort keine grundsätzlich andere Anteile anzunehmen.

Also: Apples Erfolg an der Rechner- und Softwaresparte ablesen zu wollen, geht an der Realität weit vorbei - auch wenn es dort im letzten Berichtsjahr eine leichte Erholgungstendenz gab.



Antwort von wolfgang:

Richtig ist sicher, dass man nicht weiß wie sich das entwickelt. Diese "nur 9 Geräte" haben allerdings im Markt der unter .000 Geräte ein gewisses Gewicht.

Und dass NLE Hersteller sogar für Einzelgeräte wie die C200 eine Implementierung für raw etwa in Edius gemacht haben, ist halt auch Fakt. Also warten wir mal ab.



Antwort von R S K:



Ach so… weitere Updates sind also nie wieder geplant? Schade.

Sagt wer?

Ah. Ich sehe ein wenig Sarkasmus ist also nicht deine Stärke. Ok. 😄

- RK



Antwort von R S K:

… aber niemand weiß, ob es sich um ein echtes RAW FormatFormat im Glossar erklärt handelt oder wieder nur so ein pseudo RAW-Video…

Jepp. WP lesen ist tatsächlich viel zu viel verlangt. Gut erkannt Jott. ;)

Viel Lärm also, um nichts.

Das qualifizierst du dann prompt tatsächlich einfach selbst.

Wenn da man nicht der Wunsch Vater des Gedankens ist.

👍🏼

- RK



Antwort von DV_Chris:

Jott, die NAB ist nun mal der größte Branchenevent des Jahres. Dort wird das angekündigt, was dann meist in 6-9 Monaten noch nicht lieferbar/implementiert ist. Hauptsache "spread the news".

Und was passiert gerade mit ProResProRes im Glossar erklärt RAW? Kein Kamerahersteller spricht von einer Implementierung. Kein Rekorderhersteller neben Atomos erwähnt das neue Format. Aja trommelt, dass man DNxHR implementiert hat. Alle NLE Hersteller winken vorerst mit "we're looking into it" ab.

Somit bleibt bis dato, was man seit dem Wochenende weiß: Atomos wollte das FormatFormat im Glossar erklärt aus Leistungsgründen. Durch die langjährige Geschäftsbeziehung war Apple erster Ansprechpartner. Damit auch die Implementierung in FCPX.

Also man nehme Besitzer einer kompatiblen Kamera, die dazu einen Shogun Inferno haben und FCPX nutzen. Was bleibt? Eine Nischenveranstaltung. Industriestandard sieht anders aus.



Antwort von wolfgang:

Richtig, Atomos hat das gebraucht um die bestehende Hardware nutzen zu können. Aber das finde ich absolut ok. Was nicht mehr ok ist, das ist wenn Hersteller wie Panasonic 5.7K raw versprechen. Und es nach diesem Versprechen zulassen dass reine Nischenlösungen wie PRR entstehen. Denn ich hoffe dass PRR auch in Windiws Lösungen einzieht, aber derzeit kann man das nur hoffen und steht damit doch ziemlich im Regen.



Antwort von Jott:

Was bleibt? Eine Nischenveranstaltung.

Du übst als PC-Händler schon wieder Verkaufsgespräche, was?

"ProRes Raw? Sinnloser Apple-Dreck. Ich bau dir einen schönen Edius-Rechner, was willst du mit unprofessionellem Zeugs? Apple ist längst raus aus der Profiwelt. Kein Mensch arbeitet mit so was. Schieß dir nicht ins Knie."

Ich kann leider nicht überzeugend in Wiener Dialekt schreiben! :-)



Antwort von R S K:

😂… wieder voll auf den Punkt.



Antwort von R S K:

… reine Nischenlösungen wie PRR…

Das weißt du schon am zweiten Tag dessen Existenz. (naja, genauer schon seit einer Woche, oder?) Faszinierend.

Wieso hört sich das auch alles so unheimlich bekannt an? Hmm... wie so ein sechs Jahre alter Echo oder sowas.

- RK



Antwort von DV_Chris:

Jott, hättest Du aufmerksamer gelesen dann wüsstest Du, dass ich den Ansatz als durchaus interessant empfunden habe. Und natürlich findest Du kein schlechtes Wort in Richtung Apple von mir in diesem Thread. Warum auch? Die Idee ist ja auch von Atomos.

Was seit gestern klar ist. Niemand kümmert das neue Format. Oder glaubst Du ernsthaft, Hersteller würden die NAB ungenutzt für Ankündigungen verstreichen lassen?

Also einfach die Kirche im Dorf lassen und die Ankündigung so lesen wie es ist:

Atomos bietet seit gestern einen neuartigen Resourcen schonenden RAW Workflow für FCPX an. Super für die FCPX Nutzer. Punkt.

Nachtrag: solche Formate werden über Monate/Jahre entwickelt und da gibt es viele Meetings. Sehr lustig, wenn Dein kleiner Claqueur suggerieren will, dass die grossen Unternehmen erst seit dem Interview von Jeromy davon wissen ;-)



Antwort von dienstag_01:

Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein FormatFormat im Glossar erklärt *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?



Antwort von DV_Chris:


Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein FormatFormat im Glossar erklärt *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?

Ist erstmal richtig. Niemand kennt aber die Patent- und Lizenzsituation dahinter. Nachdem sich Jeromy eine breite Unterstützung wünscht, werden wohl auch geschäftliche (read: monetäre) Interessen dahinter stehen.



Antwort von dienstag_01:



Ich habe sicher wie immer nicht alles verstanden, aber wenn ein Rekorder-Produzent ein FormatFormat im Glossar erklärt *erfindet*, tut er das doch in erster Linie für seine Rekorder, oder?

Ist erstmal richtig. Niemand kennt aber die Patent- und Lizenzsituation dahinter. Nachdem sich Jeromy eine breite Unterstützung wünscht, werden wohl auch geschäftliche (read: monetäre) Interessen dahinter stehen.

Klar, ich würde aber als direkter Konkurrent sehr sensibel darauf achten, dass da nicht die Bäume in den Himmel wachsen. Was mit einer Art Standard schnell passieren könnte.
Mal anders gedacht (oder besser: spekuliert), vielleicht ist die EVA 1 ja schon die erste leidtragende eines klitzekleinen Formatkrieges ;)



Antwort von wolfgang:


Was bleibt? Eine Nischenveranstaltung.

Du übst als PC-Händler schon wieder Verkaufsgespräche, was?

"ProRes Raw? Sinnloser Apple-Dreck. Ich bau dir einen schönen Edius-Rechner, was willst du mit unprofessionellem Zeugs? Apple ist längst raus aus der Profiwelt. Kein Mensch arbeitet mit so was. Schieß dir nicht ins Knie."

Ich kann leider nicht überzeugend in Wiener Dialekt schreiben! :-)

Jott man soll niemals Nie sagen. Von den potentiellen Vorteilen her kann PRR schon was sein. NUR wenn es die Industrie nicht passend adaptiert stirbt das potentiell beste System.

Die Vision des Atomos-Gründes fände ich schon gut - aber ob wie aufgeht wird hier in Summe eh stark angezweifelt.



Antwort von DV_Chris:

Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen FormatFormat im Glossar erklärt keine wirkliche Bedeutung zumisst. Auf Wienerisch: jo, eh (schau ma uns an aber brauch ma ned, hamma eh an eigenen Workflow)



Antwort von Jott:

Wieso sterben? Ist jemals eine ProRes-Variante gestorben? Die wurden nur immer wieder ergänzt, wie jetzt halt wieder, und nach und nach bauen die üblichen Verdächtigen die neuen Varianten ein.

Worst case: ProResProRes im Glossar erklärt Raw bleibt etwas Hübsches im Apple-Umfeld. Wenn 2,5 Millionen fcp-Nutzer so was bekommen, wird das rege genutzt werden, da stirbt ganz sicher nix, reicht.

Best case: Adobe spielt mit, wie angeteasert. Zuungunsten des unglücklichen CinemaDNG oder parallel dazu. Zweiter Schlüssel, vielleicht noch wichtiger: Arri. Die werden bereits bedrängt, das zu implementieren. Liegt ja auch nahe, wäre wohl wie bei Atomos nur ein Firmware-Update.

Warten wir mal ein halbes Jahr ab?

Für uns ist das jedenfalls nett. Eine FS5 II kommt sowieso, nicht wegen raw, sondern weil gerade was anderes rausfliegt. Allerdings haust direkt neben uns ein großer Verleiher mit prall gefülltem Shogun-Regal. Brauch ich wirklich mal raw, kann ich einen holen für ein paar Euro. Und wenn's in fcp x so flutscht wie versprochen (ich hab's noch nicht testen können), dann wüsste ich nicht, nach welchem Haar in der Suppe ich noch suchen sollte. Dass andere das als Hobby betreiben (das Haar-in-der-Suppe-suchen) sei ihnen gegönnt, wieso auch nicht.



Antwort von Jott:


Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen FormatFormat im Glossar erklärt keine wirkliche Bedeutung zumisst.

So? Was hörst du da bei 7:58? Er sagt, es ist zwar jetzt noch nicht implementiert, aber "of course we are looking into it", wie Adobe. Lass sie doch alle erst mal "looken"! :-)



Antwort von R S K:

Wenn man sich das Slashcam Interview zur 4K Pocket ansieht wird auch schnell klar, dass BMD dem neuen FormatFormat im Glossar erklärt keine wirkliche Bedeutung zumisst.

Ja klar. Das sie es nicht erwähnen kann KEINEN anderen Grund haben. Niemals. Welch geniale Schlussfolgerung.

Jedenfalls wenn sie einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM (ganz von den Kameras selbst zu schweigen), dann wären sie gut beraten PR raw als Option anzubieten (was sie auch tun werden). Dass sie im Moment darüber schweigen kann genauso politische oder gar rechtliche Gründe haben. Das kannst du kaum wissen. Wer hindert sie daran cDNG weiterhin zu behalten?? Die zahlen doch SOWIESO schon für die PR-Lizenz. Oder meinst du mit PR raw werden plötzlich MILLIONEN mehr fällig, Apple hat keine SDK und/oder APIs was ihnen schon die Arbeit abnimmt, dass sie auch keine Millionen an R&D verschleudern müssen? 🙄

PR raw mit cDNG vergleichen zu wollen oder so zu tun als "ist doch supi! reicht doch!" ist jedenfalls echt lustig. Nach meinen ersten vorsichtigen Tests auf einem mittelprächtigen Rechner zu urteilen erst recht. Es haben hier auch schon einige (zu recht) gesagt wie unsäglich sie cDNG finden hinsichtlich der Verwaltung, von der noch unerträglicheren Performance (die keine ist) ganz zu schweigen. Ich sag nur: Tag und Nacht der Unterschied zu PR raw. Auch unter der Annahme, dass die Qualität (bestenfalls im messbaren Bereich) "schlechter" sein könnte, wenn raw für mich ein Muss wäre, dann wüsste ich schon ganz genau welche Formate für mich in Frage kämen und cDNG wäre mit Sicherheit NICHT dabei. Dagegen ist ja sogar RED raw Lichtgeschwindigkeit. Kenne auch niemand der sich drum reißt es jemals zu benutzen oder es je für mehr als vielleicht einen Testlauf benutzt hat (um es dann nie wieder anzufassen). Oder will hier jemand behaupten er/sie benutzt es regelmäßig und es ist aus ihrem Workflow nicht mehr wegzudenken? 😂 Wohl kaum. Da muss man sich doch fragen warum wohl, obwohl es vermutlich oft die weit bessere qualitative Wahl wäre als irgendwas anderes "ProRes" oder? Darfst das gerne erklären. Und wenn PR raw genau die Negativen ins positive dreht (Kamerahersteller unabhängig, die Kameras selbst brauchen keine MEGA-Prozessoren oder Durchsatz um es zu bearbeiten/speichern, Handhabung wie mit jedem anderen Clip, sogar auf "schwache" Rechner abspielbar, sogar in MULTICAMS zu nutzen ohne Transcodieren oder oder und und und und), dann kann man sich sehr leicht vorstellen, dass das ein neuer Standard wird, ja.

Als ob die Tatsache, das die div. neuen Geschmacksrichtungen von ProResProRes im Glossar erklärt in ELF JAHREN je darunter gelitten hätten, dass sie nicht schon am allerersten Tag (oder gar im ersten Monat) überall zu haben waren. Was für eine wirre Logik.

Was wirklich passiert sehen wir ja in den nächsten Wochen und Monate. Alles andere ist nur sieben Seiten sinnbefreiter Spekulation, haltlose Unterstellungen und Wunschdenken. Ja, auch von mir, logisch. Nur denke ich, dass die Logik sich doch deutlich mehr auf meine (und Jotts etc.) Seite schlägt. Abwarten.

- RK

p.s. ich weiß schon genau den einen Satz auf dem eingegangen wird… Obacht…



Antwort von dienstag_01:


Wieso sterben? Ist jemals eine ProRes-Variante gestorben? Die wurden nur immer wieder ergänzt, wie jetzt halt wieder, und nach und nach bauen die üblichen Verdächtigen die neuen Varianten ein.

Worst case: ProResProRes im Glossar erklärt Raw bleibt etwas Hübsches im Apple-Umfeld. Wenn 2,5 Millionen fcp-Nutzer so was bekommen, wird das rege genutzt werden, da stirbt ganz sicher nix, reicht.

Best case: Adobe spielt mit, wie angeteasert. Zuungunsten des unglücklichen CinemaDNG oder parallel dazu. Zweiter Schlüssel, vielleicht noch wichtiger: Arri. Die werden bereits bedrängt, das zu implementieren. Liegt ja auch nahe, wäre wohl wie bei Atomos nur ein Firmware-Update.

Warten wir mal ein halbes Jahr ab?

Für uns ist das jedenfalls nett. Eine FS5 II kommt sowieso, nicht wegen raw, sondern weil gerade was anderes rausfliegt. Allerdings haust direkt neben uns ein großer Verleiher mit prall gefülltem Shogun-Regal. Brauch ich wirklich mal raw, kann ich einen holen für ein paar Euro. Und wenn's in fcp x so flutscht wie versprochen (ich hab's noch nicht testen können), dann wüsste ich nicht, nach welchem Haar in der Suppe ich noch suchen sollte. Dass andere das als Hobby betreiben (das Haar-in-der-Suppe-suchen) sei ihnen gegönnt, wieso auch nicht.

Ja, nett. Wenn man sieht, in welche Richtung es bei anderen Herstellern geht, RAW-Aufzeichnung intern oder mit Standardkomponenten, könnte man auch sagen, netter Versuch ;)
Aber vielleicht wird es ja doch der Burner, würde mich nicht wundern.



Antwort von Frank Glencairn:



Jedenfalls wenn sie einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM

Wieder der übliche völlig unqualifizierte RSK-Unfug.

Jeder Depp sollte mittlerweile wissen, das CDNG den Prozessor quasi schlafen lässt.
Im unterschied zu RED mit seinem hokomprimierten Material, wo du wirklich jede Menge Kerne für Echtzeit brauchst.
Daß jede mittelprächtige Gamer-GPU mit 4GB VRAM für 4k Material bequem reicht sollte sich auch mittlerweile rumgesprochen haben.
Das einzige was man braucht sind ein paar halbwegs schnelle Platten, was aber 2018 kein Thema mehr ist. Selbst ein billiges Software Raid 0 aus 2 4TB Hitachi oder Baracudas langt völlig für Echtzeit.

Oder will hier jemand behaupten er/sie benutzt es regelmäßig und es ist aus ihrem Workflow nicht mehr wegzudenken? 😂 Wohl kaum.

Yup, seit 2012 hab ich nichts mehr gedreht, daß nicht RAW war.
So bequem, schnell, effizient und hochwertig wie das ist, ich wär ja schön blöd was minderwertigeres zu nehmen.



Antwort von DV_Chris:

Frank, ich bewundere Deine Geduld mit dem Subjekt.



Antwort von R S K:

Jeder Depp sollte mittlerweile wissen, das CDNG den Prozessor quasi schlafen lässt.

Echt blöd, wenn man vor lauter Apple-Frust-Hass-Schaum vor dem Mund nicht mehr genug Sauerstoff für den Bregen bekommt, um zu kapieren, dass ich vielleicht nicht ausschließlich cDNG, sondern raw Formate allgemein meinte, oder? Bei dem einen ist es von einen mehr, beim anderen vom anderen. Und wenn's nicht das ist, dann ist RAID-Level HD I/O nötig. Bei PR raw trifft nichts von alledem zu.

Aber schön, dass ich dir eine weitere Möglichkeit bieten konnte deinen inneren Kneipen-Asi raushängen zu lassen. You're welcome.

Ich empfehle entkoffeiniert. Und eine Therapie. 🤦🏼???

- RK



Antwort von Jott:

Wird CDNG irgend jemandem weggenommen?



Antwort von Frank Glencairn:


.. um zu kapieren, dass ich vielleicht nicht ausschließlich cDNG, sondern raw Formate allgemein meinte, oder? Bei dem einen ist es von einen mehr, beim anderen vom anderen. Und wenn's nicht das ist, dann ist RAID-Level HD I/O nötig. Bei PR raw trifft nichts von alledem zu.

Klar ging's um DNG, war ja deine Antwort auf den Pocket Post von Chris. Das einzig andere raw FormatFormat im Glossar erklärt, von dem du gesprochen hast war R3D, von dem du behauptet hast, es sei im Vergleich zu CDNG "Lichtgeschwindigkeit" - obwohl es in Wirklichkeit zig mal mehr Ressourcen braucht als CDNG. Du widersprichst dir also selbst.

Nice try - vielleicht versuchst du es nochmal mit einer konsistenten und schlüssigen Erklärung.



Antwort von Roland Schulz:

Glaube bzgl. des Supports geht hier ein bisschen was durcheinander:

1. PPR ist BRANDNEU, dass das heute nicht alle Kameras und Recorder am Markt direkt unterstützen werden sollte klar sein.

2. warum muss eine Kamera die an einen (RAW-)Rekorder gebunden wird PPR unterstützen?! Das ist überhaupt keine zwingende Vorraussetzung! Die Kamera übergibt ihre Rohdaten in einem meist proprietären FormatFormat im Glossar erklärt an den Recorder und erst der macht PPR, CDNG oder sonst was draus. In dem Fall hat die Kamera nichts damit zu schaffen. Die Frage ist einzig welcher Recorderhersteller das für welche Kamera adaptiert und ob ggf. Lizenzbindungen davon abhängen.
Als Alternative zum 3rd party Rekorder kommt es direkt aus der Kamera wenn vom Hersteller direkt oder per Update implementiert.

3. der Support in 3rd party NLEs kommt u.U. schneller als erwartet. GV hat z.B. Canon"s Cinema RAW light relativ schnell übernommen, aktuell mit Revision von heute noch mal stark optimiert (gilt zu prüfen). Wir haben hier zwar Canon dahinterstehen die bekanntlich nicht wenig Kameras umsetzen, denke aber dass es für einen Standard einer Branchengröße auch nicht anders aussehen wird zumal man mit Sony"s FS5/II auch keine ganz kleine Unbekannte ins Boot bekommen hat.
Adobe und BMD wird ggf. wieder etwas brauchen, denke aber dass das dort auch kommen wird.

"Ich" habe irgendwie nur noch nicht erkannt was der tolle neue PPR Standard denn nun überhaupt an wirklichem Benefit mitbringt. Wozu ein neuer Standard?!
Gut, geschlossene Clipdateien wären ggf. nen kleiner Schritt, aber wirklich satt macht sowas nicht. Gibt es irgendeine deutlich effizientere KompressionKompression im Glossar erklärt die einen Vorteil bringt, ggf. inter-/einzelbildübergreifend?! Es gibt eine KompressionKompression im Glossar erklärt, aber dass das jetzt der heilige Gral sein wird glaube ich auch nicht, dann würde man das stärker hervorheben.
Was soll die Optimierung auf schnelleres GPU Debayering?! Das sind Bayer RAW Daten, irgendwie verpackt, mehr nicht. Resolve macht CDNG auch über die GPU.
Ich kann da kein Optimierungspotential bzgl. schneller möglichem Debayering erkennen was nicht anders (CDNG...) auch möglich wäre.
Was ist PPR nun, nur ein Container..., Marketing...?! Braucht der Markt das?!

Was machen die EVA1 User die plötzlich mitgeteilt bekommen, dass ihre in gutem Glauben gekaufte, potentielle RAW Kamera nun volles Potential nur in PPR aber nicht in CDNG kann und man mit dem derzeitigen NLE ggf. erstmal auf dem Schlauch steht? Gab es vorher Indikationen in Richtung CDNG das man bereits mit dem vorhandenen NLE hätte schneiden können?! Hätte man CDNG vom Hersteller ableiten können weil bisher ausschließlich CDNG mit dem jeweiligen Recorder möglich war?!
Ich bin bei der EVA1 jetzt nicht 100% in der Phase, aber ein wenig käme ich mir wohl jetzt verprellt vor.

Also in meinen Augen ist PPR eigentlich überflüssig, ein neuer Standard der aber keine essentiellen technischen Revolutionen mit sich zu bringen scheint. Da können wir auch mit CDNG weitermachen und hätten schon mal ne gewisse Verbreitung.



Antwort von Roland Schulz:


Wird CDNG irgend jemandem weggenommen?

Jein, so wie es aussieht den EVA1 Usern. "RAW" war versprochen, Vollgas aber heute nur in PPR wo gestern bei dem Rec. Hersteller NUR CDNG auf der Speisekarte stand und man damit sofort hätte starten können.
Keiner hat hier wem was weggenommen, der Betrachterhorizont hat aber was anderes "gesehen" und steht erstmal wieder auf dem Schlauch. Eine Mafia ist das!!



Antwort von motiongroup:

Absoluter Irrsinn was hier abgeht... so richtig vermisse hier nichts.. der Paris fehlt ein wenig...;)

Mal so am Rande, 4K war schon vor Jahren (für uns hier genau 2013) auf den passenden Maschinen Problemlos zu verarbeiten ohne sich ProResRaw herbeigesehnt zu haben..

Das selbige gebrabbel gibts doch von anti Prores Fraktion schon jahrelang zu hören ... was ist den das Konklusio daraus.. Prores ist gekommen um zu bleiben.. nicht nur unter OS X auch unter Windows und Linux.. Bm bespw bietet sogar einen Export unter Centos an.. auch die Windowsfraktion kann in fast allen Fällen lesen und selbst die billigheimer wie Magix sogar exportieren... kein Grund also ewig ein Fass aufzumachen..

ProResRaw wird nach und nach kommen wie auch Prores weil sich die Anbieter gar nicht erlauben können es nicht zu unterstützen..

Das ewig gleichen Personen wie Chris bspw ein Fass deshalb aufmachen liegt in der Natur der Sache.. erstnehmen werden das die meisten so oder so nicht... ebenso wie der Aufhänger das eine EVA frecher weise dieses FormatFormat im Glossar erklärt aktuell nur fcpx als bearbeitbar versteht.. Frech auch das sich die Hersteller einen Tag nach Rel zu keiner verbindlichen Aussage hinreißen ließen.. was mich wundert das ihr doch alles Professionisten genannt solch eine Neuigkeit überhaupt noch eine verkümmerte Erektion hervorlockt und euer Testosteron überkochen lässt....

Ich kann nur den Kopf schütteln sorry..



Antwort von R S K:

Klar ging's um DNG…

😂😂

Genau. Hast mich total durchschaut. Mist.

Wir ignorieren einfach, dass du selbst "was man braucht sind ein paar halbwegs schnelle Platten" schreibst, was dummerweise ganz genau das bestätigt was ich überhaupt meinte. Ob ich explizit von cDNG oder sonst irgendeinem raw gesprochen hab ist am Ende völlig irrelevant. Ups. Nochmals zum mitschreiben: bei PR raw benötigt man nichts von alledem. Irgendein Durchschnitts-MacBook Pro reicht schon. Also rate mal was für z.B. Dailies Vorort von einer externen, 2,5" USB3 Platte wohl in Fragen "schnell, bequem" überhaupt erst in Frage kommt… hmmm...

Weiter so. Dein DNG kannst du sogar behalten! Ui. Tanz damit glücklich in den Sonnenuntergang! Ist geschenkt. Will ja keiner. Scheinbar nicht mal Adobe. 😄

💤



Antwort von DV_Chris:

Motiongroup, um Dir das Lesen zu ersparen:

Ich habe die Ankündigung mit Interesse verfolgt. Nach der letzten PK auf der NAB muss man eingestehen, dass das neue FormatFormat im Glossar erklärt niemanden juckt. Es bleibt also vorerst einmal dabei, dass Atomos ein neues FormatFormat im Glossar erklärt brauchte, Apple den Entwicklungspartner gibt und man das in FCPX verarbeiten kann. *achselzuck*

So schleppend, wie sich die EVA verkauft, kann auch der PRR Move nichts ändern. Doch: noch mehr User verärgern.



Antwort von Roland Schulz:


So schleppend, wie sich die EVA verkauft, kann auch der PRR Move nichts ändern. Doch: noch mehr (potentielle) User verärgern.

...sehe ich genau so, eine Sauerei was da mal wieder abgeht. Von mir aus hätten die beides machen können, aber so...?!



Antwort von motiongroup:

Ich habe die Ankündigung mit Interesse verfolgt.

Alle Jahre wieder.... ewig die gleichen Querschläge

Kümmert euch lieber darum was es kann oder wartet ab bis ihr es überhaupt verwenden DÜRFT.. oder schreibe eine Abhandlung darüber wie es um die Canopuscodecs und ihrer platformübergreifenden Verfügbarkeit steht.. selbiges kann gleich erweitert werden auf die Innovationskraft der einzelnen Anbieter egal in welcher Umgebung.. schon interessant was sich im Vergleich zu BM bspw. getan hat was sich auch in Foren der Anbieter wiederspiegel.. ganz so prickelnd schaut es da nicht aus..



Antwort von DV_Chris:

Danke für die Nachfrage nach dem "Canopuscodec" (Grass Valley HQ/HQX). Dem geht es blendend, wird er doch bei Olympia 2020 in 8K als Intermediate CodecCodec im Glossar erklärt eingesetzt werden. Nachdem Grass Valley kürzlich SAM (ehemals Quantel, Snell & Wilcox) gekauft hat und nun alles in Grass Valley eingegliedert wird, wird hier die Führungsposition im Broadcast Bereich weiter ausgebaut. Die Integration von Momentum und Go! mit Edius ist jetzt schon in Las Vegas zu sehen. Wie Rio mit Edius interagieren wird, werden die nächsten Monate zeigen. Die neue Stratus Version 6.0 festigt zudem das Produkt Edius. Spannende Zeiten jedenfalls.

https://s-a-m.com/products/quantel-rio/c-24/p-173



Antwort von motiongroup:

Na dann Gratulation, dann besteht doch noch Hoffnung das der CodecCodec im Glossar erklärt endlich unter Ressolve und fcpx verwendbar und performant wird.. aktuell ist es eher eine Peinigung erster Klasse..

Und dann habt ihr euch auch die Prores Export Lizenz mitgekauft ;)



Antwort von dienstag_01:

20-km-Gehen in 8K, das MUSS doch RAW, oder.
Also, das schreit doch danach.



Antwort von DV_Chris:

Der XRE Transcoder 9 (früher Edius XRE) kann seit ein paar Monaten ProResProRes im Glossar erklärt exportieren.



Antwort von DV_Chris:


20-km-Gehen in 8K, das MUSS doch RAW, oder.
Also, das schreit doch danach.

LOL ;-)



Antwort von motiongroup:

Na schau an also besteht doch Hoffnung;) Wozu also dieses Fass hier aufmachen... sie werden auch dass implementieren und sich die Lizenz kaufen.. done



Antwort von nic:



Wird CDNG irgend jemandem weggenommen?

Jein, so wie es aussieht den EVA1 Usern. "RAW" war versprochen, Vollgas aber heute nur in PPR wo gestern bei dem Rec. Hersteller NUR CDNG auf der Speisekarte stand und man damit sofort hätte starten können.
Keiner hat hier wem was weggenommen, der Betrachterhorizont hat aber was anderes "gesehen" und steht erstmal wieder auf dem Schlauch. Eine Mafia ist das!!

Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDISDI im Glossar erklärt out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert. Und wer hat auch Lust auf 6K uncompressed RAW? 3:1 CDNG wäre eine reine Resolve-Veranstaltung geworden. Also da warte ich lieber auf die Etablierung von PRR, das scheint mir der sinnvollste Weg. ProResProRes im Glossar erklärt ist überall. Kein Grund zu denken PRR würde eine Nischenveranstaltung... für up-and-coming Kamerahersteller ist das eine große Chance. Siehe Kinefinity und DJI. RedRaw ist DER USP von Red. Das gibt es jetzt bald für alle.

Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum...



Antwort von Frank Glencairn:



Wir ignorieren einfach, dass du selbst "was man braucht sind ein paar halbwegs schnelle Platten" schreibst, was dummerweise ganz genau das bestätigt was ich überhaupt meinte.... blah

Was du "meintest" - so so..

Geschrieben hast du allerdings was anderes

einen tatsächlich brauchbaren und erträglichen raw-Workflow ihren Nutzern bieten wollen und eben NICHT nur diejenigen mit voll ausgebauten Maschinen mit irgendwelchen 18 Kernen und 50GB VRAM

Das ganze wird langsam albern, lassen wir es, du bist nicht mehr satisfaktionsfähig.



Antwort von dienstag_01:

Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum...
Verstehe ich nicht, da hättest du doch längst die Chance gehabt, mit Canon RAW light durch den Schornstein direkt in den Himmel zu fliegen ;)



Antwort von nic:


Wir arbeiten jetzt seit etwa 10 Jahren mit compressed raw (r3d). Ich kann gar nicht verstehen, dass man bei der Ankündigung von PRR nicht ganz wuschig werden kann. Dieser Workflow ist ein Traum...
Verstehe ich nicht, da hättest du doch längst die Chance gehabt, mit Canon RAW light durch den Schornstein direkt in den Himmel zu fliegen ;)

Wir brauchten einfach nicht noch eine weitere reine RAW-Kamera. Sondern einen handlichen 10-bit S35-Henkelmann. Dass man sie dann irgendwann als B- oder C- Cam in 6K PRR mit RR mischen kann, ist nur ein kleiner und feiner Pluspunkt.



Antwort von Roland Schulz:


Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDISDI im Glossar erklärt out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert.

Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDISDI im Glossar erklärt versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!



Antwort von nic:



Das stimmt nicht. Panasonic hat mit der EVA ein 5.7K RAW am SDISDI im Glossar erklärt out versprochen. Dass das mit der aktuellen Rekordergeneration (SATA) nicht in (uncompressed) CDNG passieren würde, war absolut klar und wurde auch so kommuniziert.

Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDISDI im Glossar erklärt versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!

Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.



Antwort von wolfgang:


Was machen die EVA1 User die plötzlich mitgeteilt bekommen, dass ihre in gutem Glauben gekaufte, potentielle RAW Kamera nun volles Potential nur in PPR aber nicht in CDNG kann und man mit dem derzeitigen NLE ggf. erstmal auf dem Schlauch steht? Gab es vorher Indikationen in Richtung CDNG das man bereits mit dem vorhandenen NLE hätte schneiden können?! Hätte man CDNG vom Hersteller ableiten können weil bisher ausschließlich CDNG mit dem jeweiligen Recorder möglich war?!
Ich bin bei der EVA1 jetzt nicht 100% in der Phase, aber ein wenig käme ich mir wohl jetzt verprellt vor.

Panasonic hat nur von 5.7K raw aus der Kamera gesprochen. Aber natürlich wurde marketingmäßig massiv auf den Shogun Inferno hingedeutet. Der bisher eben nur CDNG und ProRes/DNxHR konnte. Natürlich war davon auszugehen, dass man das 5.7K raw 4K 50p eben nicht mehr als CDNG aufzeichnen könne, sondern eben zu 5.7K ProResProRes im Glossar erklärt 50p (ohne raw) wandeln müss - denn auch der Shogun Inferno konnte ja CDNG nur bis 4K 30p. Aber mit 5.7K ProResProRes im Glossar erklärt 50p hätte ich noch leben können.

Nur das spielts eben offenbar nicht, denn

Erstens kommt das 5.7k raw der EVA1 erst im Mai - was eine Sache für sich ist denn da wurde bisher nicht differenziert als raw für Ende März 2018 angekündigt worden ist. Derzeit gibts aber eben nur 4K raw.

Zweitens scheint es offenbar für 5.7K im Shogun Inferno eben gar keine Aufzeichnungsmöglichkeit zu geben -außer eben ProResProRes im Glossar erklärt RAW. Und da sind bisher alle Windows User draußen.

Wer wars nun? Atomos schiebts auf Apple, Apple sagt gar nichts, Panasonic schiebts auf Atomos... und der Windows-User bleibt dazwischen bisher ohne Lösung hängen. Ja, einen Mac kann man sich kaufen. Das ist ein Spiel ohne Business Ethik - aber das ist offenbar ohnedies nur pures Gerede. Da kann man sich gleich auf den Osterhasen verlassen.



Antwort von DV_Chris:

Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen CodecCodec im Glossar erklärt online hat.



Antwort von wolfgang:


Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.

Die (Panasonic + Atomos) haben jetzt mal durchaus 5 oder 6 Monate seit Launch der Geräte Zeit gehabt. Ob das reicht oder nicht kann man ja so oder so sehen. Aber zumindest ich bin bei diesen beiden namhaften Unternehmen schon davon ausgegangen dass jetzt endlich mal das versprochene 5.7K raw geliefert wird.

Und geliefert heißt für mich: verwendbar im Schnittsystem.

Dass es wieder nur eine Teil ist, da eben erst 4K da ist und das in einem für z.B. mich nicht verarbeitbaren FormatFormat im Glossar erklärt, finde ich eben nicht mehr ok.

Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.



Antwort von Roland Schulz:



Wieso war das klar? Wo wurde das WANN kommuniziert?! Wieso zwingend uncompressed?!

Klar war das Panasonic RAW über SDISDI im Glossar erklärt versprochen hat als noch überhaupt kein PRR bekannt war - das ist das Einzige was klar war!!

Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.

Die Überraschung ist die dass der ein oder andere sein NLE ggf. auf absehbare Zeit nicht mit der EVA1 in RAW nutzen kann und das war glaube ich den wenigsten klar als Panasonic RAW versprochen hat, incl. oder excl. 5.7K!! Compressed CDNG lag näher als irgendnen neues FormatFormat im Glossar erklärt, wurde immerhin schon von BMD realisiert. Zudem gab es in CDNG von Anfang an die Spec für 2,5x lossless compression. Mit etwas Puffern im Recorder wäre das kein Problem das wegzuschreiben, auch nicht mit SATA6.



Antwort von Jott:

Wenn's so lebenswichtig ist und du nicht mehr schlafen kannst: günstigen iMac aus der Bucht holen, fcp x Demo drauf und damit normales ProResProRes im Glossar erklärt oder sonst was aus ProResProRes im Glossar erklärt Raw machen. Damit die Zeit überbrücken, bis sich jemand anderes außer Atomos/Apple dem 5,6K aus deiner Kamera annimmt. Wird ja sowieso erst ab Mai kommen, oder wie war das? iMac dann wieder zurück in die Bucht, geht praktisch verlustfrei.



Antwort von Roland Schulz:



Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.

Die (Panasonic + Atomos) haben jetzt mal durchaus 5 oder 6 Monate seit Launch der Geräte Zeit gehabt. Ob das reicht oder nicht kann man ja so oder so sehen. Aber zumindest ich bin bei diesen beiden namhaften Unternehmen schon davon ausgegangen dass jetzt endlich mal das versprochene 5.7K raw geliefert wird.

Und geliefert heißt für mich: verwendbar im Schnittsystem.

Dass es wieder nur eine Teil ist, da eben erst 4K da ist und das in einem für z.B. mich nicht verarbeitbaren FormatFormat im Glossar erklärt, finde ich eben nicht mehr ok.

Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.

Ziemlicher Sauhaufen, Panasonic und Atomos um das mal "sachlich" auszudrücken!



Antwort von dienstag_01:


Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen CodecCodec im Glossar erklärt online hat.

Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)
Und alles schön hier verlinken, damit man auch rundum sorglos informiert ist.



Antwort von wolfgang:

Glücklicherweise ist es nicht lebenswichtig. Zusätzlich kenn ich mich selbst mit diesen Geräten zu wenig aus. Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?



Antwort von DV_Chris:



Mich wundert ein wenig, dass das FCPX Zentralorgan ( http://www.fcp.co ) noch keinen Test zum neuen CodecCodec im Glossar erklärt online hat.

Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)

Für jedes "awesome" im Artikel gebe ich ein Bier aus ;-)



Antwort von dienstag_01:



Au ja ;)
Und dann der erste Hollywood Film, natürlich ;)

Für jedes "awesome" im Artikel gebe ich ein Bier aus ;-)

Du wirst bei mir unter *pleite* geführt ;)



Antwort von Jott:



Darf oder Soll ich mir etwa jetzt einen Mac kaufen? Vielleicht. Ich hätte ja aus Sicht des Systems und seiner Leistung nichts dagegen. Nur kostet das von Slashcam getestete Gerät um die Euro 10.000, eine neue Software würde nötig. Nicht so prickelnd.

Ein gebrauchter iMac aus der Bucht für einen Tausender oder so würde reichen. Muss nur High Sierra-tauglich sein.



Antwort von Jott:

Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?

Dann hast du den Witz an ProResProRes im Glossar erklärt Raw noch nicht verstanden: Performance wie normales ProResProRes im Glossar erklärt ist der Punkt.



Antwort von Roland Schulz:


Wenn's so lebenswichtig ist und du nicht mehr schlafen kannst: günstigen iMac aus der Bucht holen, fcp x Demo drauf und damit normales ProResProRes im Glossar erklärt oder sonst was aus ProResProRes im Glossar erklärt Raw machen. Damit die Zeit überbrücken, bis sich jemand anderes außer Atomos/Apple dem 5,6K aus deiner Kamera annimmt. Wird ja sowieso erst ab Mai kommen, oder wie war das? iMac dann wieder zurück in die Bucht, geht praktisch verlustfrei.

Das ist so aber absolut nicht Sinn und Zweck der RAW Übung, zumal nen iMac mit performanter GPU auch nicht ganz günstig und vor allem eigentlich überflüssig ist wenn man schon nen anderes System hat. RAW macht erst dann vollständig Sinn wenn es bis zur Ausgabe genutzt wird. So behindert das den Workflow nur.
Ne, die ganze Panasonic Nummer ist ne Sauerei, was anderes fällt mir dazu nicht ein! Das Ding wird ggf. erst voll nutzbar werden wenn"s veraltet ist.



Antwort von nic:



Compressed CDNG unterstützt außer BM selbst doch bisher niemand. Und ich gehe auch nicht davon aus, dass sich das jemals ändert. Ich hab die EVA in dem Wissen gekauft, dass 5.7K RAW mittelfristig nicht ohne weiteres benutzbar sein wird. Also zumindest mir war klar, dass sich das in Zusammenarbeit mit den Rekorderherstellern erst zurechtrütteln muss. PRR ist eine positive Überraschung.

Die Überraschung ist die dass der ein oder andere sein NLE ggf. auf absehbare Zeit nicht mit der EVA1 in RAW nutzen kann und das war glaube ich den wenigsten klar als Panasonic RAW versprochen hat, incl. oder excl. 5.7K!! Compressed CDNG lag näher als irgendnen neues FormatFormat im Glossar erklärt, wurde immerhin schon von BMD realisiert. Zudem gab es in CDNG von Anfang an die Spec für 2,5x lossless compression. Mit etwas Puffern im Recorder wäre das kein Problem das wegzuschreiben, auch nicht mit SATA6.

Adobe hat etwa ein Jahr gebraucht, nachdem ihnen RED das SDK für IPP2 zugänglich gemacht hat - es kam also vor ein paar Tagen. Und das, obwohl von Anfang an klar war, dass sie es implementieren werden. Compressed CDNG funktioniert bis heute nicht. REDRAW läuft auf AVID nicht nativ. RAW war bis jetzt immer nur proprietäres Gefummel. PRR läuft immerhin ab Release in FCPX. Blackmagic und Adobe werden schon nachziehen. Alles ist gut.



Antwort von Roland Schulz:


Ein gebrauchter iMac aus der Bucht für einen Tausender oder so würde reichen. Muss nur High Sierra-tauglich sein.

...würde mich mal interessieren wie lange mein High Sierra taugliches late 2014 (oder so) Macbook für 1min. RAW Video braucht - Jott, mit verlaub, hier biste aber mal kräftig auf dem Holzweg!! Resolve lastet ne 1070GTX mit C200 UHD RAW schon KRÄFTIG aus um Realtime zu erreichen. Was kostet nen xMac mit soviel Performance?! Dann muss ich das alles trotzdem noch so lange und vor allem so platzraubend wandeln und habe den größten Teil des RAW Vorteils schon in den Wind geschossen. Das macht so überhaupt keinen Sinn!



Antwort von Roland Schulz:


Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?

Dann hast du den Witz an ProResProRes im Glossar erklärt Raw noch nicht verstanden: Performance wie normales ProResProRes im Glossar erklärt ist der Punkt.

...dann hast Du die Mathematik und Physik noch nicht verstanden: alleine das Debayern zwingt ne performante GPU schon ziemlich in die Knie. Dann musste noch sowas wie Motion JPEG für den ProResProRes im Glossar erklärt Export dranhängen.
Die ProResProRes im Glossar erklärt "Performance" haste nur wenn ne performante GPU im System steckt, sonst steckt dein Video fest! Schneller debayern kannste nicht weil einfach Apple drauf steht.



Antwort von Roland Schulz:

Wir werden sehen wer wann was implementiert und ob alles gut wird. Können auch alle machen was und wie sie wollen.
Was Panasonic da abzieht geht "für mich" so aber absolut nicht in Ordnung.



Antwort von nic:


Wir werden sehen wer wann was implementiert und ob alles gut wird. Können auch alle machen was und wie sie wollen.
Was Panasonic da abzieht geht "für mich" so aber absolut nicht in Ordnung.

Was wäre die Alternative?

Es blieb ja nur:
1)
Ein komplett eigenes RAW-Format entwickeln, ein eigenes Programm zum Wandeln der Dateien anbieten und daraus uncompressed CDNG und ProResProRes im Glossar erklärt exportieren lassen. Nebenbei hoffen, dass die NLE-Hersteller das angebotene SDK irgendwann integrieren.

2)
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.



Antwort von Roland Schulz:

...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!



Antwort von nic:


...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!

5.7K lossless compressed CDNG läge bei etwa 400MB/s.



Antwort von DV_Chris:


Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.

Hast Du zuverlässige Daten darüber, dass ProResProRes im Glossar erklärt der meistgenutzte Postproduktionscodec ist?



Antwort von Roland Schulz:



...wie gesagt, lossless compressed CDNG aus der 2011er Spec mit Faktor 2,5 hätte gereicht!

5.7K lossless compressed CDNG läge bei etwa 400MB/s.

Bei einer Annahme von einer KompressionKompression im Glossar erklärt um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!



Antwort von nic:



Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.

Hast Du zuverlässige Daten darüber, dass ProResProRes im Glossar erklärt der meistgenutzte Postproduktionscodec ist?

Natürlich nicht. Das war eine unzulässige Verallgemeinerung aus meiner subjektiven Wahrnehmung heraus, nur um meiner Aussage etwas Relevanz zu verleihen. Ich hoffe du kannst das entschuldigen.



Antwort von nic:



5.7K lossless compressed CDNG läge bei etwa 400MB/s.

Bei einer Annahme von einer KompressionKompression im Glossar erklärt um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!

Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.



Antwort von WoWu:



Was wäre die Alternative?

Es blieb ja nur:
1)
Ein komplett eigenes RAW-Format entwickeln, ein eigenes Programm zum Wandeln der Dateien anbieten und daraus uncompressed CDNG und ProResProRes im Glossar erklärt exportieren lassen. Nebenbei hoffen, dass die NLE-Hersteller das angebotene SDK irgendwann integrieren.

2)
Mit dem Anbieter der meistgenutzten Postproduktionscodecs ein RAW-Derivat zu entwickeln, der das auch gleich bei Release in sein eigenes NLE übernimmt und davon ausgehen, dass alle anderen NLEs natürlich auch sofort an der Einbindung arbeiten.

Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.
Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGBRGB im Glossar erklärt drauf steht.
Nur gibt ein Hersteller gerade diese ( und zahlreiche andere ) Informationen nicht so gern preis. Daher musste ADOBE eine entsprechende Signalinterpretation durchführen, die zu deutlich anderen Ergebnissen führen kann.
Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.
Daher stellt sich jetzt die Frage, was anders sein sollte.
ACES ist eigentlich die Antwort auf einen "RAW" Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.



Antwort von DV_Chris:

7nic, keine Ursache ;-)

Mir selbst liegen auch keine Daten vor, wiewohl das sicher interessant wäre.



Antwort von Roland Schulz:



Bei einer Annahme von einer KompressionKompression im Glossar erklärt um "nur" Faktor 2 landen wir bei relativ genau 332MB/s... also alles sicher!

Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.

Also ich käme statistisch betrachtet auf 2,57234234 : 1 - glaube den Quatsch sollten wir hier beenden ;-)!



Antwort von nic:



Und wie willst du Videodaten 2:1 lossless komprimieren? Mit etwas Glück kommst du auf 1.5:1.

Also ich käme statistisch betrachtet auf 2,57234234 : 1 - glaube den Quatsch sollten wir hier beenden ;-)!

Es ist also möglich CDNG in Echtzeit 2,57234234:1 verlustfrei zu komprimieren? Wieso macht das niemand?



Antwort von wolfgang:


Ob da ein günstiger älterer 4-Kerner reicht bezweifle ich aber ein wenig?

Dann hast du den Witz an ProResProRes im Glossar erklärt Raw noch nicht verstanden: Performance wie normales ProResProRes im Glossar erklärt ist der Punkt.

Doch das habe ich verstanden. Aber lies doch mal den slashcam test zu den Macs. Super Maschine dieser 10-Kerner, sie empfehlen eh "nur" den 8-Kerner. Der aber noch immer ganz schön kostet.

Und so ganz ohne Leistung geht halt die 5.7K Verarbeitung dann wohl doch nicht. ;)



Antwort von Roland Schulz:


Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.
Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGBRGB im Glossar erklärt drauf steht.
Nur gibt ein Hersteller gerade diese ( und zahlreiche andere ) Informationen nicht so gern preis. Daher musste ADOBE eine entsprechende Signalinterpretation durchführen, die zu deutlich anderen Ergebnissen führen kann.
Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.
Daher stellt sich jetzt die Frage, was anders sein sollte.
ACES ist eigentlich die Antwort auf einen "RAW" Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.

Da ist viel Wahres dran!! Auf der anderen Seite darf man im "Stillbereich" aber nicht vergessen dass kaum eine Fotokamera mehr mit einem Hersteller RAW Converter verwendet wird. Nikon hat seinerzeit versucht z.B. den gemessenen WeißabgleichWeißabgleich im Glossar erklärt zu codieren damit kein Dritthersteller die eigene Software (Nikon Capture/NX) ausbremst bzw. redundant macht. Am Ende hat Nikon Adobe zuerst ein SDK zur Verfügung gestellt und danach alles aufgegeben, allein weil Kunden zu anderen Systemen hätten abwandern können weil Lightroom bzw. CameraRAW nun mal den Markt zweimal um die eigene Achse gedreht hat. Ich glaube heute haben DxO und CaptureCapture im Glossar erklärt One kaum noch einen bedeutenden Marktanteil, der Großteil arbeitet mit CameraRAW.

Wenn wir mal weiter spinnen und betrachten was BMD mit der Pocket 4K auf den Markt wirft könnte es sein das RAW auch im Videobereich auf absehbare Zeit noch zugänglicher wird. Speicher wird auch nicht weniger leistungsfähig oder teurer.
Entweder wird es wie im Fotobereich viele proprietäre Formate geben (das läuft da gut!) oder man wird sich auf einen Standard einigen. Glaube da ist man aber noch nicht weil RAW aktuell eigentlich nur im Pro Bereich Bedeutung hat.
Informationen der Farbfilter (Teil der "Color Science") müssten wie Du schreibst entweder weitergegeben und gespeichert werden, oder sie werden von den RAW Converter Herstellern weiterhin bei der Profilerstellung für die jeweilige Kamera "reverse engineered" oder einfach ausgemessen/abgeschätzt und auf den jeweiligen Debayer Algorithmus angepasst.
Am Ende kriegt man wie im Fotobereich auch ein absolut belastbares, vernünftiges Bild.

Ich habe grundsätzlich nichts gegen PRR, nur der Weg wie ihn aktuell einige Hersteller beschreiten gefällt mir nicht. Ich halte das nicht für loyal und richtig.
Und wie Du schon schreibst - wirklich neu ist hier nichts, brauchen tut das keiner!



Antwort von wolfgang:


ACES ist eigentlich die Antwort auf einen "RAW" Standard und deutlich besser als zahlreiche pseudo RAW Verfahren, mit denen viele User heute noch arbeiten müssen.

Das sehe ich ja auch so. Nur dann bitte wäre es schön von mir aus ProResProRes im Glossar erklärt Raw mit ACES verarbeiten zu können. Auf einem Tool meiner Wahl welches ACES kann.

Persönlich würde ich da eben gerne Resolve oder Vegas nehmen - oder auch Edius (auch wenn das ein eigenes Color Management etabliert hat welches aber auch sehr gut ist auch wenn nicht ACES drauf steht).



Antwort von mash_gh4:

RAW war bis jetzt immer nur proprietäres Gefummel.

geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.



Antwort von Roland Schulz:



Dann hast du den Witz an ProResProRes im Glossar erklärt Raw noch nicht verstanden: Performance wie normales ProResProRes im Glossar erklärt ist der Punkt.

Doch das habe ich verstanden. Aber lies doch mal den slashcam test zu den Macs. Super Maschine dieser 10-Kerner, sie empfehlen eh "nur" den 8-Kerner. Der aber noch immer ganz schön kostet.

Und so ganz ohne Leistung geht halt die 5.7K Verarbeitung dann wohl doch nicht. ;)

Logischerweise braucht man für RAW -> Prores/Canopus was weiß ich Debayering - und das fordert heftig Performance - wie Apple schreibt "optimiert" für GPU Beschleunigung.
Wenn wir uns irgendein RAW in Resolve angucken werden wir feststellen dass die GPU GEFORDERT wird! RED hat dafür seinerzeit auch nichts anderes verkauft, die RED Rockets sind "Grafikkarten" (gewesen). Wir brauchen für die RAW "Sichtung" Performance, heute GPU Performance! Die hat nen alter ebay billig-Mac aber nicht!



Antwort von WoWu:

@ wolfgang
Das ist ja eine "entweder / oder" Frage.
ACES und RAW schließen sich aus.
Ich frage mich nur, was APPLE mit echtem RAW zu tun hat, denn das kann nun mal nur der Hersteller erzeugen, wenn er nicht die innersten Produktionsgeheimnisse einem andern kommerziellen Unternehmen offenlegen will.
Das ist ja der Knackpunkt bei DNG und das ist auch der Grund, warum ACES von einer Institution initiiert wurde, die in keiner Konkurrenz zu Herstellern steht.
RAW wird übrigens auch von der "Library of Congress Collections" als FormatFormat im Glossar erklärt abgelehnt.



Antwort von Roland Schulz:


RAW war bis jetzt immer nur proprietäres Gefummel.

geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.

Auf den Stillbereich bezogen ist "jetzt" so 15- 20 Jahre her ;-)! Video ist NICHTS anderes da man es bis heute nicht geschafft hat hier bildübergreifend zu komprimieren, was sicherlich gerade in 10 - 12bit QuantisierungQuantisierung im Glossar erklärt noch was bringen würde.



Antwort von Jott:

Die hat nen alter ebay billig-Mac aber nicht!

Der Vorschlag dreht sich doch nur darum, dass er an die ProResProRes im Glossar erklärt Raws aus seinem Shogun ran kommt, sie de-bayern und in einem FormatFormat im Glossar erklärt ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)



Antwort von nic:


RAW war bis jetzt immer nur proprietäres Gefummel.

geh -- ich weiß wirklich nicht, warum alle beim wörtchen RAW sofort große geheimnise und verschwörungen wittern. in wahrheit ist es technisch eine ziemlich einfache sache. wenn man sich anschaut, wie das tatsächlich in ganz realen und sehr weit verbreiteten implementationen wie DCRaw od. LibRaw gehandhabt wird, kann man darüber auch ganz vernünftig und ohne ausschweifende spekulationen diskutieren. dann stellt es sich nämlich wirklich als verhältnismäßig einfache angelegenheit dar.

Naja, sowohl RED, Arri, als auch BMD, DJI oder Sony hatten nicht von Anfang an eine umfassende Lösung für jeden NLE- und Workflowgeschmack parat. Das hat sich alles langsam (über Jahre) entwickelt. Mit anderen Formaten hatte ich im Bewegtbildbereich bisher keine Berührungspunkte. Das hat nichts mit Verschwörungsglaube zu tun. Ich gebe nur meine persönliche Erfahrung wieder.



Antwort von Frank Glencairn:



ACES und RAW schließen sich aus.

Erstens haben ACES und raw überhaupt nix miteinander zu tun, das eine ist ein "Übergeordneter Farbraum" das andere sind undebayerte Sensordaten.

Zweitens kann ich in ACES mit raw genauso arbeiten, wie mit jedem x-beliebigen eingebackenen CodecCodec im Glossar erklärt, oder Einzelbildsequenzen, das ist ACES völlig wurscht.



Antwort von Roland Schulz:


Die hat nen alter ebay billig-Mac aber nicht!

Der Vorschlag dreht sich doch nur darum, dass er an die ProResProRes im Glossar erklärt Raws aus seinem Shogun ran kommt, sie de-bayern und in einem FormatFormat im Glossar erklärt ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)

Ich wäre mal gespannt wie ein 5,7K RAW Stream auf so einer Maschine (ohne geeignete GPU) mit 1(!!) Spur läuft.
Ich tippe mal ganz grob auf einen Bereich kleiner 0,1 fach. Wahrscheinlich wird"s gar nicht gehen.



Antwort von Roland Schulz:



ACES und RAW schließen sich aus.

Erstens haben ACES und raw überhaupt nix miteinander zu tun, das eine ist ein "Übergeordneter Farbraum" das andere sind undebayerte Sensordaten.

Zweitens kann ich in ACES mit raw genauso arbeiten, wie mit jedem x-beliebigen eingebackenen CodecCodec im Glossar erklärt, oder Einzelbildsequenzen, das ist ACES völlig wurscht.

Vielleicht haben die beiden Wolfgangs hier mit Sony"s X-OCN verwechselt, nur mal so ein Gedanke...



Antwort von Jott:

Wieso nicht? Die Performance soll dem normalen ProResProRes im Glossar erklärt entsprechen (noch mal, das ist der Witz an ProResProRes im Glossar erklärt Raw, sonst wäre es ja witzlos!), müsste also sehr wohl gehen. Keine Ahnung, ob es schon einen Schnipsel Material irgendwo zum Downloaden gibt, dann könnte man's ja mal probieren, statt einfach was zu behaupten.



Antwort von cantsin:


Wieso nicht? Die Performance soll dem normalen ProResProRes im Glossar erklärt entsprechen (noch mal, das ist der Witz an ProResProRes im Glossar erklärt Raw, sonst wäre es ja witzlos!)

Das kann technisch einfach nicht sein, wenn da in Echtzeit debayert wird. (Es gibt ja auch keine Foto-Raw-Formate, die ebenso performant angezeigt werden wie JPEG.)



Antwort von Jott:

Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProResProRes im Glossar erklärt RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Da steht nicht iMac Pro. Wozu streiten - wen's interessiert, der wird's probieren. Sollte 5,6K zu viel sein für eine schwächere Maschine, dann halt nicht mehr realtime, aber der EVA-Wolfgang käme trotzdem an sein Material ran.



Antwort von mash_gh4:


Du vergisst dabei, woran ADOBE eigentlich gescheitert ist, nämlich daran, dass ein echtes RAW Signal all die Informationen berücksichtigen muss, die der Kamerahersteller als sein Alleinstellungsmerkmal in die Sensorumgebung eingebracht hat.

warum sind sie daran gescheitert?
DNG ist in der durchaus in der lage, die nötigen daten, so wie sie direkt vom sensor kommen, vernünftig aufzuzeichnen. dass man sie dann auch reichtig auswertet, was in verschieden anspruchsvollen weisen umgesetzt werden kann, ist wieder ein ganz andere geschichte, aber bzgl. des eigentlich transports der der daten und einer klar geregelten übergabe der nötigen metadaten gibt's daran nicht viel auszusetzten.

Das beginnt damit, dass die Farbmaske in Farbgebung und Überlappung bei jedem Kameramuster unterschiedlich ist, dass auch im De-mosaicing diese speziellen Eigenschaften einfließen müssen.
Es ist naiv anzunehmen, dass Farbmasken identisch sind und nur aus den Grundfarben bestehen, nur weil RGBRGB im Glossar erklärt drauf steht.

das hat sehr wenig mit den kameras zu tun, sondern nur mit den verwendeten sensoren. im übergabeformat muss diesbezüglich auch keine information über die tatsächliche spektrale sensibilität der verschiedenfarbigen sensel enthalten sein. es reicht völlig aus, wenn man an hand der metadaten eine eindeutige beziehung zwischen dem bei der aufnahme tatsächlich genutzen sensor und externen daten bzgl. der spektalen sensibilität herstellen kann. entsprechende korrekturen bzw. sensorspezifische aufbereitungsprofile kann man dann bspw. mit DCamProf od. ä. generieren.

Genau aus diesem Grund wurde ja ACES entwickelt, um den Herstellern diese Möglichkeit in einer eigenen IDT zu lassen, ohne sie Preis geben zu müssen.
Es ist ja nicht so, dass es keine Standardisierungsbemühungen gegeben hat.
Es hat nur keine Einigung gegeben.

naja -- es gibt sehr viele überschneidungen zw. gutem RAW prozessing und ACES, aber völlig vermischen od. als austauschbar betrachten, wie du es tust, sollte man es nicht.

ACES liegt doch eine stufe höher bzw. bezeht sich im wesentlich nur auf bereits debayertes materal. allerdings behandelt es licht und farben tatsächlich in mathematische modellen, die sehr nahe an dem dran sind, wie man es auch beim RAW processsing handhabt. der grund dafür liegt aber eher darin, dass sich diese modelle (scene referred linear light), die sich an physikalischen beschreibungen und gesetzmäßigkeiten orientieren, als deutlich zweckmäßiger für komplizierte farbbearbeitungsaufgaben bzw. deren exakte umsetzung erwiesen haben, als jene zugänge die sich vorwiegend an den wiedergabegeräten bzw. damit verbundenen konventionen der datenrepräsentation orientieren (display referred -- bspw. rec709). trotzdem behandelt ACES mehr die grundsätzlichen rahmenbedingungen eines befriedigenden postprozessing workflows, als dass es sich zu sehr um die details der RAW aufbereitung kümmern würde. wie man also zu vernünftigen ausgangsdaten kommt, die man in den ACES workflow einbringt, ist also grundsätzlich offen. es kann also im grunde, um eine ganz extreme ausformung heranzuziehen, durchaus auch völlig künstlich generierter content sein. ich würde aber realistischer weise aber eher dahingehend argumentieren, dass die einzige relevante anforderung im falle von ACES sich darauf beziehen dürfte, das man ausgangswerte zu verfügung hat, die eine möglichst eindeutige rückführung auf in die welt der physikalischen grundgesetze von farbe und licht erlauben. ob man dafür nun ungebayeres RAW od. irgendwelche möglichst unverfälschte LOG-Formate zur Aufzweichnung der ursprünglichen sensordaten verwendet, macht dabei keinen großen unterschied.



Antwort von Roland Schulz:


Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProResProRes im Glossar erklärt RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Da steht nicht iMac Pro. Wozu streiten - wen's interessiert, der wird's probieren. Sollte 5,6K zu viel sein für eine schwächere Maschine, dann halt nicht mehr realtime, aber der EVA-Wolfgang käme trotzdem an sein Material ran.

...wir sollten abwarten welche GPU Apple hier für Prores RAW erwartet. Mein Macbook Pro mit 5100er Intel Grafik wird MIT SICHERHEIT nicht reichen.



Antwort von cantsin:


Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProResProRes im Glossar erklärt RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Ja, aber das bedeutet eben nicht, dass die Performance die gleiche wie die von debayertem ProResProRes im Glossar erklärt ist. (Das wäre ja die simpelste Form eines falschen Syllogismus.)



Antwort von Roland Schulz:



Her mit einem Schnipsel.

"Dank der für macOS optimierten Leistung können Cutter 4K ProResProRes im Glossar erklärt RAW-Dateien in voller Qualität auf MacBook Pro- und iMac-Systemen in Echtzeit ohne Rendering abspielen." (Apple)

Ja, aber das bedeutet eben nicht, dass die Performance die gleiche wie die von debayertem ProResProRes im Glossar erklärt ist. (Das wäre ja die simpelste Form eines falschen Syllogismus.)

Ggf. passiert das auch alles nur in 1/4 oder 1/8 der nativen Auflösung - wir werden sehen.



Antwort von Jott:

Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.



Antwort von wolfgang:


Die hat nen alter ebay billig-Mac aber nicht!

Der Vorschlag dreht sich doch nur darum, dass er an die ProResProRes im Glossar erklärt Raws aus seinem Shogun ran kommt, sie de-bayern und in einem FormatFormat im Glossar erklärt ausgeben kann, das er mag. Dazu braucht's High Sierra, die fcp x-Demo, aber keine Rennmaschine, die acht raw-Ströme gleichzeitig spielen kann. War ein Vorschlag, der nichts kostet. Sorry dafür! :-)

Du unter der Perspektive des reinen Wandels ist das ja ok. Nur ist die Frage ob das wirklich reichen kann.



Antwort von wolfgang:

Muss mal schauen. Ein 5.7K Schnipsel geht ja noch nicht, aber in 4K wäre das wohl möglich.



Antwort von Jott:

Gerne mal her damit via WeTransfer, ein paar aussagelose Blümchen à la YouTuber-Testfilmchen reichen ja. Dann probier ich gerne mal auf dem älteren 15"-Macbook Pro, an dem ich gerade tippe, wie sich das verhält.



Antwort von wolfgang:

Ja klar, dauert aber ein wenig.



Antwort von Jott:

Reicht am Wochenende. Bin für eine Produktion im Ausland, Hotel-WLAN klemmt.



Antwort von Roland Schulz:


Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.

4K RED Raw läuft auf nem "alten" Mac?! Was wäre das für ein Rechner mit was für einer GPU wenn man mal fragen darf?!



Antwort von nic:

Hab auch mal etwas PRR bei einem Bekannten bestellt und werd’s morgen an verschiedenen Macs anschauen.



Antwort von nic:



Hat jemand einen Schnipsel? Das sind doch alles Dinge, die praktisch probiert werden müssen.

Red-Files liefen ja auch schon vor vielen Jahren nativ auf Macs, also auf aus heutiger Sicht völlig lahmen Kisten.

4K RED Raw läuft auf nem "alten" Mac?! Was wäre das für ein Rechner mit was für einer GPU wenn man mal fragen darf?!

4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon "Westmere" Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.



Antwort von cantsin:


4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon "Westmere" Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.

Das ist nämlich genau die unbekannte Variable - Apple sagt nur, dass die Performance von ProResProRes im Glossar erklärt Raw auf iMacs und Macbook Pros gut sei und suggeriert damit einen Durchbruch bei der Raw-Performance, sagt aber nichts über die Debayer-Qualität beim Playback im NLE.

Ich kann natürlich auch CinemaDNG in Resolve auf 1/2- oder 1/4-Debayer-Qualität fürs Playback einstellen (und anschließend in voller Qualität rendern) und habe dann keine Probleme auf Mittelklasse-Hardware. Insofern ist die Frage, wieviel ProResProRes im Glossar erklärt Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.



Antwort von DV_Chris:

Cantsin, Danke für die Anmerkung.

Ich als Edius Anbieter und Nutzer zucke immer etwas zusammen, wenn jemand von "Echtzeit" schreibt. In Edius definiert sich Echtzeit nämlich so:

- Projektauflösung entspricht einmal der Clipauflösung
- Volle Auflösung bei der Wiedergabe (also nix mit 1/2, 1/4, etc)
- Original FramerateFramerate im Glossar erklärt (also ohne skipped Frames)
- Im Original CodecCodec im Glossar erklärt (also keine "optimierten" Medien oder ähnliches)

Und da trennt sich dann oft die Spreu vom Weizen.

Und ja, die Raw Wiedergabe in Edius ist nicht die Stärke des Programms.



Antwort von mash_gh4:


Insofern ist die Frage, wieviel ProResProRes im Glossar erklärt Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.

das hängt sehr stark vom verwendeten filesystem und der fähigkeit des verwendeten betriebssystems ab, unmengen von kleinen dateien vernünftig zu handhaben -- schlagt sich also durchaus spürbar in der performance nieder.

die meisten systeme kommen mit zusammenhängenden streams jedenfalls deutlich besser klar. wobei es heute eher nicht mehr üblich ist, zwischenschichten einzubauen, um entsprechende nachteile bzw. fragmentierungstendezen zu minimieren, wie das z.b. noch beim flame und seinem StoneFS der fall war. prinzipiell sind derartige filesequenzen aber auch heute noch, obwohl die systeme mittlerweile, viel besser geworden sind, eine ziemlich suboptimale lösung.



Antwort von nic:



4K REDRAW lief auf einem 2010er 3,33 GHz 6-Core Intel Xeon "Westmere" Prozessor mit
ATI Radeon HD 5870 1 GB mit 1/4 debayer in Echtzeit. Full debayer dauerte, wenn ich mich recht erinnere schon 4- oder 5fache Echtzeit.

Das ist nämlich genau die unbekannte Variable - Apple sagt nur, dass die Performance von ProResProRes im Glossar erklärt Raw auf iMacs und Macbook Pros gut sei und suggeriert damit einen Durchbruch bei der Raw-Performance, sagt aber nichts über die Debayer-Qualität beim Playback im NLE.

Ich kann natürlich auch CinemaDNG in Resolve auf 1/2- oder 1/4-Debayer-Qualität fürs Playback einstellen (und anschließend in voller Qualität rendern) und habe dann keine Probleme auf Mittelklasse-Hardware. Insofern ist die Frage, wieviel ProResProRes im Glossar erklärt Raw dann tatsächlich ggü. bestehenden Lösungen bringt, außer der höheren Nutzerfreundlichkeit von Raw in einer .mov-Datei.

Würde 4:1 compressed cdng in Premiere und FCPX genau wie in Resolve laufen und wäre es in einer Datei zusammengefasst, dann wäre PRR in der Tat unnötig.



Antwort von DV_Chris:

Der Link ist von einer spanischen Seite. Sind zwei Files. Bin gerade beim downloaden:

https://we.tl/PTdVgMtNet



Antwort von nic:


Cantsin, Danke für die Anmerkung.

Ich als Edius Anbieter und Nutzer zucke immer etwas zusammen, wenn jemand von "Echtzeit" schreibt. In Edius definiert sich Echtzeit nämlich so:

- Projektauflösung entspricht einmal der Clipauflösung
- Volle Auflösung bei der Wiedergabe (also nix mit 1/2, 1/4, etc)
- Original FramerateFramerate im Glossar erklärt (also ohne skipped Frames)
- Im Original CodecCodec im Glossar erklärt (also keine "optimierten" Medien oder ähnliches)

Und da trennt sich dann oft die Spreu vom Weizen.

Und ja, die Raw Wiedergabe in Edius ist nicht die Stärke des Programms.

Wenn du mit 8K oder 6K-Rohmaterial arbeitest, ist dir 1/4 debayer für den Schnitt in Echtzeit völlig ausreichend.



Antwort von DV_Chris:

Natürlich ist es ausreichend. Aber trotz all dem Buzz sollte man die Dinge benennen wie sie sind. Bin somit gespannt, wie sich die Files wirklich verhalten werden.



Antwort von DV_Chris:


Der Link ist von einer spanischen Seite. Sind zwei Files. Bin gerade beim downloaden:

https://we.tl/PTdVgMtNet

Ja, also das sind in der Tat zwei ProResProRes im Glossar erklärt RAW Files.

Edius kann diese ohne Fehlermeldung importieren, aber zeigt nur ein graues Bild an.



Antwort von motiongroup:

auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..



Antwort von cantsin:


auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

Das ist natürlich 'ne Ansage... Sind das 4K-Raws?



Antwort von motiongroup:

ja 4k 25p beide gleiches Motiv ne Lampe in der ein Geist sitzt..

extrem gut zu bearbeiten ohne leak egal ob bei Skalierung oder bei der Korrektur.

die vier Kerne sind am Anschlag.. also 2/2

werd mal übermorgen schauen wie sich das die 4970k mit der IGPU und der GTX 970 teilt..

fcpx macht noch sperranskis auf dem Test Hack vermutlich die NV Webtreiber.. bin aber eh am überlegen ob nicht ne zert. 580er rein soll... wobei ich habe mit Video aktuell nicht viel am Hut und für xcode brauch ich sie nicht.. mal schauen..



Antwort von Jott:


auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

Schau an. Das wäre wie von mir erwartet und von anderen als völlig unmöglich erachtet. Ist das die Footage von diesem Typen?

https://youtu.be/r41IV1g3pss



Antwort von motiongroup:

Genau Jott das ist die LAMPE ;)

Morgen nochmals ...

Zum Material selbst, das ist wirklich einfachst auf jeglichen schwachbrüstigen Macs zu verarbeiten auch der betagte mbp17" aus 2011 nimmt das Problemlos... wobei, der nimmt auch proresHQ problemlos.

Der CodecCodec im Glossar erklärt selbst ist nur unter fcpx verwendbar, wobei ich nicht sagen könnte das es unter iMovie für den Rohschnitt nicht auch funktionieren sollte da es der selbe Unterbau ist..

QT und alle anderen Player und Tools verstehen es nicht.. ebenso wie Resolve 14... die 15 is noch Beta und somit tabu.. wobei das liest sich schon recht gut....

Interessant zu lesen in jedem Fall die Kommentare dazu das nicht jeder Glücklich ist mit der Integration von Fusion in RS. Raunzen gibts aber immer.... auch schon unter eXtreme7Pro von Cinegy.. Wurst ist lange her..

Ich vermute mal dass die aktuelle Rel. von fcpx ein wenig vorschnell rausgehauen wurde wegen der Partner .. es sind leider manche Features ;) noch nicht wirklich bereinigt und gehörten noch überarbeitet was aber in allen Häusern bei der Komplexität der Programme vorkommt.. mein Premiere Nachbar wollte sich gestern mit einem Braun Rasierer die Pulsadern öffnen..



Antwort von Roland Schulz:

4 Spuren 4K 25p RAW auf ner HD5000 GPU - alles klar Leute, da hat Aladin aus der Lampe seine Hände im Spiel ;-)!!



Antwort von DV_Chris:


auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..

Also in 1/1 Auflösung mit voller Framezahl und ohne dass im Hintergrund etwas optimiert wird? Wie Du schreibst ist die CPU Auslastung am Anschlag. Was macht die GPU? Wo liegen die beiden Files? Single SSD oder Raid?



Antwort von Roland Schulz:

Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!



Antwort von wolfgang:


auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..

Ist das wirklich dieser 2-Kerner hier?
https://support.apple.com/kb/SP699?loca ... cale=de_DE

Da muss dann ja der etwa noch viel mehr können:
Apple MacBook Pro 15" Touch Bar, i7 2,8 GHz, 16 GB RAM, 256 GB SSD, space grau https://www.amazon.de/dp/B07213P46P/ref ... ZAb1FV0VG9



Antwort von wolfgang:


Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!

Stimmt völlig. Die gezeigten Werte sind beeindruckend, leider auch der Preis.



Antwort von Roland Schulz:



auf einem mb Air11"2014 vier Spuren inkl BIP, KenBurns und FarbkorrekturFarbkorrektur im Glossar erklärt ohne Aussetzer und ohne Vorberechnung.

der QT Player spielt sie nicht ab ist kein Systemweiter Codec..

Ist das wirklich dieser 2-Kerner hier?
https://support.apple.com/kb/SP699?loca ... cale=de_DE

Da muss dann ja der etwa noch viel mehr können:
Apple MacBook Pro 15" Touch Bar, i7 2,8 GHz, 16 GB RAM, 256 GB SSD, space grau https://www.amazon.de/dp/B07213P46P/ref ... ZAb1FV0VG9

Vielleicht sollten wir noch mal auf andere Tests warten - das kommt mir da nicht ganz koscher vor. Kann unmöglich glauben dass nen 2014er MBA auch nur eine UHD PRRAW Spur 1/1 in Echtzeit schafft.



Antwort von Roland Schulz:



Vielleicht sollten wir uns hier nochmal Seite 9ff ansehen:
https://www.apple.com/final-cut-pro/doc ... _Paper.pdf

Ohne Frage eine beeindruckende Performance, von der Rechnerperformance aber auch WEEEEEEIIIIT weg von nem 4 Spur MB Air 2014 ;-)!!
Die Maschine kostet so immerhin knapp 16t€!

Stimmt völlig. Die gezeigten Werte sind beeindruckend, leider auch der Preis.

16k ist schon nen Kurs für nen iMac ;-)!! Ggf. reicht aber auch weniger.

Ich seh‘ uns schon alle Macs kaufen...



Antwort von DV_Chris:

Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)



Antwort von Roland Schulz:


Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)

C200 60p RAW läuft auf nem 8700k in EDIUS 9.2 auch in 1/2 Auflösung...!
Ich krieg da aber trotzdem kein vernünftiges "Bild" hingegradet...



Antwort von motiongroup:

ja ist das macbook air11" 2014..

keine Umwandlung, lag auf der SystemSSD
Kein Vorrendern...

Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)
Läuft durch ohne Warnmeldung von Aussetzern

Master Full4k inkl Farbanpassung
1 Spur Statischer PIP 50%
2 Spur PIP 50% mit KenBurns Links Oben Rechts Unten inkl Farbanpassung
3.....

Dieses Paket kopiert und 10x eingefügt ..

was die IGpu dabei erledigt kann ich nicht sagen da ich kein iStat drauf habe..
morgen schaue ich mir die anderen beiden Rechner an, die haben iStat drauf..



Antwort von cantsin:

Nach Slashcams Atomos-Interview sind wir etwas schlauer, auch darüber, was noch niemand weiß:

Ja, es geht auch - wie in diesem Thread schon vermutet - um RAW über HDMIHDMI im Glossar erklärt, und der neue Ninja kann das (technisch).

Nein, kein Kamerahersteller unterstützt das bisher. Nein, wir wissen auch nicht, ob da in Zukunft was kommt.

Ja, ProResProRes im Glossar erklärt RAW bleibt vorläufig auf FCPX beschränkt.

Nein, wir wissen noch nicht, ob Apple das an andere Softwarehersteller lizenzieren wird.

Im Prinzip kann man jetzt alle weiteren Diskussionen erstmal parken und muss sehen, was die Zukunft bringt.



Antwort von DV_Chris:

RAW über HDMIHDMI im Glossar erklärt bedeutet wohl notwendiger Weise neue Kamerahardware. Ob sich das ein Hersteller antun will, sei dahingestellt.

Und nach zwei Jahren Entwicklungszeit wundert es doch, dass keiner der großen NLE Hersteller schon mit im Boot ist und man nur "we're looking into it" hört. Am Ende will Apple doch eine geschlossene Veranstaltung daraus machen.



Antwort von Sammy D:


ja ist das macbook air11" 2014..

keine Umwandlung, lag auf der SystemSSD
Kein Vorrendern...

Ich meine auch, wie schon früher in dem Thread angemerkt, dass "Echtzeit" von Anwender zu Anwender ein dehnbarer Begriff ist ;-)
Läuft durch ohne Warnmeldung von Aussetzern

Master Full4k inkl Farbanpassung
1 Spur Statischer PIP 50%
2 Spur PIP 50% mit KenBurns Links Oben Rechts Unten inkl Farbanpassung
3.....

Dieses Paket kopiert und 10x eingefügt ..

was die IGpu dabei erledigt kann ich nicht sagen da ich kein iStat drauf habe..
morgen schaue ich mir die anderen beiden Rechner an, die haben iStat drauf..

Keine Ahnung, was du da gemacht hast, aber auf einem MacPro 2013 6-Kern D700 64Gb RAM, skippen die Frames ab der vierten Videospur - ohne irgendwelche Korrekturen oder sonst was. CPU und GPU auf Anschlag.
So schnell habe ich meinen Rechner noch nie auf maximale Lueftergeschwindigkeit gehen sehen.

Zudem hoere ich hochfrequentes Fiepen aus dem Kuebel. Noch nie gehoert.



Antwort von wolfgang:

Danke für die Bestätigung - und gleich wieder wird’s hier relativiert. Aber performat sind auch 3 Spuren 4K DCI auf einem 6-Kerner.

Tja der Rest ist Raten. Wenn Apple nicht weiter lizenziert hebt das wohl weniger stark ab. Und sie haben aber Vorteile für den Verkauf ihrer Geräte. Die werden sich das einfach noch offen halten und mal beobachten.



Antwort von Sammy D:


Danke für die Bestätigung - und gleich wieder wird’s hier relativiert. Aber performat sind auch 3 Spuren 4K DCI auf einem 6-Kerner.

...

PRR ist auf jeden Fall sehr performant. Da kann ich so einiges an Korrekturen vornehmen bis es anfaengt zu ruckeln. Ich habe jetzt nur wahllos Effekte und Korrekturen draufgeworfen (eine Spur) und bin nicht systematisch vorgegangen. Aber bei anderem 4K-Material geht der Rechner schneller in die Knie. Bei komprimierten Formaten wie aus der GH5 (4K 400Mbit) kann ich nicht mal die Belichtung korrigieren, ohne dass es ruckelt. Mit normalem ProResProRes im Glossar erklärt geht das nateurlich besser.



Antwort von Roland Schulz:


...CPU und GPU auf Anschlag.
So schnell habe ich meinen Rechner noch nie auf maximale Lueftergeschwindigkeit gehen sehen.

Zudem hoere ich hochfrequentes Fiepen aus dem Kuebel. Noch nie gehoert.

CPU/GPU ->100% bedeutet ungefähr maximal vorgesehene Stromaufnahme/Designgrenze. Da kommen dann ggf. schon mal die Spulen aus dem Schaltnetzteil bzw. der Spannungsregelung an die Dimensionierungsgrenzen und da hier ein jetzt stärkeres, wechselndes Magnetfeld aufgebaut ist kommt auch (minimale) Bewegung da rein, somit pfeiffts etwas. Nicht wirklich schlimm, aber nervt u.U..

Gut, ne D700 und ne Vega 64 sind schon zwei Paar Schuhe. Nicht nur die reine Rechenleistung ist bei der Vega wesentlich höher, ggf. sind auch die nutzbaren Befehle/Funktionen effektiver und FCP X ist vielleicht darauf tiefer optimiert.
Möglicherweise wurde sowas endlich genutzt:
https://software.intel.com/en-us/videos ... phics-gen9
Wenn Intel das 2015 hatte sollte AMD da was ähnliches haben.

Stand jetzt würde ich schon sagen dass man bei Apple was daran gesetzt hat "konventionelle" RAW Daten ggf. optimiert zu speichern (ggf. interleaved, so dass man für schnelle 1/4 Vorschauen in den Dateien skippen kann ohne mit vielen I/Os die ganzen Daten linear sequentiell durchzusuchen) und effektiv über die GPU zu decodieren.

Die 2014 MB Air Nummer mit 4 Spuren... na ja... vielleicht werde auch ich hier noch überzeugt ;-)...



Antwort von mash_gh4:


RAW über HDMIHDMI im Glossar erklärt bedeutet wohl notwendiger Weise neue Kamerahardware. Ob sich das ein Hersteller antun will, sei dahingestellt.

nein -- warum denn? solange du nur farbige pixel, die ja man ja auch bei HDMIHDMI im Glossar erklärt bis 12bit farbtiefe spezifiziert sind, nutzt um die eigentlichen daten bei einer vorgegegebenen bildwiederholfrequenz zu übertragen, braucht's dazu überhaupt keine umbauten od. erweiterungen. wie das übertragen bild aussieht ist ja dem übertragungsprotokoll völlig egal.

man kann damit sogar wesentlich höhere bittiefen übertragen, wenn man im transportweg die doppelte framerate nutzt und die daten auf zwei bilder verteilt. auch das haben die apertus leute bereits ganz praktisch vorexerziert. wie gesagt, das alles ist, wie schon weiter oben erwähnt, ohnehin bspw. hier nachzulesen:

https://www.apertus.org/axiom-beta-uhd- ... e-may-2016



Antwort von Roland Schulz:

So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMIHDMI im Glossar erklärt Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMIHDMI im Glossar erklärt Signal komplett per Software so dass es frei änderbar wäre.

Der HDMIHDMI im Glossar erklärt Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.



Antwort von motiongroup:

mbair 11" 2014

https://youtu.be/FdIi0F_grdU

mehr kann ich nicht tun für heute..



Antwort von mash_gh4:


So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMIHDMI im Glossar erklärt Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMIHDMI im Glossar erklärt Signal komplett per Software so dass es frei änderbar wäre.

das natürlich die kamerafirmware geändert werden muss, um RAW-daten auszugeben, brauchen wir ohnehin nicht lange zu diskutieren. das dürfte ohnehin jedem einigermaßen vernunftbegabten und technisch verständigen zeitgenossen klar sein. aber, dass sich hier irgendwelche probleme stellen sollten, die RAW-daten in ein "bild" bzw. zwei davon zu packen, kann ich überhaupt nicht nachvollziehen. was ist daran so schrecklich kompliziert oder unverständlich, unveränderte daten von einer struktur A nach B umzupacken?

Der HDMIHDMI im Glossar erklärt Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.

normalerweise werden für die eigentliche HDMIHDMI im Glossar erklärt schnittstelle fertige externe ICs genutzt, weil es hier ganz speziell um den schutz gegenüber statischen entladungen u.a. geht, wie man sie gewöhnlich nicht in den zentralen ASICs abwickelt. die entsprechenden bausteine übernehmen aber oft auch noch andere aufgaben (übersetzung der daten aus den üblicherweise genutzen seriellen protokollen der prozessoranbindung, pixelformat transformationen, scaling etc.) die tatsächlich tiefer gehen. das ändert aber nichts daran, das sie grundsätzlich durchaus auch in der lage sind, die oben angesprochenen "bilder" auch tatsächlich in einer weise auszugeben, die keine störenden veränderungen daran vornimmt.

ehrlich gestanden kann ich überhaupt nicht nachvollziehen, warum das überhaupt von irgendjemandem in zweifel gezogen wird? das ganze ist technisch gesehen eine derart triviale angelegeheit, dass man darüber wirklich nicht viele worte verlieren muss. und selbst wenn man meiner person jede kompetenz in der beurteilung solcher sachverhalte absprechen mag, ist doch die praktisch existierende umsetzung durch das apertus team -- wo man über so aufregend großartige entwicklungsabteilungen bekanntlich auch nicht verfügt -- ein ziemlich unbestreibarer beleg für meine behauptungen.



Antwort von DV_Chris:

Unter HDMIHDMI im Glossar erklärt 2.0 wird es auch mit der BandbreiteBandbreite im Glossar erklärt nicht klappen.



Antwort von DV_Chris:


mbair 11" 2014

mehr kann ich nicht tun für heute..

In Unkenntnis des Programms:

1. Ist das ein 4K Projekt (würde also über BMD Hardware ohne Skalierung so ausgespielt werden können)?

2. Wird das Material 1:1 wiedergegeben? Also keine Preview/Draft oder 1/4 Qualität whatever?

3. Werden wirklich konstant 25 Frames wiedergegeben?



Antwort von Sammy D:


mbair 11" 2014

https://youtu.be/FdIi0F_grdU

mehr kann ich nicht tun für heute..

Da faellt doch die Haelfte aller Frames aus! Am Bild sieht man das nateurlich nicht, wenn sich nichts bewegt, aber am Time Code.



Antwort von motiongroup:

Das mag schon sein aber bei Ken Burns würdest Du in der Bewegung ein Stocken erkennen und die Fehlermedung sollte anzeigen.. dürfte in der Tolleranz liegen..
strange ist das Scrubben, dass belastet überhaupt nicht und vergessen wir nicht das auf jeden Clip ein scaling, bewegung und colorc. drauf liegt..

Ich habe die oberste Spur deaktiviert und dann läuft der TimecodeTimecode im Glossar erklärt butterweich..

Trotz dieser Eigenheit in der Anzeige ist das für diesen schwachen Alukeil trotzdem beachtlich..



Antwort von wolfgang:

Ja für diese alte Gurke ist das wohl durchaus beachtlich.



Antwort von Roland Schulz:

!!! RESPEKT !!!



Antwort von Roland Schulz:



So einfach ist das nicht unbedingt! Viele Funktionen in der Kamera sind "hartverdrahtet" bzw. über ASICs oder Signalprozessoren fest implementiert und bzw. sind nur anhand einiger Parameter änderbar. Da kriegt man nen debayertes Bild welches zur Ausgabe auf nen HDMIHDMI im Glossar erklärt Encoder gelinkt ist nicht einfach verdreht bzw. reicht die Performance der GUI Implementierung nicht aus statt ner Menudarstellung einfach nen RAW Bild zu generieren. Die wenigsten wenn überhaupt irgendwer generiert das HDMIHDMI im Glossar erklärt Signal komplett per Software so dass es frei änderbar wäre.

das natürlich die kamerafirmware geändert werden muss, um RAW-daten auszugeben, brauchen wir ohnehin nicht lange zu diskutieren. das dürfte ohnehin jedem einigermaßen vernunftbegabten und technisch verständigen zeitgenossen klar sein. aber, dass sich hier irgendwelche probleme stellen sollten, die RAW-daten in ein "bild" bzw. zwei davon zu packen, kann ich überhaupt nicht nachvollziehen. was ist daran so schrecklich kompliziert oder unverständlich, unveränderte daten von einer struktur A nach B umzupacken?

Der HDMIHDMI im Glossar erklärt Port ist meist nicht einfach ne flexible Schnittstelle sondern ein Ausgang eines (Bild-)Encoders bzw. macht ein ASIC hinter dem Sensor direkt nen debayertes (Video-)Bild.

normalerweise werden für die eigentliche HDMIHDMI im Glossar erklärt schnittstelle fertige externe ICs genutzt, weil es hier ganz speziell um den schutz gegenüber statischen entladungen u.a. geht, wie man sie gewöhnlich nicht in den zentralen ASICs abwickelt. die entsprechenden bausteine übernehmen aber oft auch noch andere aufgaben (übersetzung der daten aus den üblicherweise genutzen seriellen protokollen der prozessoranbindung, pixelformat transformationen, scaling etc.) die tatsächlich tiefer gehen. das ändert aber nichts daran, das sie grundsätzlich durchaus auch in der lage sind, die oben angesprochenen "bilder" auch tatsächlich in einer weise auszugeben, die keine störenden veränderungen daran vornimmt.

ehrlich gestanden kann ich überhaupt nicht nachvollziehen, warum das überhaupt von irgendjemandem in zweifel gezogen wird? das ganze ist technisch gesehen eine derart triviale angelegeheit, dass man darüber wirklich nicht viele worte verlieren muss. und selbst wenn man meiner person jede kompetenz in der beurteilung solcher sachverhalte absprechen mag, ist doch die praktisch existierende umsetzung durch das apertus team -- wo man über so aufregend großartige entwicklungsabteilungen bekanntlich auch nicht verfügt -- ein ziemlich unbestreibarer beleg für meine behauptungen.

Das man Firmware bzw. Software braucht ist klar, nur werden die Daten ggf. gar nicht wie benötigt als RAW Daten vorliegen. Da gibt"s in der Kamera ggf. nen "Bus" hinter dem A/D Wandler der für Standbilder ausgelegt ist und nen RAM Puffer hat und ne schnelle Anbindung zur Speicherkarte hat. Dann haste nen Bus hinter dem A/D Wandler der in nen hardwired Demosaicingprozessor führt um mit wenig Prozessorleistung stromsparend über nen ASIC ein Bild zu erzeugen. Der ist dann an nen Videoencoder angebunden der aus dem einlaufenden 4:4:44:4:4 im Glossar erklärt Bild schon mal 4:2:04:2:0 im Glossar erklärt macht und das entweder in nen H.264 Encoder füttert und/oder zum Controller des HDMIHDMI im Glossar erklärt Ausgangs weiterleitet. Du hast aber keinen Weg oder Bus die Daten schnell genug vom A/D Wandler noch mal zu "taggen" oder sortieren und direkt in den HDMIHDMI im Glossar erklärt Port zu bringen. Das war beim Design der jeweiligen Kamera nicht vorgesehen und ist nicht nutzbar. Du hast die RAW Daten zwar für Standbildverarbeitung am Prozessor anliegen, der kann aber nicht in der benötigten BandbreiteBandbreite im Glossar erklärt an den HDMIHDMI im Glossar erklärt Port senden da es hier keinen schnellen Bus gibt. Der Prozessor kann nur auf eine interne "Grafikkarte" zugreifen, welche ein Bild und Menu sowie Zusatzeinblendungen erzeugen kann - allerdings nicht in der notwendigen Performance bzw. Bitrate. Es gibt u.U. keinen ausreichend performanten Weg das Signal hinter dem A/D Wandler direkt auf den HDMIHDMI im Glossar erklärt Controller zu schicken, der ggf. auch nicht ausreichend schnell ist. Da kann man dann programmieren was man will, die performanten Datenwege bestehen einfach hardwaretechnisch nicht.



Antwort von mash_gh4:

das natürlich in den üblichen kameras tatsächlich sehr viel in form von ASICs quasi fest verdrahtet ist, bestreite ich nicht. so gesehen würde ich mir auch keine großen hoffnungen machen, dass in irgendwelchen verbreiteten kameras jetzt plötzlich beim nächsten firmwire-update eine RAW-aufzeichnungsfunktionalität, egal welcher form, angeboten wird. allerdings bin ich immer wieder überrascht, wie viel flexibilität offenbar in manchen geräten doch da zu sein scheint, features nachträglich einzubauen.

das apertus bsp. ist in dieser hinsicht natürlich ein bisserl ungewöhnlich, weil man dort ja bekanntlich keine eigens für diese kamera produzierten ASICs nutz, sondern of the shelf FPGAs, die ein vollständiges umkonfigurieren der ganzen hardware auch nachträglich mit jedem firmwareupdate erlauben. dass das aber natürlich bei hardware für die breiten massen nicht besonders zielführend wäre, weil es doch wesdentlich tuerer kommt und in die verarbeitung spürbar langsamer ist, ist natürlich auch klar.

das ändert aber nichts daran, dass es weder speicherseitig noch von den hier üblichen kommunikationswegen zwischen den komponenten irgendwelche gröberen hindernisse geben dürfte, RAW-daten statt irgendwas anderes rauszuschicken. man muss sich einfach nur vergegenwärtigen, dass heutige bildaufbereitungschips in billigen kameras oft temporales noise reduction beherrschen, was quasi zwingend voraussetzt, dass mindestens der umfang eines vollbilds als vergelichsreferenz irgendwo direkt im speicher greifbar sein muss, etc.

wie gesagt, wenn es gründe gibt, dass derartige features ganz bewusst nicht angeboten werden, sind das leider ganz andere als die genannten techn. probleme.



Antwort von Frank Glencairn:

Erinnert mich ein bisschen and die Andromeda/Hydra Hardware Hacks bei der DVX100 und HVX200 damals - ich glaub 2005 - wo es tatsächlich gelungen ist, das raw Signal irgendwo anzugreifen, bevor es weiter verarbeitet wurde.

http://www.dvxuser.com/V6/showthread.ph ... our-HVX200





Antwort von Roland Schulz:

Jetzt ist das YT Video weg - hmm, was war das nun?!
Wirkliches Prores RAW oder Prores als Prores Raw getagged?!
Irgendwie kann ich das alles nicht glauben...



Antwort von motiongroup:

Prores RAW wie oben verlinkt



Antwort von Roland Schulz:


Prores RAW wie oben verlinkt

Sorry, war Dein Video, nicht das des Spaniers.



Antwort von motiongroup:

Mein video mit den zuvor verlinkten quellfiles



Antwort von dnalor:

Ich hab mir mal die beiden ProresRaw-Files auf mein 12" MacBook runtergeladen und ein wenig rumgespielt. Schon krass wie flüssig das läuft. Als würde man Proxy Material nutzen. Selbst wenn man ein paar Filter drauflegt läuft das noch flüssig.



Antwort von motiongroup:

so, ich habe das nun noch auf dem Hack mit einer i7 4970k und einer GTX 970 getestet..und iStat parallel dazu kontrolliert wie die Auslastung von der IGPU und der NV GTX aussieht..

bei vier Spuren mit Farbe PIP und Ken Burns.. alle acht Cores bei 25% und die IGPU bei NULL die GTX mit der Speicherlast und bei der Prozessorlast bei runden 50%..

ich habe danach nicht mehr weiter gemacht..

PS: habe noch vergessen, ich habe ne Bauchbinde durchhuschen lassen..

und wieder hat sich ein Neukauf in weite Ferne gerückt denn auch das alte MBP17" 2011 steckt das locker weg.. irgendwie macht das fast Angst..;)

Was aber Auffällt am HACK ist der aktuelle NV Webtreiber nicht das Gelbe... vom Ei..;) ab und an tauchen bunte Würfeln in der GUI von fcpx auf... nicht im Canvas.. bin aber nicht der Einzige.. Wayne kümmerts



Antwort von Roland Schulz:

Das ist echt schon ne Ansage!!

Kann man anhand der Samples Qualität abschätzen?! Verstehe nicht wie man 4 4K Tracks gleichzeitig in 30p debayern kann...

Wie sieht das aus wenn man das in nen 4K Prores exportiert (performancemäßig...)?



Antwort von DV_Chris:


Das ist echt schon ne Ansage!!

Kann man anhand der Samples Qualität abschätzen?! Verstehe nicht wie man 4 4K Tracks gleichzeitig in 30p debayern kann...

Wie sieht das aus wenn man das in nen 4K Prores exportiert (performancemäßig...)?

Das erscheint mir auch wie Zauberei, die Debayer Sache. Ist ja nicht so, dass andere Hersteller keine Top Entwickler hätten.



Antwort von Axel:

Die Testclips sind doof, weil statisch. Aber performancemäßig wirken sie echt wie normales ProRes. Und CC macht auch Spaß damit. Ich hoffe, dass bis September die Pocket 4k den CodecCodec im Glossar erklärt an Bord an. Obwohl ich nach wie vor Resolve benutzen würde.



Antwort von wolfgang:

Man müsste also ein paar verschiedene 4K DCI 50p Clips für die Testerei verwenden.



Antwort von motiongroup:

Ich habe bis auf diese zwei keine gefunden..

Schön das sie das FormatFormat im Glossar erklärt entwickelt haben ...
Must have... Nö..
Prores langt mir(uns) auf lange Sicht...
Aber es ist gut zu wissen das es funktioniert wenn der Content extern angeliefert wird...



Antwort von wolfgang:

https://youtube.com/watch?feature=youtu ... QbqENPQaM8



Antwort von Frank Glencairn:

Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?



Antwort von rush:


Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?

Das wäre in der Tat merkwürdig und würde den eigentlichen RAW-Gedanken ja ad acta führen - und womöglich auch die von einigen Usern erwähnte "gute" Perfomance erklären wenn's eher ein höherwertiges LOG ist...

Dabei heißt es bei FCPX: "ProRes RAW has been designed for HDR workflows, and with the latest codec editors can import, edit and grade pristine footage with RAW data from the camera sensor just like they would any other non-Raw existing ProResProRes im Glossar erklärt codec be it a 10bit or 12bit variant, however this time with the benefits of a Raw workflow – with full access to white balance, ISO, lens data stored in the metadata files and much more."

Also sollte das ja schon auch möglich sein.



Antwort von Frank Glencairn:

Also entweder checkt es der Typ in dem Video also nicht, oder die Kamera spuckt kein richtiges RAW aus, sondern irgend ne "Sony Light RAW" variante.



Antwort von motiongroup:

Könnt ja selber damit herumspielen ;)

https://mega.nz/#F!Nd0XxJzC!hlfXGYfIDwiw_UiwB3ZS-w



Antwort von rush:


Könnt ja selber damit herumspielen ;)

Nö, können wir (ich) nicht - weil kein Mac und entsprechend kein FCPX :D



Antwort von motiongroup:

Alles klar Leute, dann heißt es warten und nicht vorher schon die Welt am Abgrund sehen...:)))

Ich verstehe generell nicht warum um diesen CodecCodec im Glossar erklärt der noch nichtmal Systemweit verfügbar so viel Aufhebens gemacht wird..
Die Welt dreht sich weiter auch mit den Radneuerfindern..
Ist Workflow einfacher am Beispiel RED oder CDNG ves ProresRAW unter FCPX nona werde ich den ProResRAW bevorzugen wenn das Equipement vorhanden ist oder auch neu angeschaft wird.. der Rest ist nice to have mehr nicht.. war aber schon bei Prores nicht anders welcher sogar Systemweit eingesetzt werden könnte wenn ja wenn die Entwickler ihren Obulus an Apple abdrücken würden.. einige machens andere lavieren seit Jahren herum, andere wieder suchen in nicht legalen Optionen ihr Heil... Ich seh das seit einiger Zeit viel entspannter weil mir das Thema Video weder Beruflich noch Privat besonderes Interesse abverlangen würde..Dann und nun dann kommt einen das was hier geschrieben wird ziemlich Strange vor und wird mit einem Kopfschütteln quittiert. Wilde Thesen, freche Forderungen im speziellen von Denjenigen die sowieso niemals damit Arbeiten würden aus Teils weltanschauungstypischen Befindlichkeiten.. man braucht sich ja nur umsehen was sich in Welt so abspielt..



Antwort von rush:

Ich sehe das ja auch locker und entspannt, aber kann schon verstehen das diese Ankündigung einige Wellen schlägt und ich finde es beinahe interessanter als etwa die Ankündigung der Pocket - deren Hype ich nicht so ganz verstehe.

Wäre doch wirklich ganz nice wenn sich mal eine Art Standard für Raw etablieren würde, auch wenn ich nicht daran glaube.
Die Hersteller werden sich vermutlich ungern in die Karten schauen lassen und ein properiteres System lässt sich teurer verkaufen - Insellösung halt.

Die Entwicklung von ProResProRes im Glossar erklärt Raw hat Apple also in den Händen - wer Apple jedoch kennt weiß auch das sie selten für offene Systemarchitekturen sind.

So gesehen muss man mal schauen wie da die anderen NLE und Grading-Anbieter mitspielen (dürfen/können) und wohin der Hase läuft.
Zu erwarten das von Tag Null an alles überall spielt ist aber logischerweise illusorisch.

Interessant wäre ja vllt auch eine Art ProResProRes im Glossar erklärt Raw Converter - der ähnlich dem CDNG Konverter im Standbildbereich Material fremder RAW-Quellen ins eigene Hausformat wandeln kann... für Apple / FCPX User wäre das sicher nice in Hinblick auf die Perfomance. Denn die wandlen ja eh fast immer alles erst nach ProResProRes im Glossar erklärt ;-)

In der Windows Welt hätte Adobe die Chance ja längst gehabt, vielleicht hat man das ganze Mangels Konkurrenz aber auch einfach schleifen lassen.. oder es ist lizenzmäßig und technisch zu kompliziert - keine Ahnung



Antwort von Sammy D:


Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?

Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.



Antwort von nic:



Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?

Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.

Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben. Bei der Frage warte ich aber noch auf die Antwort von Panasonic.



Antwort von Frank Glencairn:



Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.

Es macht einen riesen Unterschied, ob du auf den raw (Meta)Daten deinen First Pass machst, oder auf den debayerten RGBRGB im Glossar erklärt Daten.
Ich würde sogar sagen, wenn du raw nicht raw bearbeiten kannst, sondern gezwungen bist, auf den RGBRGB im Glossar erklärt Daten zu arbeiten, dann macht es auch keinen Sinn, überhaupt raw zu drehen. Da kannst du auch gleich RGB/YUV aufnehmen, das macht dann keinen Unterschied mehr.

Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben.

Ja, sowas hab ich mir schon gedacht. Das erklärt einiges.



Antwort von Axel:



Moment, hab ich das eben richtig verstanden, daß man mit Prores RAW keinen Zugriff auf die RAW Parameter wie ISO, WB etc hat?

Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.

In Resolve gibt es den Tab CAMERA RAW, in dem alle Metadaten gesammelt sind und unabhängig von den sonstigen CC-Werkzeugen die o.g. Werte manipuliert werden können. In FCP gibt es nur unter den Farbrädern diese Schieberegler:
zum Bild https://cdn.provideocoalition.com/app/u ... -wheel.jpg

Darüber hinaus gibt es im >Info-Fenster >Metadaten >Erweitert etwa mittig in der Liste die beiden Punkte "Raw to LOG Conversion" und darunter "Kamera LUT" (beide spontan "Panasonic V-Log"). Dass diese etwas unzugänglicher sind, ist nicht weiter schlimm, da es FCP-typisch ist, die komplette Auswahl an Clips aus z.B. einer Kamera im Browser als Gruppe zu wählen und gemeinsam einzustellen.

Wenn jemand vier, fünf Testclips lädt, denkt er sich vielleicht, hey, das geht ja wie Butter, ich brauch gar keine speziellen Camera Raw Werkzeuge. Meine persönliche Meinung ist, dass sich das ab allem über 20, 30 Clips (eine simple Hochzeit hat i.d.R. 100-300!) ändert. Die Einzeltools in FCP mögen recht nett sein, aber es gibt kein übersichtliches GUI für diesen Workflow-Schritt, sondern den *Zwang*, zwischen Fenstern hin und her zu springen. Die Organisation von CC-Schritten durch Nodes ist mit einer Listendarstellung weder von der Darstellung noch von der Funktionalität her zu ersetzen. Darum: Schuster, bleib bei deinen Leisten! FCP für den Schnitt (so nett Resolve das hingekriegt hat, es benutzt weiterhin Spuren und hat nur rudimentäre Organisationstools), Resolve für Farbkorrektur. Und darum, so nett ProResProRes im Glossar erklärt Raw auch sein mag, es fängt erst an, interessant zu werden, sobald Resolve es unterstützt.

Es könnte ja zum Beispiel nur in der Studio-Version verfügbar sein, um die Lizenzgebühren wieder reinzuholen und gleichzeitig mehr Leute zum Kauf anzuregen. Wenn es bis September in der Pocket 4k enthalten ist, werden deren Verkäufe geradezu durch die Decke gehen! Ungeachtet mir nicht zugänglicher JR Ewing/Cliff Barnes-Konkurrenzstrategien zwischen den Konzernen würde der beschriebene Synergie-Effekt die schnelle Verbreitung von PRR sogar wirtschaftlich erzwingen.



Antwort von DV_Chris:

Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.



Antwort von Axel:


Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.

Wäre ja möglich. Da es ohnehin auf Computern nur Decoder gibt, könnte PRR plattformunabhängig in jede Software integriert werden. Warum PRR die Pocket attraktiver machen könnte? Möglicherweise billigere Speichermedien. 4k 60p RAW braucht CFast. Mal nachgesehen, was die kosten und wie schnell sie mit diesem FormatFormat im Glossar erklärt zugeschissen wären?



Antwort von DV_Chris:

Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.



Antwort von Sammy D:


Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.

... und die Jammerei ueber einen verbogenen oder defekten USB-C-Port auf ein Maximum. ;)



Antwort von DV_Chris:

Gibt ja auch gewinkelte Stecker.



Antwort von Axel:


Die Möglichkeit, extern auf SSD aufzuzeichnen reduziert die Speichermedien Jammerei bei der Pocket auf ein Minimum.

Reicht denn das für 4k Raw 60p? Und wenn, die 2 TB Samsung Variante, die auf den BM-Seiten gezeigt wird, kostet fast soviel wie der Kamerabody. Und dann baumelt ein Kästchen runter oder ein Monsterrig wächst außen drum rum.



Antwort von Sammy D:


Gibt ja auch gewinkelte Stecker.

Das nuetzt herzlich wenig. Man beruehrt vielleicht die herausstehenden Stecker weniger, aber zieht unabsichtlich an den Kabeln.
Mir ist bisher jeder zweite Micro-USB (Tablet, Handy, Gimbal, sonstiges) nach kurzer Zeit kaputtgegangen, Mini-USB ist auch nicht gerade robust und Micro-HDMI ist ebenfalls eine Katastrophe, wenn man kein Lock dranmacht. Einzige Ausnahme ist der Micro-HDMI des Atomos Ninja-Star; der scheint unverwuestlich: da muss ich mit Kraft ziehen, um den Stecker zu loesen.

Lieber kaufe ich zwei CFast-Karten als eine Ersatz-Pocket.



Antwort von Jott:

Gibt es jetzt irgendwo sinnvolle Footage zu laden? Die spanische Wunderlampe (Magic Lantern!) ist mangels Bewegung etwas arg dämlich.

Ich vermute, fcp verarbeitet das Raw wie sonst auch immer alles. Beim Schnitt via ProResProRes im Glossar erklärt, zur finalen Ausgabe zu was auch immer wird dann wieder auf die Originalfiles, hier raw, zurückgegriffen. Wozu ein Zwischenschritt (first light)? Aber das würde ich gerne mal durchspielen. Und die Performance feststellen. Die Panik, man brauche einen Rechner im fünfstelligen Bereich ist sicher Quatsch. Was soll ich mit sieben oder mehr RAW-Strömen wie in der Angebergrafik im White Paper? Zwei reichen ja (Blende) auf einem MacBook. Picture in Picture-Orgien ist 90er-Jahre.



Antwort von Axel:


Lieber kaufe ich zwei CFast-Karten als eine Ersatz-Pocket.

Exakt. Und dann wäre es aufgrund der €/GB Relation schön, wenn 40 Minuten drauf passten statt 20 (oder so, hab mich mit den Unterschieden zwischen PRR und komprimiertem DNG noch nicht näher befasst).



Antwort von nic:


Gibt es jetzt irgendwo sinnvolle Footage zu laden? Die spanische Wunderlampe (Magic Lantern!) ist mangels Bewegung etwas arg dämlich.

Ich vermute, fcp verarbeitet das Raw wie sonst auch immer alles. Beim Schnitt via ProResProRes im Glossar erklärt, zur finalen Ausgabe zu was auch immer wird dann wieder auf die Originalfiles, hier raw, zurückgegriffen. Wozu ein Zwischenschritt (first light)? Aber das würde ich gerne mal durchspielen. Und die Performance feststellen. Die Panik, man brauche einen Rechner im fünfstelligen Bereich ist sicher Quatsch. Was soll ich mit sieben oder mehr RAW-Strömen wie in der Angebergrafik im White Paper? Zwei reichen ja (Blende) auf einem MacBook. Picture in Picture-Orgien ist 90er-Jahre.

Wenn du mir eine Mail schreibst, kann ich dir was zukommen lassen: nic at neuzeit.tv

Also ein iMac Pro 10-Kerner mit Vega 64 oder einen Mac Pro 12-Kerner von 2010 mit Vega 56 lässt sich mit PRR zumindest nicht annähernd auslasten...



Antwort von DV_Chris:

So wie für jede Kamera wird es auch Cages für die Pocket 4K geben. Und vernünftige Rigs zeichnen sich durch ordentliches Kabelmanagement aus. Also die SSD Sache wird genug Freunde finden.



Antwort von wolfgang:



Kann es nicht sein, dass FCPX einfach keine separate Sparte fuer RAW benoetigt? ISO ist bei RAW nur Metadata und WB und Exposure kann man im Color Panel verstellen.
Mein Adobe Camera Raw (v9) hat auch kein spezielles Knoepfchen fuer ISO aber die Dateien sind trotzdem RAW.

Das Raw der EVA ist ISO-variant, das heißt, dass die (analoge) Verstärkung in den RAW-Files eingebacken ist. Gleiches gilt wohl auch für die Sonys. Eventuell ist bei der EVA sogar (eine gewisse) WB(-Präferenz) durch individuellen ‚Gain‘ auf die Farbkanäle vorgegeben. Bei der Frage warte ich aber noch auf die Antwort von Panasonic.

Ja das haben wir inzwischen auch für CDNG aus der EVA1/Shogun Kombination unter Resolve herausgefunden. ISO sollte daher auf einer der nativen ISOs stehen, und einen WB sollte man offenbar auch machen. Diese Bestätigungen finden sich inzwischen auch auf Facebook von Mitch Gross.

Mich wundert nur dass man solche relevanten Informationen nicht vorab kommuniziert?



Antwort von wolfgang:


Warum sollten die Pocket 4K Verkäufe wegen PRR durch die Decke gehen? Es ist ja bewährtes RAW drin in der Pocket. Und man mag in seiner eigenen Blase Marktanteile überschätzen. Ich sehe als Händler in Österreich hier, dass seit etwa drei Quartalen bei Studios der Trend von Apple weg geht. Vor allem dort, wo wirklich Performance verlangt wird.

Die Verkäufe dürften durch die Decke gegen, aber sicher nicht wegen PRR!



Antwort von wolfgang:


Also ein iMac Pro 10-Kerner mit Vega 64 oder einen Mac Pro 12-Kerner von 2010 mit Vega 56 lässt sich mit PRR zumindest nicht annähernd auslasten...

Wie sind den diese Geräte genauer ausgestattet?



Antwort von motiongroup:

http://forum.blackmagicdesign.com/viewt ... =2&t=71762
ProRes RAW is a great thing.

It gives you RAW controls inside of ProRes. I believe it’s been leaked or announced elsewhere that Resolve supports this already. It’s not just FCPx.

ProRes implementations aren’t closed to reading ProResProRes im Glossar erklärt files so I imagine it’s just up the the ProResProRes im Glossar erklärt app developers to write their code and you’ll see other platforms supporting this.

Cineform is dead.

They wanted too much money to licence. Now they’re owned by GoPro and have gone exactly nowhere.

It doens’t matter if they’re smarter or better. They don’t have any market support.

ProRes support is hardware assisted and it’s built into the OS and Hardware of each Apple product and they make damn sure it works very very reliably when originating to it in camera.

You will see this in cameras very soon. Think of almost any camera that shoots ProResProRes im Glossar erklärt now, and it could potentially do ProResProRes im Glossar erklärt RAW. It will only be up to the will of the manufacturer to implement it.

Like ProResProRes im Glossar erklärt or not, this is big news and I suspect it will be rapidly adopted. I’d guess that the MAJORITY of the worlds high end production isn’t RAW, it’s ProResProRes im Glossar erklärt, for many many reasons that have nothing to do with IQ and everything to do with workflow. Now you get both.

JB
John Brawley

ich vermute es wird nicht lange dauern...;)



Antwort von wolfgang:


http://forum.blackmagicdesign.com/viewt ... =2&t=71762
ProRes RAW is a great thing.

It gives you RAW controls inside of ProRes. I believe it’s been leaked or announced elsewhere that Resolve supports this already. It’s not just FCPx.
John Brawley

ich vermute es wird nicht lange dauern...;)

Genau das ist eben die Frage, ob es lange dauert. Wenn John hier recht hätte, dann sollte es PRR längst in Resolve 15 geben. Ist aber nicht so.

Dass viele CDNG hassen - eh klar. Die Datenmengen sind eben enorm. Aber dafür gäbe es ja mit slimRAW sogar Abhilfe.

Verstehe mich richtig: ich würde uns wünschen dass PPR ein Erfolg wird. Aber dann bitte auf allen relevanten Plattformen. Also her damit! :)



Antwort von cantsin:


http://forum.blackmagicdesign.com/viewt ... =2&t=71762

You will see this in cameras very soon. Think of almost any camera that shoots ProResProRes im Glossar erklärt now, and it could potentially do ProResProRes im Glossar erklärt RAW. It will only be up to the will of the manufacturer to implement it.

Dann muss man aber auch klar sagen, dass ProResProRes im Glossar erklärt über HDMIHDMI im Glossar erklärt und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProResProRes im Glossar erklärt aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment.



Antwort von srone:


Wenn John hier recht hätte, dann sollte es PRR längst in Resolve 15 geben. Ist aber nicht so.

noch ist es nur die beta...;-)

lg

srone



Antwort von motiongroup:

Dann muss man aber auch klar sagen, dass ProResProRes im Glossar erklärt über HDMIHDMI im Glossar erklärt und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProResProRes im Glossar erklärt aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment.

ist ja bei Prores auch nicht anders...



Antwort von cantsin:


Dann muss man aber auch klar sagen, dass ProResProRes im Glossar erklärt über HDMIHDMI im Glossar erklärt und in Prosumer-Kameras nicht so schnell kommen wird (mit der möglichen Ausnahme von, wieder mal, Blackmagic). Denn außer im Profi-Segment gibt's ja praktisch keine Kameras, die ProResProRes im Glossar erklärt aufnehmen, nicht mal im Sony FS/Canon C/Panasonic EVA-Segment.

ist ja bei Prores auch nicht anders...

Das meinte ich ja. (Ich schrieb über ProResProRes im Glossar erklärt, nicht ProResProRes im Glossar erklärt Raw.) Also, wenn die Ambition von ProResProRes im Glossar erklärt Raw sich darauf beschränkt, in die Klasse Kameras einzuziehen, die heute schon ProResProRes im Glossar erklärt aufnehmen, wird das doch eine ziemlich exklusive Veranstaltung.



Antwort von motiongroup:

ach so, ich dachte Du hast das RAW einfach weggelassen..;)



Antwort von Starshine Pictures:

https://youtu.be/x2RRndhLliw



Antwort von WoWu:

Null Information. ... 100% Marketing.



Antwort von DV_Chris:

Brawley klingt wie ein Fanboy.



Antwort von WoWu:

Ich finde das ziemlich traurig, dass es zu solchen Formaten nicht mal relevante Informationen gibt.



Antwort von nic:

Ich find‘s schön, wenn jemand vom eigenen Produkt ehrlich begeistert ist. Und ich kaufe es ihm auch noch ab...



Antwort von WoWu:

Nennt man sowas dann Zweckoptimismus ?
Eigentlich wär’s ihm auch lieber, dass Du ihm nicht seine Begeisterung, sondern sein Produkt abnähmst.



Antwort von srone:


Nennt man sowas dann Zweckoptimismus ?
Eigentlich wär’s ihm auch lieber, dass Du ihm nicht seine Überzeugung, sondern sein Produkt abnähmst.

wobei ich anmerken möchte, dass bei diesem hersteller, eben nicht nur das produkt im vordergrund steht...;-)

lg

srone



Antwort von WoWu:

Das verstehe ich nicht .... leben die nicht von ihren Produkten ?

Ich finde überwiegend in dem FCP Update nirgends irgendwelche Hinweise auf die Eingriffmöglichkeit in irgend einen De-mosaicing prozess.
Hat da schon jemand was entdeckt ?



Antwort von srone:

das schon, aber diese produkte werden auch von einem gewissen lifestyle-"hype" getragen..

lg

srone



Antwort von Jott:


Ich finde das ziemlich traurig, dass es zu solchen Formaten nicht mal relevante Informationen gibt.

Wozu denn, du würdest doch ProResProRes im Glossar erklärt aus Prinzip sowieso niemals benutzen. Ist weit unter deiner Würde, wie du unermüdlich kundtust.



Antwort von nic:

Letztlich ist es wohl einfach nur lineares ‚Graustufen‘- ProResProRes im Glossar erklärt mit variabler Bittiefe und der zusätzlichen Definition des CFA im Header...



Antwort von WoWu:

Das wäre aber bitter.
Wobei sie ja irgend etwas anders als in PR machen müssen, denn nicht umsonst ist Mindestanforderung "high sierra".
Mal sehn, ob man irgendwoher ein stück content bekommt.



Antwort von nic:


Das wäre aber bitter.
Wobei sie ja irgend etwas anders als in PR machen müssen, denn nicht umsonst ist Mindestanforderung "high sierra".
Mal sehn, ob man irgendwoher ein stück content bekommt.

Redraw sind ja auch nur variabel wavelet-komprimierte lineare ‚Graustufen-Bilder‘... mehr ist raw auch einfach nicht.



Antwort von WoWu:

Kommt immer drauf an, aus welcher Kamera es kommt.



Antwort von cantsin:

Grant Petty, CEO von Blackmagic, über ProResProRes im Glossar erklärt Raw:

"There's some problems with it. It's basically blacks in the color science. It's a look-up table and a Bayer package. It's just a container with a LUT. And so the difficulty is, when we record into that, and it winds up in Final Cut, unless our color science is in there, it's gonna look bad. So it needs more work, and at the moment. So it's just one of those things, there's some issues. I mean, we do that already in the camera. The reason why we use raw is that you wanna bypass that stage and go into DaVinci. DaVinci already does all these formats, the native camera formats, with all the color science from the camera manufacturers in there to handle that. That's where all the work is, it's in the color science. So often when we get raw files from various sources, it's the camera manufacturer's color science and our color sciences working to make these images look good".

https://youtu.be/yQHH-o_rmK8?t=392



Antwort von WoWu:

Es ist immer dasselbe problem, dass die Interiewer keine wirklichen Fragen stellen und die Interviewten antworten können, was sie wollen, weil die Interviewer entweder sowieso nicht zuhören oder/und die Antworten gar nicht einordnen.
Das, was dabei heraus kommt, ist dann so ein Ergebnis.

Ic h glaube mittlerweile auch, dass das nur ein flachgebügeltes Video ist, auf dem nur RAW in goldenen Lettern glänzt und zweifel stark daran, dass FCP irgendwelches De-mosaicing macht denn gerade da könnte man maßgeblich in die Bildverbesserung einwirken. Nur braucht dazu die Palette an Tools, die (ich zumindest) bisher in 10.4.1 nicht finden kann.
Da ist mal wieder eine Marketingmaschine angelaufen und jeder fällt drauf rein.



Antwort von Jott:

Und nicht vergessen: ProResProRes im Glossar erklärt RAW ist nur MPEGMPEG im Glossar erklärt 2 in s/w mit den "riesigen Makroblöcken" der "dreißig Jahre alten DCT". Denn Apple kann keine "modernen Codecs". Gleich ins Buch schreiben.



Antwort von nic:


Und nicht vergessen: ProResProRes im Glossar erklärt RAW ist nur MPEGMPEG im Glossar erklärt 2 in s/w mit den "riesigen Makroblöcken" der "dreißig Jahre alten DCT". Denn Apple kann keine "modernen Codecs". Gleich ins Buch schreiben.

Naja, aber gerade deshalb ist es ja so perfomant. Wer schon mal versucht hat mit Long-GOP 4K zu schneiden, der weiß wieder was er an ProResProRes im Glossar erklärt hat.

Und bei PRR von flachem Video zu sprechen, hat was von Verschwörungstheorie... die einzige Definition von Raw, die so ziemlich jeder ubterschreiben würde, ist, dass die Daten vor dem Demosaicing gespeichert werden. Und das ist bei PRR definitiv der Fall. Anders sind die Datenmengen gar nicht erklärbar. Und auch die Aussagen des PRR-Skeptikers bei BMD unterstreicht das: Er müsste seine Colorscience preisgeben, wenn seine Kameras PRR aufzeichnen würden. Könnte er flaches Video ausgeben, wäre das debayering eingebacken. Außerdem wäre das PRR whitepaper ein großer Fake und Panasonic, Sony und Canon würden den gabzen Komplott decken... weil sie ja selbst an ihrem SDI-Raw gar kein Raw ausgeben, obeohl sie das ja versprechen. Warum auch immer. Vielleicht weil sie gerne die dreifachen Datenmengen auf Rekorder pumpen wollen.

An Raw zu zweifeln finde ich absolut unsinnig. Über die konkrete Umsetzung zu diskutieren ist aber interessant. Dafür fehlen uns aber noch Informationen, vor allem über das Raw-Processing in FCPX und über die RAW-Aufbereitung in den Kameras. Was PRR macht, ist eigentlich ziemlich klar.



Antwort von Roland Schulz:

Na ja, sagen wir mal so, ich glaube einige hier, mich eingeschlossen, sind doch ziemlich überrascht über das was Apple da an Performance rauszuholen scheint.
Auf diesem Level hat das bisher keiner auch nur annähernd geschafft.
Die Frage ist nun wie es zu diesem Performanceschub kommen kann, zumal das auch auf alten Systemen vergleichsweise explodiert?!
Was haben wir wirklich für Daten und wie sieht die Qualität am Ende aus?! Haben wir hier ggf. ein very quick & very dirty Debayering oder hält das tatsächlich mit anderen Verfahren mit?!
Ich meine da basteln gerade im Fotobereich seit Generationen Größen dran rum (Adobe hat 2006 mal Pixmantecs RawShooter gekauft und weiterentwickelt) aber so eine Perfromance wie jetzt hat bis heute niemand an den Tag gelegt.
Apple hat sicherlich einiges an Manpower in der Halle um sowas zu entwickeln und optimieren, nur will mir irgendwie der Zauber trotzdem noch nicht ganz einleuchten.

Weiter: warum sollte gerade Apple die RAW Entwicklung selbst mit Parametern versehen?! Gerade Apple ist doch bekannt dafür dass man versucht Sachen zu "vereinfachen"?! Warum eine doppelte (Farb-)Anpassung ermöglichen?!
Wo sollte der Unterschied liegen RAW Daten beim Debayering mit Parametern zu belegen oder die Parameter später auf ein linear debayertes RGBRGB im Glossar erklärt Bild mit hoher Bittiefe (!) anzuwenden?! Das ergibt keinen Unterschied!
Was einen Unterschied ergibt ist das Preequalizing von Sensordaten vor der Speicherung, bedeutet Gainanpassung allgemein zur Gesamtverstärkung (ISO) oder zum Weißabgleich. Letzteres würde die RAW Absicht zwar klar schwächen, wird bei geringer QuantisierungQuantisierung im Glossar erklärt aber zu Vorteilen führen.
Hat Nikon bei der D2x/s mal so gemacht.
Jede weitere Anpassung kann während oder nach dem Debayering durchgeführt werden, wenn die QuantisierungQuantisierung im Glossar erklärt der Verarbeitung entsprechend hoch ist. Es macht keinen Unterschied.



Antwort von Axel:


Und nicht vergessen: ProResProRes im Glossar erklärt RAW ist nur MPEGMPEG im Glossar erklärt 2 in s/w mit den "riesigen Makroblöcken" der "dreißig Jahre alten DCT". Denn Apple kann keine "modernen Codecs". Gleich ins Buch schreiben.

Auf EOSHD wurde gerade ProResProRes im Glossar erklärt auch diskutiert. Darin dieser Clip (Irrtum darin: ProRes422 ist auch 10-bit):


Darum muss man verschiedene Konzepte und Aussagen voneinander trennen. Ich verglich nachträglich transkodiertes ProResProRes im Glossar erklärt mit XAVC. Und ich fand zu meinem großen Schock in 400% Vergrößerung Unterschiede. Allerdings keine sehr augenfälligen und ganz gewiss keine wie die Makroblöcke auf dem Rasen im oben verlinkten Video.

Welche Komponente ist dafür verantwortlich?

> ProRes? - zum Teil. Es ist eine KompressionKompression im Glossar erklärt nach anderen Prinzipien, ein komplett anderes Bild als was - wie in diesem Beispiel - eine Canon C100 in AVCHDAVCHD im Glossar erklärt komprimiert.

> Was aus der Kamera via HDMIHDMI im Glossar erklärt kommt? - kann es doch eigentlich nicht sein, denn sollte das nicht unkomprimiert sein? Mithin keine kompressionsbedingten Blockartefakte enthalten?

> Der Atomos? - das vermute ich mal stark. ProResProRes im Glossar erklärt der BMPCC und der BMPC, das ich noch habe, zeigt keine solchen Artefakte.

Also würde ich schließen, dass es zum geringeren Teil der CodecCodec im Glossar erklärt und zum größeren Teil das schlechte Atomos-Encoding ist. Kombiniert das mit ProResProRes im Glossar erklärt Raw auf Ninja V und mit dem, was Grant Petty oben über die nicht respektierte "Color Science" sagt. Ich vermute, wenn PRR gescheit in den Workflow integriert ist - d.h. auch unter der Bedingung, dass alle Metadaten zur herstellertypischen Color Science erfasst (also kameraherstellerseits über HDMIHDMI im Glossar erklärt ausgegeben) und sowohl vom Encoder (Atomos) als auch vom NLE (FCP) benutzt werden - dann wäre PRR eine gute Alternative. Aber nur dann.

Am besten wäre natürlich, wenn der Kamerahersteller den CodecCodec im Glossar erklärt übernimmt. Nicht sehr wahrscheinlich, aber gerade noch vorstellbar bei Panasonics GH5S. Und die liebe EVA? Nein, auch unwahrscheinlich.



Antwort von Jott:

Dieses eine Bloggervideo wird immer noch ausgegraben, das schon im Vorspann Unsinn verzapft? Das ist übrigens wowus Quelle für die "riesigen Makroblöcke". Eine andere gibt es nicht.

Arri dominiert mit ProResProRes im Glossar erklärt den Weltmarkt der TV- und Filmproduktion (ArriRaw wird selten eingesetzt). Wo sind sie denn, die "riesigen Makroblöcke", auf den Screens und Leinwänden dieser Welt? Was für ein Gefasel. Oder hatte Arri nach diesem Video panisch auf AVCHDAVCHD im Glossar erklärt umgestellt? Mag ja sein, und es ist mir entgangen.



Antwort von Roland Schulz:

Der Vergleich spiegelt schon einen großen Teil Realität wieder denn der Bitratenvorteil der Intracodecs ist nicht immer ein Bildqualitätsvorteil gegenüber Intercodecs.
Das Video zeigt sehr gut das bei statischen Motiven der eigentlich unterlegene Interframecodec durch Long-GOP Vorteile hat, bei dynamischen Motiven der Interframecodec mit deutlich höherer Bitrate gewinnt.
Das ist nichts anderes als logisch, ist im GH5/s Lager aber so auch noch nicht angekommen.
Von riesigen Blockartefakten bei Prores würde ich jetzt nicht unbedingt sprechen, sichtbar kann das in Details dennoch werden bzw. werden Details gar nicht erst aufgezeichnet.

Ohne Frage ist aber auch die Qualität des jeweiligen Encoders abhängig von der Implementierung.

Verstehe jetzt aber nicht was das mit RAW hier zu tun haben soll.



Antwort von motiongroup:

Ich verstehe euch echt nicht wirklich ... statt das sich die User freuen das es neues gibt wird’s schlechgeredet... ich weis machen sie immer schon so wenn es gegen ihre Gesinnungsgenossen geht und nicht ihrem Verkaufsportfolio eingepflegt sein sollte..

Lass gut sein Jott er wurde schon vor Jahren der unerlaubten Verwendung der CopyPaste überführt.. und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen... periodisch schlagen sie halt immer wieder auf wenn’s was neues gibt... ist wie bei studioparis der vor Jahren noch anderorts Windows mobile als Heilsbringer auserkoren hat und oder den Usern AMD Opteron Wksts schmackhaft machte..

War ne schöne spannende vorallem unterhaltsame Zeit..



Antwort von DV_Chris:

Solange das Ökosystem von PRR aus einem Rekorder (Sumo wird man je eher weniger aufs Rig packen), ein paar Raw fähigen Kameras (davon sogar schon zwei EOL) und einer NLE besteht, kann es schon rein rechnerisch zu keiner massenhaften Verbreitung kommen. Der aktuelle Stand muss aus Sicht von Atomos ernüchternd erscheinen:

- Weitere Rekorderhersteller (AJA, Convergent Design, Video Devices) erwähnen das FormatFormat im Glossar erklärt mit keinem Wort. AJA hat zur NAB gar DNxHR gepusht.

- Keiner der relevanten Kamerahersteller hat Interesse an dem FormatFormat im Glossar erklärt zur internen Aufzeichnung bekundet. Und ja, so was würde man am größten Branchenevent des Jahres kundtun. Oder eben auch nicht.

Nach den ersten Tests scheint das FormatFormat im Glossar erklärt sehr performant, was aber im gleichen Atemzug Zweifel aufkommen lässt, ob PRR überhaupt mit einem klassischen Raw Workflow verglichen werden kann. Es wirkt mehr wie ein gepimptes ProRes. Also mehr Marketing Buzz als technologische Höchstleistung. Denn Hand aufs Herz: andere Firmen und deren Entwicklungsabteilungen sind ja nicht auf der Nudelsuppe daher geschwommen. Wäre alles so easy wie mit PRR, dann hätten das andere wohl schon Jahre früher implementiert.

Persönlich hoffe ich (aufgrund meiner guten persönlichen Beziehungen zu Atomos und vielen Mitarbeitern dort), dass man hier nicht aufs falsche Pferd gesetzt hat und Resourcen falsch eingesetzt wurden, die man gegen den Mitbewerb hätte besser einsetzen können.



Antwort von Axel:

Dieses eine Bloggervideo wird immer noch ausgegraben, das schon im Vorspann Unsinn verzapft? Das ist übrigens wowus Quelle für die "riesigen Makroblöcke". Eine andere gibt es nicht.

Das wusste ich nicht.

Ich verstehe euch echt nicht wirklich ... statt das sich die User freuen das es neues gibt wird’s schlechgeredet...

Ach Quatsch. Mich zumindest kannst du nicht meinen.

... und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen...

🤭



Antwort von nic:


Solange das Ökosystem von PRR aus einem Rekorder (Sumo wird man je eher weniger aufs Rig packen), ein paar Raw fähigen Kameras (davon sogar schon zwei EOL) und einer NLE besteht, kann es schon rein rechnerisch zu keiner massenhaften Verbreitung kommen. Der aktuelle Stand muss aus Sicht von Atomos ernüchternd erscheinen:

- Weitere Rekorderhersteller (AJA, Convergent Design, Video Devices) erwähnen das FormatFormat im Glossar erklärt mit keinem Wort. AJA hat zur NAB gar DNxHR gepusht.

- Keiner der relevanten Kamerahersteller hat Interesse an dem FormatFormat im Glossar erklärt zur internen Aufzeichnung bekundet. Und ja, so was würde man am größten Branchenevent des Jahres kundtun. Oder eben auch nicht.

Nach den ersten Tests scheint das FormatFormat im Glossar erklärt sehr performant, was aber im gleichen Atemzug Zweifel aufkommen lässt, ob PRR überhaupt mit einem klassischen Raw Workflow verglichen werden kann. Es wirkt mehr wie ein gepimptes ProRes. Also mehr Marketing Buzz als technologische Höchstleistung. Denn Hand aufs Herz: andere Firmen und deren Entwicklungsabteilungen sind ja nicht auf der Nudelsuppe daher geschwommen. Wäre alles so easy wie mit PRR, dann hätten das andere wohl schon Jahre früher implementiert.

Persönlich hoffe ich (aufgrund meiner guten persönlichen Beziehungen zu Atomos und vielen Mitarbeitern dort), dass man hier nicht aufs falsche Pferd gesetzt hat und Resourcen falsch eingesetzt wurden, die man gegen den Mitbewerb hätte besser einsetzen können.

Du schreibst immer wieder den selben Beitrag in neuen Worten... Die anderen Rekorderhersteller dürfen PRR noch gar nicht implementieren. Klar, dass sie (noch) kein Interesse bekunden. BMD hat keine Lust seine CS preiszugeben und Sony, Panasonic und Canon sind schon dabei. Arri wird mit ziemlicher Sicherheit schon mit Apple in Gesprächen sein und viel mehr andere relevante Hersteller mit potentiellem Interesse an PRE gibt es gar nicht... Adobe hat schon angekündigt sich mit PRR auseinanderzusetzen. Ich glaube, dass PRR einfach für alle überraschend kam... wieso sollte sich da jemand, der nicht bei der Entwicklung dabei war in der Woche nach Ankündigung aus dem Fenster lehnen?

Raw ist doch keine technologische Höchstleistung!? Raw ist so ziemlich das Simpelste was eine Kamera mit den Sensordaten anstellen kann. Gehen wir einfach davon aus, dass FCPX in der PreviewPreview im Glossar erklärt die fehlenden RGB-Werte bei schwächeren Rechnern (oder prinzipiell) schlicht mittelt oder sonst einen recht einfach zu berechnenden Weg geht... schon sind die Leistungen erklärbar.

Letztlich steht fest: In PRR sind keine RGB-Pixel drin. Also Raw.



Antwort von cantsin:


Du schreibst immer wieder den selben Beitrag in neuen Worten... Die anderen Rekorderhersteller dürfen PRR noch gar nicht implementieren. Klar, dass sie (noch) kein Interesse bekunden. BMD hat keine Lust seine CS preiszugeben

So wie ich das Interview mit Grant Petty verstehe, ist das nicht das Problem. (BM tut das ja bereits in seinen CinemaDNG-Dateien und offiziellen LUTs.) Sondern dass ProResProRes im Glossar erklärt Raw für die Farbinterpretation des Raw-Materials nur eine LUT verwendet, was laut Petty zu wenig ist für gute Ergebnisse - andererseits aber auch die gute Performance von PRR erklären könnte.



Antwort von DV_Chris:

Wo wäre denn Canon dabei?



Antwort von Roland Schulz:

Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.
Aber auch das würde den Performanceboost nicht erklären.
Ich kann mir nur ein stark optimiertes oder anders stark vereinfachtes Debayering erklären welches ggf. Qualitätsdefizite in der derzeitigen Form der beschleunigten Verarbeitung aufzeigt. Ggf. haben wir morgen wieder verschiedene ArtefakteArtefakte im Glossar erklärt im Material welche wir eigentlich seit Jahren schon nicht mehr erwarten würden.

Denke es ist einfach noch etwas früh das in alle Richtungen zerreißen zu wollen, wir brauchen erstmal belastbares Material.



Antwort von cantsin:


Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.

Einspruch. LUTs sind doch relativ primitive Farbkorrekturmittel, die Pixelwerte stur von A nach B umrechnen. Wenn das Raw-Bild einer Kamera z.B. bei verschiedenen ISOs/gains oder verschiedenen Lichttemperaturen jeweils spezifische Farbkorrekturen erfordert, ist das mit einer simplen LUT nicht zu machen.



Antwort von Roland Schulz:

Die werden dann aber trotzdem nicht alle gleichzeitig auf "ein Bild" angewendet.
Wendest du verschiedene LUT‘s auf verschiedene Szenen an schmälert das die Performance nicht.



Antwort von cantsin:


Die werden dann aber trotzdem nicht alle gleichzeitig auf "ein Bild" angewendet.
Wendest du verschiedene LUT‘s auf verschiedene Szenen an schmälert das die Performance nicht.

Ja, aber nochmal, genau das kann PRR laut Petty nicht. Seinen Aussagen zufolge gibt es da nur eine LUT und sonst nichts für die "color science".



Antwort von Funless:


... und gegen dieses Merowingerhafte Gehabe ist kein Kraut gewachsen...

🤭

Ich glaube er meint den hier ...

https://vignette.wikia.nocookie.net/mat ... 0913033701

Falls ja, ich fand den witzig und sein Hemd mit den ausladenden Kragen äußerst chick.



Antwort von nic:



Ob eine LUT oder zehn verwendet werden spielt keine Rolle da die LUT vor der Verarbeitung miteinander verrechnet und dann auf die RAW Daten angewendet werden können.
Was einen Unterschied macht ist eine mehrdimensionale LUT.

Einspruch. LUTs sind doch relativ primitive Farbkorrekturmittel, die Pixelwerte stur von A nach B umrechnen. Wenn das Raw-Bild einer Kamera z.B. bei verschiedenen ISOs/gains oder verschiedenen Lichttemperaturen jeweils spezifische Farbkorrekturen erfordert, ist das mit einer simplen LUT nicht zu machen.

Nur, dass die iso invarianten BMD-Geräte das dann gar nicht brauchen. Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.



Antwort von cantsin:


Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.

Das scheint aber das Problem zu sein, das Petty hat - dass zumindest FCPX nicht mehr kann, als die LUT anwenden. Das würde, wie gesagt, auch die gute Performance erklären.

Wenn ich seine Interview-Aussagen richtig verstehe, fehlen bei PRR auch die Metadaten, um die 'color science' im NLE vernünftig hinzukriegen. (Daher auch seine Aussage, "It's a look-up table and a Bayer package. It's just a container with a LUT.") Und deshalb auch seine Ansage, dass eine PRR-Implementation in Blackmagics Produkten (also Kameras und Resolve) noch viel Arbeit und Lösungen von Problemen erfordert.

Tja, wäre der Interviewer nicht zu inkompetent gewesen und hätte nachgefragt (statt die ganze Zeit blöd zu unterbrechen), wüssten wir mehr. Die Aussagen von Petty sind sehr komprimiert. Offensichtlich ist der Mann Techniker und weiss wovon er spricht, erklärt es aber nicht ausführlich.



Antwort von Jott:


Wo wäre denn Canon dabei?

Das fragst du als Händler für beide - Atomos und Canon? Verstehe wer will. Oder ist die C300 auf der Liste unterstützter Kameras ein Druckfehler?



Antwort von DV_Chris:



Wo wäre denn Canon dabei?

Das fragst du als Händler für beide - Atomos und Canon? Verstehe wer will. Oder ist die C300 auf der Liste unterstützter Kameras ein Druckfehler?

Das war nicht die Frage. Es geht darum, ob Canon den CodecCodec im Glossar erklärt in einer Kamera implementieren könnte.



Antwort von Jott:

Wozu, wenn es das Atomos/Apple-Angebot gibt?



Antwort von Roland Schulz:


Wozu, wenn es das Atomos/Apple-Angebot gibt?

...um nicht überall mit so nem blöden und unhandlichen Kamera/Recorder Gerigge rumhampeln zu müssen! Integrierte Lösungen würde ich ebenfalls vorziehen, aber bisher hat Canon außer der C200 doch gar nix mit integriertem RAW, oder übersehe ich was?!



Antwort von Roland Schulz:



Und wenn die CS des Herstellers dem NLE vertraut ist, benötigt es außer den Meta- und Bilddaten ja nicht einmal eine eingebettete lut.

Das scheint aber das Problem zu sein, das Petty hat - dass zumindest FCPX nicht mehr kann, als die LUT anwenden. Das würde, wie gesagt, auch die gute Performance erklären.

Wenn ich seine Interview-Aussagen richtig verstehe, fehlen bei PRR auch die Metadaten, um die 'color science' im NLE vernünftig hinzukriegen. (Daher auch seine Aussage, "It's a look-up table and a Bayer package. It's just a container with a LUT.") Und deshalb auch seine Ansage, dass eine PRR-Implementation in Blackmagics Produkten (also Kameras und Resolve) noch viel Arbeit und Lösungen von Problemen erfordert.

Tja, wäre der Interviewer nicht zu inkompetent gewesen und hätte nachgefragt (statt die ganze Zeit blöd zu unterbrechen), wüssten wir mehr. Die Aussagen von Petty sind sehr komprimiert. Offensichtlich ist der Mann Techniker und weiss wovon er spricht, erklärt es aber nicht ausführlich.

Kann nicht sein - ich kann ich FCP X doch auch ne weitere/andere LUT zuweisen und mit der Performance hat das nix zu tun. Genau so wenig hat es mit der Abhängigkeit zu tun ob die Kamera ISO in- oder variant ist. Es geht u.A. auch um LUTs die für verschiedene Lichtqualitäten-/Temperaturen erstellt wurden, ggf. auch für verschiedene Looks.
Eine LUT brauchen wir bei RAW eigentlich immer, ob im Container mitgebracht oder später verlinkt und deshalb sehe ich hier keinen Grund für Performanceunterschiede.

Ich kann mir das nur so erklären dass wir hier ggf. nur eine Art "Vorschauqualität" erhalten die ggf. voll mit Artefakten (Zipper...) etc. ist. Hier werden ggf. noch keine "Linien" nachgezogen und somit werden vielleicht Äste dabei wieder im Nichts enden und etwas versetzt dazu weiterwachsen. Ggf. werden auch Farben wieder "falsch" geschätzt/interpoliert - nur eine Idee, kann sein dass man auch bei der IQ volle Qualität liefert.



Antwort von cantsin:


Kann nicht sein - ich kann ich FCP X doch auch ne weitere/andere LUT zuweisen und mit der Performance hat das nix zu tun. Genau so wenig hat es mit der Abhängigkeit zu tun ob die Kamera ISO in- oder variant ist. Es geht u.A. auch um LUTs die für verschiedene Lichtqualitäten-/Temperaturen erstellt wurden, ggf. auch für verschiedene Looks.
Eine LUT brauchen wir bei RAW eigentlich immer, ob im Container mitgebracht oder später verlinkt und deshalb sehe ich hier keinen Grund für Performanceunterschiede.

Es geht darum, dass Software wie Resolve (oder auch ACR) auf Grund der Meta-/Herstellerdaten wesentlich komplexere Farbkorrekturen an Raw-Material vornimmt, als da einfach nur eine LUT draufzuklatschen, die in der Raw-Datei mitgeliefert wird. Und diese Daten scheint ProResProRes im Glossar erklärt Raw nicht zu enthalten, wenn es stimmt, was Petty sagt.

Und offenbar scheint die jetzige Kombi ProResProRes im Glossar erklärt Raw+FCPX solche komplexen Farbkorrekturen nicht vorzunehmen, was den Performance-Unterschied erklären könnte.



Antwort von Axel:

Hier ab 7'01":

And one of the most important things is the metadata from the camera. We record all of the metadata. We know what the white balance was, we know what the ISO setting was, we know what the shutter speed was. And it means we can do all this realtime decoding and re-encoding to make everything work in the timeline.

Aha. Wie es scheint weiß Atomos diese Dinge, aber FCP nicht.



Antwort von cantsin:

Alles höchst seltsam. Als ob sich die Geschichte von CinemaDNG wiederholt. Damals implementierte Adobe sein eigenes FormatFormat im Glossar erklärt nur halbherzig bzw. unvollständig in Premiere, jetzt implementiert Apple sein eigenes FormatFormat im Glossar erklärt nur halbherzig bzw. unvollständig in FCPX.

Bis jetzt sieht es so aus, als ob Atomos die treibende Kraft ist und der Rest der Industrie noch nicht wirklich mitzieht.



Antwort von Jott:



Wozu, wenn es das Atomos/Apple-Angebot gibt?

...um nicht überall mit so nem blöden und unhandlichen Kamera/Recorder Gerigge rumhampeln zu müssen! Integrierte Lösungen würde ich ebenfalls vorziehen, aber bisher hat Canon außer der C200 doch gar nix mit integriertem RAW, oder übersehe ich was?!

Nö, nichts übersehen. Am internen RAW der C200 wird aber auch rumgemault (einer tut sogar immer so, als gäbe es das gar nicht). An internen ProRes-Lösungen anderer Hersteller wird ebenfalls rumgemault. An sonstigen Codecs sowieso. Jedem alles recht machen geht halt nicht. Zumal manche aus Prinzip grundsätzlich an allem etwas auszusetzen haben.

Der mündige Käufer/User/Producer wird seinen Weg schon finden! :-)



Antwort von Roland Schulz:

...der mündige Käufer/User/Producer wird seinen Weg irgendwie machen, klar.
Wir wissen aber alle dass es meist doch irgendwie besser ginge wenn es die Hersteller nur wollten.
Es ist und bleibt wie immer wirtschaftlich, um morgen noch was verkaufen zu können.

Wir können uns aber noch 500 Posts über die mögliche Performance von Prores Raw unterhalten ohne wirklich was festzustellen.

Denke wir müssen einfach noch ein wenig warten bis wir mal richtiges Material vor die Flinte kriegen. Ggf. zieht 7nic oder Wolfgang ja demnächst mal ein belastbares Resümee - in Bezug auf IQ und Speed.



Antwort von motiongroup:

@Axel, nein bist du nicht gemeint.... die die gemeint sind wissen es eh genau da sich die Inszenierungen über die letzten Jahre immer gleich präsentieren.. liegt in der Natur des Menschen...

Übrigens, das mit den Metadaten wie ISO ist implementiert nur sollte es auch von CAMs eingebrannt werden.. wird dieser Flag ungenutzt übergeben kann er nicht verändert werden, ja wie den auch auf Basis von Haselnüssen oder was?

Das FormatFormat im Glossar erklärt steht am Anfang wie es bei Prores Anfangs auch war.. wer sich die TimelineTimeline im Glossar erklärt von Prores ansieht wie so oder wann in ungefähr die einzelnen Hersteller auf den Zug aufgesprungen sind.. heute kräht kein Hahn mehr danach und es wird einfach verwendet... Ab und an poltert der Merowinger( nein nicht der Axel) das es überholtes Dreckszeuch ist und das ist auch auch gut so.... Man muss schon auch mal aus der Lethargie des einfachen Workflows herausgerissen werden um über solche Aussagen zu schmunzeln zu dürfen..

Also Leute, wo sind die angekündigten Testfiles und Ergebnisse ... ich kann damit nicht dienen aus Mangels einer passenden Cam..



Antwort von Starshine Pictures:

Hab das hier gefunden. Inklusive Download von 7,5 GB Material von der EVA1 und dem Atomos Shogun Inferno.

https://youtu.be/r41IV1g3pss

Download:
DCI 4K 25fps ProResProRes im Glossar erklärt RAW
DCI 4K 25fps ProResProRes im Glossar erklärt RAW HQ
DCI 4K 50fps ProResProRes im Glossar erklärt RAW HQ
DCI 4K 25fps CinemaDNG

https://mega.nz/#F!Nd0XxJzC!hlfXGYfIDwiw_UiwB3ZS-w

Grüsse, Stephan



Antwort von motiongroup:

hatte ich schon hier verlinkt.. interessiert eher nicht ;)



Antwort von Starshine Pictures:

Ah ok. Bin zwischendurch mal aus der Diskussion ausgestiegen. Wahrscheinlich schrecken die 7.5 GB ab. 😝



Antwort von Axel:

... interessiert eher nicht ;)

Höchstens insofern, dass man darauf schließen kann, indirekt, dass die Metadaten zu Kameraeinstellungen wie Belichtung und WeißabgleichWeißabgleich im Glossar erklärt in diesem mov enthalten sind. Denselben Serviervorschlag sähen wir in ACR und Resolve, dort allerdings wären die Werte auch angezeigt. Spricht also zunächst mal nicht gegen PRR sondern gegen FCP.



Antwort von Jott:

Wieso? Wie sollte fcp denn die Darstellung sonst treffen? Tut es ja. Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.



Antwort von motiongroup:

Kann jemand oder hat schon jemand die Metadaten ausgelesen? Ich nicht aus Mangel an passenden Tools..



Antwort von Axel:

Woran es effektiv liegt, weiß ich auch nicht. Ich vermute und hoffe eigene Doofheit. Aber es gelang mir in FCP noch nie, kameraspezifische EXIF-Daten auszulesen, wie sie mir Catalyst Browse für Sony in Hülle und Fülle anzeigt (interessante Sachen wie Objektiv, BrennweiteBrennweite im Glossar erklärt, Entfernung, BlendeBlende im Glossar erklärt, VerschlusszeitVerschlusszeit im Glossar erklärt, ISO und WB). Noch ärger, ich versuchte, die Metadaten-Ansicht zu editieren und als Axels EXIF zu speichern (was scheinbar zunächst gelang), aber in dieser Ansicht tauchten dann völlig exotische Parameter wie Ausrichtung oder 360° Projektionsmodus auf, die ich nie sehen wollte und eigenhändig durch Entfernen des Kreuzchens in der Checkbox abgewählt hatte. Auch diese Testclips zeigen nur seeehr allgemeine Informationen. Schade. Bin wohl zu dumm.



Antwort von motiongroup:

das sind die Metas der Files

com.apple.proapps.manufacturer : Panasonic
com.apple.proapps.modelname : EVA1
com.apple.proapps.image.{DNG}.CameraSeri : F7ESB0031
org.smpte.rdd18.camera.cameraattributes : F7ESB0031
org.smpte.rdd18.lens.irisfnumber : F1.4
com.apple.proapps.exif.{Exif}.FocalLenIn : Unknown kind of value!
org.smpte.rdd18.lens.lenszoom35mmstillca : 25.0mm
org.smpte.rdd18.camera.shutterspeed_angl : 180.0deg
org.smpte.rdd18.camera.neutraldensityfil : ND1
org.smpte.rdd18.camera.whitebalance : 4300K
org.smpte.rdd18.camera.isosensitivity : 1000
com.apple.proapps.image.{TIFF}.Make : Atomos
com.apple.proapps.image.{TIFF}.Model : ShogunInferno
com.apple.proapps.image.{TIFF}.Software : 9.0

warum das nicht veränderbar ist kann noch keiner erklären.. lasst noch einige Zeit ins Land ziehen und nicht schon wieder Schuldzuweisungen in den Äther plärren..



Antwort von Frank Glencairn:


Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.

Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.



Antwort von Axel:


das sind die Metas der Files

com.apple.proapps.manufacturer : Panasonic
com.apple.proapps.modelname : EVA1
com.apple.proapps.image.{DNG}.CameraSeri : F7ESB0031
org.smpte.rdd18.camera.cameraattributes : F7ESB0031
org.smpte.rdd18.lens.irisfnumber : F1.4
com.apple.proapps.exif.{Exif}.FocalLenIn : Unknown kind of value!
org.smpte.rdd18.lens.lenszoom35mmstillca : 25.0mm
org.smpte.rdd18.camera.shutterspeed_angl : 180.0deg
org.smpte.rdd18.camera.neutraldensityfil : ND1
org.smpte.rdd18.camera.whitebalance : 4300K
org.smpte.rdd18.camera.isosensitivity : 1000
com.apple.proapps.image.{TIFF}.Make : Atomos
com.apple.proapps.image.{TIFF}.Model : ShogunInferno
com.apple.proapps.image.{TIFF}.Software : 9.0

warum das nicht veränderbar ist kann noch keiner erklären.. lasst noch einige Zeit ins Land ziehen und nicht schon wieder Schuldzuweisungen in den Äther plärren..

Womit ausgelesen?



Antwort von motiongroup:

mit Mediainfo.



Antwort von Roland Schulz:


Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.

...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als "Stellglieder" für irgendwelche Maßnahmen im Post vorgesehen.



Antwort von Axel:

Jetzt darfst du zweimal lachen. Einmal über mich, denn Mediainfo hatte ich schon auf dem Rechner. Und einmal über folgenden Vorschlag: Apple sollte Mediainfo kaufen. Das wäre doch ein Knaller für 10.5 im Oktober!

Kein Trost ist, dass ich es auch in Resolve nicht schaffe, die Catalyst Browse - Metadaten meiner Sony-Clips auszulesen. CodecCodec im Glossar erklärt, Länge, Größe, dann ist Ende im Gelände ....



Antwort von motiongroup:

Jetzt darfst du zweimal lachen. ich lache nie... Ernst ist mein zweiter Namen..;)



Antwort von DV_Chris:

Edius 9.20 kann den PRR Clip einladen, zeigt aber nur ein graues Bild an. An Metadaten steht nur der CodecCodec im Glossar erklärt Typ und der Container. Normalerweise zeigt Edius mehr an (Beispiel ist von einer X70):



Antwort von Jott:



Welchen praktischen Wert hätte es denn, ISO etc. anzuzeigen? What you see is what you get.

Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.

Das sind doch nur Metaphern. Weder du noch ich wissen, wo das Einstellen zum Beispiel der "Belichtung" (fcp-Regler) bei ProResProRes im Glossar erklärt Raw greift. Wieso nicht vor dem De-Bayering? fcp weiß ja, es sind raw-Daten und geht damit vielleicht schlauer um, als man meinen könnte. Anzuzeigen, dass ein ISO-Wert konkret von 800 zu 1600 oder sonst was verschoben wird - wozu? Der "ganze Witz" an raw wäre trotzdem da. Und so wird‘s wohl auch sein.



Antwort von Frank Glencairn:



Es geht nicht um die Anzeige der Metadaten, sondern darum sie verändern zu können - das ist ja der ganze Witz an RAW (außer dem geringen Speicherplatz Bedarf), die Metadaten vor dem Debayering zu ändern.

...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als "Stellglieder" für irgendwelche Maßnahmen im Post vorgesehen.

Ich rede jetzt nicht von irgendwelchen Sachen wie BlendeBlende im Glossar erklärt, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar. Was meinst du warum Resolve zu den üblichen Kurven und Colorwheels noch einen zusätzlichen eigenen Raw Tab hat, wo man das alles ändern kann?



Antwort von Roland Schulz:

Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGBRGB im Glossar erklärt danach passiert spielt keine Rolle, solange die (interne) RGBRGB im Glossar erklärt QuantisierungQuantisierung im Glossar erklärt mindestens so groß ist wie die RAW Quantisierung.



Antwort von Roland Schulz:



...welchen Sinn sollte das haben?!
Metadaten werden von der Kamera/Recorder als Istzustand der Aufnahme abgeleitet - die sind nicht als "Stellglieder" für irgendwelche Maßnahmen im Post vorgesehen.

Ich rede jetzt nicht von irgendwelchen Sachen wie BlendeBlende im Glossar erklärt, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar. Was meinst du warum Resolve zu den üblichen Kurven und Colorwheels noch einen zusätzlichen eigenen Raw Tab hat, wo man das alles ändern kann?

Die Anpassung findet trotzdem nicht vor dem Debayering statt.



Antwort von wolfgang:

Also ich bin da bei Frank. Es geht darum die Metadaten verändern zu können, anstatt sofort Korrekturfilter des jeweiligen Tools drauf zu legen.

In Resolve wird das klar getrennt angezeigt und das hat schon einen Sinn, denn das Zweitere über Filter sind bereits Intensivere Umrechnungen nach dem Debayering (der Metadateneingriff wohl noch vorher, sonst macht’s ja keinen Sinn).

Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.



Antwort von Axel:

Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.

Echt? Was motiongroup über Mediainfo ausgelesen hat, wäre exakt das gewesen, was ich anhand des Youtube-Posterframes oben geraten hätte. Offensichtlich bei Tungsten aufgenommen, für 3200 aber noch zu warm/orange und für 5600 noch zu neutral.

org.smpte.rdd18.camera.whitebalance : 4300K

Erläutere mal, was du meinst.

Was nun die Manipulation des WB (als Beispiel) betrifft, so finde ich schon, dass im Schieberegler "Farbtemperatur" von FCP dann "4300" stehen sollte als korrekter Ausgangspunkt. Dort steht aber immer "5000". Tut mir leid, Genossen, das ist schwach.



Antwort von Frank Glencairn:


Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGBRGB im Glossar erklärt danach passiert spielt keine Rolle, solange die (interne) RGBRGB im Glossar erklärt QuantisierungQuantisierung im Glossar erklärt mindestens so groß ist wie die RAW Quantisierung.
Die Anpassung findet trotzdem nicht vor dem Debayering statt.

Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGBRGB im Glossar erklärt Kontrollen gibt?



Antwort von nic:



Ob eine Anpassung der (RAW-)Daten vor dem Debayering oder als RGBRGB im Glossar erklärt danach passiert spielt keine Rolle, solange die (interne) RGBRGB im Glossar erklärt QuantisierungQuantisierung im Glossar erklärt mindestens so groß ist wie die RAW Quantisierung.
Die Anpassung findet trotzdem nicht vor dem Debayering statt.

Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGBRGB im Glossar erklärt Kontrollen gibt?

Es macht schon allein Sinn, weil die Raw-Einstellungen über das Hersteller-SDK abgewickelt werdeb... Die RGB-Bearbeitung dann über BMD-Algorithmen.



Antwort von Roland Schulz:

RAW funktioniert wie folgt:

ISO variant: Die Analogwerte der Sensel auf dem Sensor werden variabel (ISO/Gain) verstärkt und dann digitalisiert und gespeichert (alternativ vorher komprimiert).
Ggf. werden noch Gammakurven analog angewendet.
Ggf. wird eine (RGB-Sensel) ungleichmäßige Verstärkung angewendet, die vom WeißabgleichWeißabgleich im Glossar erklärt abhängt (z.B. Nikon D2x). Meist erkennbar durch Zusatzsensor an der Kamera, denke heute nicht mehr üblich.

ISO invariant: Die Analogwerte der Sensel auf dem Sensor werden unvariabel/konstant fest verstärkt und dann digitalisiert und gespeichert (alternativ vorher komprimiert).

Metadaten der Kameraparameter wie gemessener/voreingestellter WeißabgleichWeißabgleich im Glossar erklärt, Verstärkung/ISO, Belichtungs- und Objektivdaten, Framegröße, Bittiefe und FramerateFramerate im Glossar erklärt werden gespeichert.

Der RAW Converter debayert die eingehenden RAW Daten meist in ein RGBRGB im Glossar erklärt (alternativ YUV-) Bild mit hoher QuantisierungQuantisierung im Glossar erklärt (>= RAW File), wendet auf das RGBRGB im Glossar erklärt Bild dann Parameter aus den Metadaten der Datei an, die ggf. durch einen Einstelldialog adaptiert wurden. Es findet keine Veränderung der RAW Daten statt.
Im umgekehrten Fall müsste jede intern verwendete YUV- oder RGBRGB im Glossar erklärt Farbmetrik "umgekehrt debayert" nochmals entwickelt/programmiert und auf die RAW Daten angewendet werden. Der Debayeringprozess ist zudem anhand der meisten bekannten Algorithmen als deutlich aufwändiger anzusehen als eine einfach RGBRGB im Glossar erklärt Transformation. Die Anpassung der Parameter auf RGBRGB im Glossar erklärt Daten kann demnach schneller erfolgen.
Die hier entstandenen Daten mit hoher QuantisierungQuantisierung im Glossar erklärt werden genau so im weiteren Prozess an das Programm/folgende Nodes weitergegeben.
(Alternativ können sie jetzt in der QuantisierungQuantisierung im Glossar erklärt begrenzt werden, um Performance zu sparen. Dann sind weitere Schritte aber verlustbehaftet.)
Findet keine Reduktion der QuantisierungQuantisierung im Glossar erklärt statt können die Daten "verlustfrei" innerhalb des Programms weiterverarbeitet werden. Somit können auch Daten in späteren Schritten bzgl. WB etc. adaptiert werden. Es macht keinen Unterschied!
Der RAW Dialog bietet nur andere Stellschrauben wie Farbtemperatur in K an, die später so nicht mehr zur Anwendung kommen, da Daten aus vorherigen Notes/Filtern/Routinen keinen "kalibrierten" Bezug (K) haben muss.
Ein Programm kann aber genau so gut ohne eine Anpassung der Aufnahmedaten/Metadaten funktionieren, wenn die interne QuantisierungQuantisierung im Glossar erklärt hoch genug ist (vgl. z.B. Resolve).



Antwort von Roland Schulz:



Du sagst also, daß die Entwickler eines der weltweit führenden Grading Programme, einen extra RAW Tab - und dazu noch für jede Kamera einen eigenen RAW Tab mit kamaraspezifischen Einstellungen - einfach so, aus reinem Blödsinn programmieren, weil sie überhaupt nicht schnallen, daß es in Wirklichkeit gar keinen Unterschied zu den RGBRGB im Glossar erklärt Kontrollen gibt?

Es macht schon allein Sinn, weil die Raw-Einstellungen über das Hersteller-SDK abgewickelt werdeb... Die RGB-Bearbeitung dann über BMD-Algorithmen.

Spielt auch keine Rolle, auch das Hersteller SDK macht zuerst ein Debayering und passt dann Parameter auf RGBRGB im Glossar erklärt Daten an die anschließend übergeben werden.
Niemand verändert RAW Daten vor oder beim Debayering. Jede Änderung am Parameter würde selbst am Standbild ein neues, zeitaufwändiges Debayering erfordern.
Die ganze Farbmetrik/Routinen müssten "rückwärts debayered" nochmal entwickelt werden und würden nur Nachteile mit sich bringen.
Es hat keinen Nachteil die Informationen nach dem Debayering anzupassen, nur Vorteile! Somit kann das auch in FCP X passieren ohne einen RAW Dialog haben zu müssen.



Antwort von wolfgang:


Für das CDNG Material aus Shogun und EVA1 wird da aber zumindest für die Farbtemperatur ein Unsinn angezeigt.

Echt? Was motiongroup über Mediainfo ausgelesen hat, wäre exakt das gewesen, was ich anhand des Youtube-Posterframes oben geraten hätte. Offensichtlich bei Tungsten aufgenommen, für 3200 aber noch zu warm/orange und für 5600 noch zu neutral.

Bitte vollständig lesen - ich sprach von RESOLVE und nicht von Mediainfo. Und ich sprach von CDNG udn nicht von ProResProRes im Glossar erklärt RAW.



Antwort von Axel:

@wolfgang

Okay, du bist leicht OT.

Aber eigentlich keine schlechte Frage. Ist es wichtig, ob der original in der Kamera gewählte WB-Wert als Metadaten vorliegt? Wenn ja, warum? Wenn nein, was kann es dann schon ausmachen, den ohnehin falschen Ausgangswert herzunehmen und mit dem Farbtemperatur-Regler der Software anzupassen?



Antwort von wolfgang:

Und genau wegen dieser Fragestellung ist es eben nicht offtopic. Roland hat ja recht, dass offenbar analoge und digitale ISO-Werte vorhanden sein können - die dann einmal ins Material eingeprägt werden oder eben nicht.

Das dürfte aber stark von der verwendeten Kamera abhängen. Bei der EVA1 etwa gibts analoge ISO Werte die dann eben eingeprägt sind. Egal ob CDNG oder PRR. Das hat Auswirkungen auf das Rauschverhalten - und sollte daher eben dem Anwender bekannt sein. Ist es aber bestenfalls teilweise, bei der EVA1 wurde deshalb empfohlen mit einer der beiden nativen ISOs oder nahe daran zu arbeiten. RAW ist das trotzdem, denn das Debayering findet ja in der App statt.



Antwort von Roland Schulz:

Die "alte Hütte" Bob Atkins zeigt ebenfalls die Reihenfolge
RAW -> Bayer -> Colorprocessing (WB...) auf:
http://www.bobatkins.com/photography/digital/raw.html

Irgendwo gab‘s mal nen schönes Blockschaltbild aus dem RAW Shooter mit mehr Details. Ist aber wohl leider alles "mitverdunstet".

Hier noch was aus dem Xilinx (FPGAs) Forum:
https://goo.gl/images/o95asN
Ebenfalls RAW->(bad pixel remap)->debayer->"Rest"(Gamma, Color...)



Antwort von wolfgang:


Die "alte Hütte" Bob Atkins zeigt ebenfalls die Reihenfolge
RAW -> Bayer -> Colorprocessing (WB...) auf:
http://www.bobatkins.com/photography/digital/raw.html

Das sagt nur vermutlich leider nichts über den exakten Weg in einem spezifischen Gerät aus.



Antwort von Roland Schulz:

Nein, das nicht und richtig, es könnte überall individuell anders verfahren werden - Sinn macht das allerdings keinen.

Warum sind wir darauf gekommen?!
Die Frage war wenn ich nichts durcheinanderwerfe warum FCPX keinen RAW Entwicklungsdialog anbietet.
Die Antwort ist weil er nicht norwendig ist. Man kann alle Bearbeitungen des RAW Dialogs auch in folgenden Nodes/Prozessen durchführen ohne dass es etwas ändert.
Apple ist meistens "einfach" und reduziert auf‘s Notwendigste - der RAW Dialog ist ganz nett, aber in Wirklichkeit redundant.



Antwort von Frank Glencairn:

Allerdings basiert diese ganze "Erkenntnis" nur auf deinen Behauptungen.

Proof is in the pudding:

Mach ne Korrektur auf BM CDNG Material mit dem RAW Tab, und dann mach die selbe Korrektur mit den Color Wheels.



Antwort von Roland Schulz:


Allerdings basiert diese ganze "Erkenntnis" nur auf deinen Behauptungen.

...na ja, zwei Referenzen hatte ich bereits angehängt, endlos viel wird man da auch nicht finden da das meist gut gehütete Interna sind, wobei auf dem Level eigentlich noch nichts Geheimes dabei ist.

Die Behauptung dass z.B. im Resolve RAW Dialog die WB, Gain etc. Anpassungen vor dem Debayering vorgenommen werden sollten ist aber ebenso unbelegt. Am Ende kommt auch da RGBRGB im Glossar erklärt raus und wird auf weitere Nodes gelegt.

Hier noch was dazu:
https://goo.gl/images/VJRk2K

https://goo.gl/images/VPbnj5

https://www.baslerweb.com/en/sales-supp ... ork/15182/

https://goo.gl/images/6oX8Vq

https://goo.gl/images/wBwXy6

Viele Blockdiagramme - alle debayering first, additional color processing later!!



Antwort von WoWu:


Und genau wegen dieser Fragestellung ist es eben nicht offtopic. Roland hat ja recht, dass offenbar analoge und digitale ISO-Werte vorhanden sein können - die dann einmal ins Material eingeprägt werden oder eben nicht.

Das dürfte aber stark von der verwendeten Kamera abhängen. Bei der EVA1 etwa gibts analoge ISO Werte die dann eben eingeprägt sind. Egal ob CDNG oder PRR. Das hat Auswirkungen auf das Rauschverhalten - und sollte daher eben dem Anwender bekannt sein. Ist es aber bestenfalls teilweise, bei der EVA1 wurde deshalb empfohlen mit einer der beiden nativen ISOs oder nahe daran zu arbeiten. RAW ist das trotzdem, denn das Debayering findet ja in der App statt.

Das setzt aber eben voraus, dass ein Verfahren vorhanden ist.
Das, was von PRR als "Lut" übergeben wurde ist wahrscheinlich kein LUT sondern eine Liste, die das CFA beschreibt, denn davon werden ja nun mittlerweile fast 10 unterschiedliche Typen eingesetzt und ohne die exakten Werte der monochromatischen Filter nicht bekannt sind, braucht man gar nicht erst mit dem De-Bayering anzufangen.
Danach geht es los ... welches De-Bayer Verfahren wird benutzt. Die Performanz der unterschiedlichen Verfahren wirkt sich ganz erheblich auf das Zielbild aus denn im De-Bayering entsteht die wesentliche Menge an Artefakten, überwiegend in der unterschiedlichen Phasenlage der einzelnen Pixels zueinander begründet. Die Frage ist also, wie stellt man die optimale spektrale und räumliche Korellation der Pixels zueinander her. Nichts, was man ohne die passenden Algorothmen in der PostPro nachbauen könnte. Es findet dazu eine Analyse der Frequenz und der räumlichen Bereiche statt.
Das De-Mosaicing führt trotzdem oft noch nicht zu perfekten Ergebnissen und Ein iterativer Nachverarbeitungsschritt der FarbkorrekturFarbkorrektur im Glossar erklärt wird oft erreicht, um die Endresultatqualität durch Verstärkung der Spektralkorrelation noch zu verbessern.
Wahrscheinlich meinte der BMD Mensch das damit.

Nur das alles setzt eben das Vorhandensein der entsprechenden De-Mosaiking Algorithmen (mitsamt seiner Stellpatameter) voraus.
Wir haben damals mit 3 unterschiedlichen Algorithmen De-Mosaiced. Allerdings waren sie alle noch auf Bayer basierten CFAs. Das dürfte sich mit Zunahme der panchromatischen Filter und unterschiedlichen Geometrien der Farbkomponenten mittlerweile in den Mengen deutlich geändert haben.
Was den Rest der Metadaten (ISO, White.. etc.) angeht, ist das sowieso Schall und Rauch denn in Kameras, die direkt mit der Verstärkung auf den Sensorverstärker zugreifen ist das ISO und auch die WB sowieso eingebacken weil die Reglungen auf denselben Verstärker wirken.
Bei invarianten Kameras sind solche "on set" Einstellungen meist hinterher ohnehin sehr verbesserungsbedürftig und "nice to have" aber nicht wirklich Qualitätsentscheidemd.
Und sofern man im De-Mosaicing eine Objektivkorrektur vornehmen will, braucht man sowieso die exakten Tabellen des singulären Objektivs. Solange die De-Mosaicing App dafür keine Schnittstelle liefert, ist das eh nicht nutzbar.
Übrigens spielt das De-mosaicing gerade bei hoher Pixeldichte und Auflösung zur beeinflussung von Aliasing eine kritische Rolle, die man in der (herkömmlichen) Post überhaupt nicht mehr in den Griff bekommt.
Also, so wie ich das im Augenblick sehe, sofern es sich bei PRR tatsächlich um ein Luminanzsignal pro PixelPixel im Glossar erklärt handelt, könnte die Übergabe der CFA Liste reichen, wenn nicht mehr als reines De-Mosaicing vorgenommen werden soll.
Das setzt aber zwingend eine App voraus, die ich in FCP auch noch nicht gefunden habe.



Antwort von Roland Schulz:

...wie kriegen das bloß CaptureCapture im Glossar erklärt One, DxO, CameraRAW, SilkyPix, On1, Luminar und andere geregelt für jede erdenkliche Fotokamera mit pluralem Objektiv den idealen Debayeralgorithmus zu eruieren.
Das klingt nach einer nahezu unlösbaren Aufgabe ;-)!
Da ich aktuell noch etwas "sonyglaslos" bin und zig Nikonoptiken passiv adaptiere wundere ich mich doch was da für wunderbare Ergebnisse bei rauskommen - in immerhin 6K Fotoauflösung...

Ein Hersteller entscheidet sich heute für einen Algorithmus - das war‘s.
Alle Korrekturen wie WB, GammaGamma im Glossar erklärt, VignetteVignette im Glossar erklärt, CA, Entzerrung etc. (mit Ausnahme von blackshading, bad pixel remap...) werden nach dem Debayern angewendet.



Antwort von WoWu:

Ein Hersteller, der das De-mosaicing in seiner Kamera macht, braucht auch nur ein Verfahren, weil er es immer nur mit einer Signalqualität zu tun hat und immer mit einer Sorte CFA.
Findet das De-Mosaicing aber in einer Postproduktion statt, hat man es mit unterschiedlichen Bedingungen zu tun.
Farbfilter-Arrays, die z.B. auf komplementären Primärfarben basieren, finden zunehmend Verwendung, ihrer hohen spektralen Empfindlichkeit wegen und ihrer größere BandbreiteBandbreite im Glossar erklärt gegenüber RGB-Filtern, was insbesondere in lichtschwachen Umgebungen von Interesse ist und / oder wenn die Bildrate eine niedrige Integrationsperiode erfordert.
Das sind nur zwei Varianten, auf die sich ein externes Verfahren einstellen muss und an denen beispielsweise DNG mangels vorhandener Metadaten der Hersteller weitestgehend versagt hat, weil es für die Konversion eine Interpretation vornehmen musste und mit den Ergebnissen nur all zu oft deutlich hinter den Herstellerverfahren zurückgeblieben ist.
Verfügt man aber über die nötigen Tools in der Post, muss die Zeit, die für die Demosaicing von Bildern benötigt wird nicht mehr niedriger sein als die Bildaufnahmezeit und man muss nicht mehr nach einem Kompromiss zwischen der Verarbeitungszeit und der Leistung suchen, die von den untersuchten Demosaicing-Schemata erreicht wird, wie es in den Kameras erforderlich ist.

Was das Ergebnis betrifft, habe ich oben schon beschrieben, -und das scheint der BMD Mann zu bestätigen- dass die Ergebnisse nach der Durchführung des De-Mosaicing Verfahrens noch nicht der erwarteten Qualität eines Endbildes entsprechen und die FarbkorrekturFarbkorrektur im Glossar erklärt den letzten Schliff aufsetzen muss.
Das ist aber in Kameras nicht anders, man sieht das demosaicte Bild nur nicht, weil es nicht herausgeführt wird.

Wo man allerdings nicht drum herum kommt ist das Einwirken auf die oben beschriebene Korellation der einzelnen Pixels, weil ansonsten das Ergebis eines De-Mosaicing in Bezug auf Unschärfe ArtefakteArtefakte im Glossar erklärt, Zippereffekte und Falschfarben ziemlich unerträglich aussehen kann.
Man kommt bei der Anwendung von De-Mosaicing Schemata in der Postproduktion nicht ohne Eingriff in die Parameter zu keinem befriedigenden Ergebnis.



Antwort von Roland Schulz:

Das ist ja alles nicht falsch, nur werden die ganzen von mir angeführten Foto RAW Comverter nicht mit pro zu verarbeitender Kamera verschiedenen Algorithmen arbeiten sondern jeweils auf ein gewähltes Verfahren setzen.
Bei den CFAs gibt‘s sicherlich nich Unterschiede, gerade Nikon hat mit der D5 offiziell bekanntgegeben dass man schwächere Filter einsetzt. Das muss dem Konverterhersteller entweder bekannt sein oder man macht über entsprechendes Know How Reverse Engineering und dabei sollte gerade Adobe Kenntnisse besitzen die auch auf den Videobereich anwendbar sind.
Über verschiedene Testaufnahmen mit Patchfeldern kriegt man schon ne hohe Genauigkeit raus. Das was darüberhinaus durch IR-/UV Licht "versaut" ist ist ohnehin nicht auflösbar da keine Information über diese Lichtanteile mitgespeichert wird. Man weiß im Post nicht wie viel UV-/IR Anteil die Aufnahme beeinflusst hat. Das ist und bleibt eine unauflösbare Größe.



Antwort von Frank Glencairn:



Und keines davon hat irgendwas mit Postproduktion zu tun.



Antwort von wolfgang:

Da ist viel Spekulation enthalten, denn die Kamerahersteller geben eben diese Daten nicht öffentlich bekannt. Da Pana mit der EVA1 gemeinsam mit Atomos Pate bei PRR und der Aufzrichnung im Shogun Inferno waren, ist gerade diese Kombination intensiv diskutiert worden.

Nur kann die Kombination dieser Geräte eben auch CDNG, und das liefert interessante Zusatzinformationen. Fakt ist, dass man in Resolve bei *CDNG* einstellbare Metadaten hat. In FCP X gibt es diese Einstellmöglichkeit (zumindest oder nur ? bei PRR) offenbar nicht, aber es werden definitiv die Metadaten in die PRR Datei geschrieben (der Test von Motiongroup war hier mit PRR und Medinfo leicht nachvollziehbar).

Dass einige Dinge bei der EVA1 wie (analoge) ISO aber nicht nur in Metadaten geschrieben werden, sondern in PRR eingebrannt sind, wurde von Mitch Gross für die EVA1 auf Facebook bestätigt. Bei WB bin ich mir da nicht sicher - aber wenn man mit der nativen ISO oder nahe daran arbeitet und eine WB bei der EVA1 macht sind die praktischen Nachteile wohl begrenzt. Betrifft dann aber wie gesagt auch CDNG - weil das von der Hardware der Kamera her fixiert ist.

Dass bei den Scene Based Ansätzen wie beim Resolve Farbmanagement oder bei ACES ohnedies immer eine IDT genutz wird ist ja bekannt. Und auch bei der EVA1. Man findet im CDNG Material aus EVA1/Shogun Inferno eben v log und v Gamut in den Metadaten des Materials und Resolve liest die aus dem CDNG auch brav aus (wird also bei einer zukünftigen PRR Implementierung in Resolve nicht anders sein). Und damit werden keine LUTs genutzt wie WoWu meinte, sondern das Scene based Farbmanagement von Resolve - und wohl auch bei FCP X gibt es ja offenbar eine ACES Unterstützung?

https://www.newsshooter.com/2018/04/06/ ... w-is-here/

Sollte PRR in Resolve bearbeitbar werden, dürfte dort ebenso eine Einstellmöglichkeit der Metadaten auftauchen. Nur weil das FCP X offenbar nicht explizit vorsieht heißt das eben nicht dass eine IDT nicht korrekt genutzt wird. Aber FCP X ist ja auch keine Gradingsoftware, und hoffen wir dass die PRR Unterstützung auch in Resolve kommt.



Antwort von Axel:

Fakt ist, dass man in Resolve bei *CDNG* einstellbare Metadaten hat. In FCP X gibt es diese Einstellmöglichkeit (zumindest oder nur ? bei PRR) offenbar nicht, aber es werden definitiv die Metadaten in die PRR Datei geschrieben (der Test von Motiongroup war hier mit PRR und Medinfo leicht nachvollziehbar).
(...)
Nur weil das FCP X offenbar nicht explizit vorsieht heißt das eben nicht dass eine IDT nicht korrekt genutzt wird. Aber FCP X ist ja auch keine Gradingsoftware, und hoffen wir dass die PRR Unterstützung auch in Resolve kommt.

FCP wäre besser bei der oft verspotteten Farbtafel geblieben, hätte sie lieber noch ein wenig aufgebohrt. Was hier seit Dezember läuft, lässt selbst Fan-Urgestein wie mich (der sich aber schon lange mit Color, Color Finale und Resolve befasst hatte) die Haare raufen.
Ich stimme dir darum zu. Potenziell revolutionäres Codec-Konzept (die Zeit wird's zeigen), aber eine Software, die es gar nicht vernünftig nutzt.



Antwort von Roland Schulz:



Und keines davon hat irgendwas mit Postproduktion zu tun.

Das ist aber völlig unerheblich!
Es geht darum wie aus RAW Daten RGBRGB im Glossar erklärt Daten gewonnen werden. Ob in der Kamera oder im Converter spielt keine Rolle.



Antwort von wolfgang:

Aber weißt du dass genau das die Frage für mich löst, ob ich für des kommend 5.7K raw der EVA1 mir doch einen Mac anlachen soll?

Wozu nämlich wenn FCP X hier auch genug Schwächen hat? Auch wenn die Performance mit PRR beeindruckend ist.



Antwort von Frank Glencairn:



Nein, das ist weder unerheblich noch spielt es keine Rolle, sonder das ist der Punkt über den wir hier reden.
Nochmal speziell für dich:

Es macht einen Unterschied, ob ich die erste Korrektur im Raw Tab vornehme, oder auf dem bereits debayerten RGBRGB im Glossar erklärt mit Farbrädern/Kurven etc.
Deshalb sind die RAW Tabs auch nicht einfach nur so zum Spaß da, und sie sind auch nicht überflüssig, egal wie oft du das behauptest.
Wenn du es nicht glaubst, probier es einfach aus.

Auch wenn die Performance mit PRR beeindruckend ist.

Naja, wie viel PIP, Burns Effekt x5 braucht man denn bei der täglichen Arbeit?
Vielleicht einmal in 30 Jahren, wenn man eine 80er Retro KnofHof Show simulieren will?

Im normalen raw Schnittbetrieb geht ja sowieso schon alles in Echtzeit oder schneller.



Antwort von Axel:


Aber weißt du dass genau das die Frage für mich löst, ob ich für des kommend 5.7K raw der EVA1 mir doch einen Mac anlachen soll?

Wozu nämlich wenn FCP X hier auch genug Schwächen hat? Auch wenn die Performance mit PRR beeindruckend ist.

Adobe hat ja bereits angeblich Interesse bekundet, BlackMagic zeigt sich wohlwollend kritisch. Es ist so, dass weder Atomos noch Apple diese Kuh zum Fliegen bringen, wenn keiner sonst mitmacht. Die "Unterstützung" von Canon, Pana und Sony ist ja völlig passiv. Den wenigsten (nämlich nur denen, die FCPX haben und ohne Chromatic oder Color Finale eine längere Sequenz aufwändig farbkorrigieren wollten mit 10.4) ist hier klar, welche Misere ich gerade anspreche. Ich fände es ehrlich gesagt nicht so schlimm, die o.e. Metadaten in FCP nicht angezeigt zu bekommen, wenn dafür alles liefe wie geölt mit PRR. Mit den FCP-Werkzeugen selbst würde sich wohl jeder hier irgendwie anfreunden können, sie sind nicht allzu exotisch. Was leider völlig misslungen ist - meiner sehr unbescheidenen Meinung nach, aber ich könnte es *im Detail* (der Teufel steckt im Detail) aufzeigen -, ist der Farbkorrektur-Workflow. Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden. Da kriegst du in FCP 10.4 einen Schreikrampf. Das musst du dir nicht anlachen. Warte, ob und bis es von Resolve adoptiert wird.



Antwort von Jott:

"Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden."

Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss?



Antwort von wolfgang:

Ja Axel, auf das Warten läuft es wohl eh raus. Hoffentlich kommt da in Resolve noch was.



Antwort von Frank Glencairn:

Hatte gerade Zeit für nen kleinen Test

Blackmagic CDNG Material aus der Ursa Mini (von einer 4TB Festplatte im USB3 Dock), plus 4 x PIP mit Burns Effect in Resolve, und ne LUT oben drauf.

Läuft in Echtzeit (24p) GPU und CPU knapp zu 50% ausgelastet.

Und das auf ner uralt Win 7 Workstation mit einem i7 980 6 Kerner @ 3.33Hz (Gulftown - also eine antike CPU von 2006) und ner 4 Jahre alten GTX 980.

PRR unterscheidet sich also nicht wirklich, von CDNG, was die performance betrifft.



Antwort von motiongroup:

Warum sollte das nicht laufen? 6/12 HT Core CPU und eine 980er? Wenn nicht wäre es traurig...

Im meinem Fall ist es ne 2/4 HT Core i5 ohne dedizierter GPU welches nur auf ner iGPu läuft..

Das von dir genannte Szenario als Testprojekt von Puget System mit R3D läuft auf einer i7 4970k und einer GTX970 auch ohne Probleme..

https://www.pugetsystems.com/labs/artic ... ance-1116/

Verwendet das Projekt und ihr könnt eure Maschinen 1:1 gegeneinander Vergleichen... alles andere ist nicht zielführend und auch sinnlos wie Frank selbst gerade erklärt....

Das Teil läuft seit Jahren ohne Probleme und ohne 1000 Core 18 Fach SLI GPU Konfiguration.. eure Leistungsparanoia wie damals schon beim alten NMP lassen wir besser unkommentiert..



Antwort von Frank Glencairn:

Ja, was ich damit sagen wollte ist, daß CDNGs, die von vielen als sooooo Hardware hungrig und Ressourcen fressend angesehen werden, nicht mal eine 12 Jahre alte CPU, und eine 4 Jahre alte GPU auch nur halbwegs auslasten, um in Echtzeit oder schneller zu laufen.

Das einzige was tatsächlich stimmt ist, daß Einzelbildsequenzen etwas länger zum kopieren brauchen, als eine einzelne PRR Datei.



Antwort von motiongroup:

Von mir hast das nie gehört;)
Im übrigen hat die Slashcam Redaktion ihr First light mit Prores RAW gehabt und bestätigt das in diesem Monsterfred geschriebene eigentlich zu 100%
Danke dafür..

https://www.slashcam.de/artikel/Kurztes ... lles-.html

Ps zu deiner CPU.. das ist auch heute noch eine 1a CPU von der Leistung her..
Die bei Intel sind und waren absichtlich keine Zauberer.. homöopathische Dosen in Funktion und Leistung für ordentlich Geld ist das Credo.. und die Dummen waren die Kunden..erst AMD hat sie aktuell ein wenig aus dem Schlaf gerissen und wie Nett es funktionierte sonst wäre es die nächsten Äonen so weiter gegangen..
das ist auch mit ein Grund warum sich Apple die neue Rel so mancher HW Produkte auf die lange Bank geschoben hatte... selbst die die in der MacFraktion einen Hackintosh mit den neuesten Komponente gebastelt hatten wurden immer wieder aufs neue enttäuscht.. die Sprünge sind vernachlässigbar..



Antwort von wolfgang:


Hatte gerade Zeit für nen kleinen Test

Blackmagic CDNG Material aus der Ursa Mini (von einer 4TB Festplatte im USB3 Dock), plus 4 x PIP mit Burns Effect in Resolve, und ne LUT oben drauf.

Läuft in Echtzeit (24p) GPU und CPU knapp zu 50% ausgelastet.

Und das auf ner uralt Win 7 Workstation mit einem i7 980 6 Kerner @ 3.33Hz (Gulftown - also eine antike CPU von 2006) und ner 4 Jahre alten GTX 980.

PRR unterscheidet sich also nicht wirklich, von CDNG, was die performance betrifft.

Ja die GPU Last wurde doch weniger als Problem gesehen (wo soll auch bei Einzelbildern der Dekodieraufwand liegen)? Eher geht es um so Dinge wie erforderlicher Speicherplatz, da benötigt halt CDNG in etwa das Doppelte von ProResProRes im Glossar erklärt RAW. Und deshalb hätte ich gerne ProResProRes im Glossar erklärt RAW auch in Resolve und unter Windows implementiert.

Gegen das Speicherplatz-Problem gibt's aber bei CDNG zumindest eine teilweise Abhilfe. Man nehme einfach slimraw und kann damit nochmals Speicherplatz sparen. Ist recht performat, das kleine Tool.
http://www.slimraw.com/



Antwort von motiongroup:

Es wird eh kommen ... nur keine Hast.. der CodecCodec im Glossar erklärt muss selbst unter OS X ein systemcodec werden solange er nur proprietär unter fcpx verfügbar ist brauchtest Du dir keinen Kopf machen..



Antwort von Frank Glencairn:


Eher geht es um so Dinge wie erforderlicher Speicherplatz, da benötigt halt CDNG in etwa das Doppelte von ProResProRes im Glossar erklärt RAW. Und deshalb hätte ich gerne ProResProRes im Glossar erklärt RAW auch in Resolve und unter Windows implementiert.

Naja, komprimiertes PRR HQ hat ungefähr die selbe DatenrateDatenrate im Glossar erklärt, wie die komprimierten CDNGs aus den BM Kameras - da ist nicht wirklich viel um.

Und ganz ehrlich, 4TB kosten nur noch um die 100 Öcken, Speicherplatz war noch nie so billig und so schnell wie heute.
Digibeta Bänder haben das zigfache gekostet, von Film ganz zu schweigen - das ist wirklich Jammern auf höchstem Niveau.



Antwort von dienstag_01:



Nein, das ist weder unerheblich noch spielt es keine Rolle, sonder das ist der Punkt über den wir hier reden.
Nochmal speziell für dich:

Es macht einen Unterschied, ob ich die erste Korrektur im Raw Tab vornehme, oder auf dem bereits debayerten RGBRGB im Glossar erklärt mit Farbrädern/Kurven etc.
Deshalb sind die RAW Tabs auch nicht einfach nur so zum Spaß da, und sie sind auch nicht überflüssig, egal wie oft du das behauptest.
Wenn du es nicht glaubst, probier es einfach aus.

Auch wenn die Performance mit PRR beeindruckend ist.

Naja, wie viel PIP, Burns Effekt x5 braucht man denn bei der täglichen Arbeit?
Vielleicht einmal in 30 Jahren, wenn man eine 80er Retro KnofHof Show simulieren will?

Im normalen raw Schnittbetrieb geht ja sowieso schon alles in Echtzeit oder schneller.

Ja, Frank hat wieder mal recht, WeissabgleichWeissabgleich im Glossar erklärt wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)



Antwort von Frank Glencairn:



Ja, Frank hat wieder mal recht, WeissabgleichWeissabgleich im Glossar erklärt wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)

Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.



Antwort von WoWu:

Tja, WeissabgleichWeissabgleich im Glossar erklärt wird von Vielen häufig mit der Abstimmung der drei Farbkomponenten auf einen gemeinsamen Pegel verwechselt.



Antwort von motiongroup:

Weil der Frank gerade auf seine 1A CPU aufmerksam gemacht hat.. Cores sind nicht immer ausschlaggebend...
https://m.youtube.com/watch?v=6ix2Xg2I0Jo
Es kommt immer auf das Gesamtbild an und die verwendete Umgebung in die ich mich begeben möchte..;) und noch viel wichtiger ist es im Preisvergleich der Komponenten zu sich selbst ehrlich zu sein..
Gehört aber eigentlich nicht hier her nur wird es immer wieder einmal unterschwellig eingestreut..



Antwort von rudi:

An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProResProRes im Glossar erklärt RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.



Antwort von wolfgang:


Naja, komprimiertes PRR HQ hat ungefähr die selbe DatenrateDatenrate im Glossar erklärt, wie die komprimierten CDNGs aus den BM Kameras - da ist nicht wirklich viel um.

Das gilt aber nur für BM Geräte, wo etwa 3:1 verfügbar ist. Das gilt aber schon nicht mehr für Atomos Rekorder, wo CDNG eben locker das Doppelte an Speicherplatz braucht wie PRR.

Und daher ist für diese Rekorder PRR durchaus attraktiv. Und aus dem gleichen Gründen ist es für BM eben weniger attraktiv (nicht nur wegen den persönlichen Animositäten zwischen den beiden Eigentümern).

Und die Preise für den erforderlichen Speicherplatz sind so nicht vergleichbar, den da reden wir von unterschiedlichen Geschwinfigkeits- und damit Preisklassen. Die SSD kostet halt noch immer deutlich mehr.



Antwort von dienstag_01:


An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProResProRes im Glossar erklärt RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. - Im speziellen Fall sicherlich (Ist ja ein RAW-Tool). Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)



Antwort von DV_Chris:


Das gilt aber nur für BM Geräte, wo etwa 3:1 verfügbar ist. Das gilt aber schon nicht mehr für Atomos Rekorder, wo CDNG eben locker das Doppelte an Speicherplatz braucht wie PRR.

Und daher ist für diese Rekorder PRR durchaus attraktiv.

Und wohl der eigentliche Grund für die Entwicklung von PRR.

Nachdem aber nichts so schnell im Preis fällt wie Speichermedien stellt sich die Frage, wie viele sich in der Praxis von PRR angesprochen fühlen.



Antwort von dienstag_01:



Ja, Frank hat wieder mal recht, WeissabgleichWeissabgleich im Glossar erklärt wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)

Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.

Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.



Antwort von rudi:


Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)

Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGBRGB im Glossar erklärt Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.



Antwort von srone:

eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone



Antwort von WoWu:

Dazu kommt noch, dass sich WB aufgrund der unterschiedlichen Quanteneffizienz des Sensors signifikant auf den Störabstand auswirkt.
Jeder Kametahersteller müsste mit dem Klammerbeutel gepudert sein, wenn er sich seine Basiswerte damit verschlechtert, dass er (ohne Not) die WB im RGBRGB im Glossar erklärt Raum vornimmt.



Antwort von Frank Glencairn:



Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.

Mach dir nix draus, das ist sowieso nix für dich.



Antwort von dienstag_01:



Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)

Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGBRGB im Glossar erklärt Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.

Richtig, sorry.



Antwort von dienstag_01:



Oh, cool, Pipeline, klingt echt schocking jetzt ;)
Zum Ändern der Farbwerte braucht man Kenntnis des CFA, alles andere würde mich sehr, ich nenns mal WUNDERN.

Mach dir nix draus, das ist sowieso nix für dich.

Wieder mal viel Mulm, aber sonst nix ;)



Antwort von Frank Glencairn:

Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?



Antwort von wolfgang:

Also ICH fühle mich von PRR sehr wohl angesprochen. Es schützt meine getätigten Investitionen. WENN es nicht nur in der Mac Welt bleibt.



Antwort von dienstag_01:


Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?

Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.



Antwort von srone:



Ich hab dir schon vor ner Weile vorgeschlagen es einfach auszuprobieren, aber das hast du natürlich nicht nötig, sondern es kommt als Antwort immer nur irgend ein copy/paste Zeug.
Du weißt es besser als alle die seit Jahren damit arbeiten, besser als alle Entwickler und Programmierer, die sich seit Jahren damit beschäftigen, besser als alle anderen.
Was soll ich da noch sagen?

Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.

was hat rudi oben getan, zur frage highlight-recovery, deine ignoranz ist wohl grenzenlos...

lg

srone



Antwort von dienstag_01:



Ich denke, wenn es einen Qualitätsunterschied gibt, den du kennst, dann solltest du ihn einfach mal zeigen.

was hat rudi oben getan, zur frage highlight-recovery, deine ignoranz ist wohl grenzenlos...

lg

srone

Hier geht es nicht um Highlight Recovery, sondern um WB.



Antwort von srone:

als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone



Antwort von dienstag_01:


als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone

Du willst doch nur provozieren, von mir aus ;)



Antwort von srone:



als ob es da einen unterschied gäbe, die gewichtung der raw daten macht es... lol, rechthaben bis zum untergang...

lg

srone

Du willst doch nur provozieren, von mir aus ;)

ich? desweiteren "ohne worte"...;-)

lg

srone



Antwort von Frank Glencairn:

Butter bei die Fische

1. Grading nur mit RAW Tab

RAW.jpg

2. Grading nur mit Colorwheels

RGB.jpg



Antwort von dienstag_01:


Butter bei die Fische

1. Grading nur mit RAW Tab

RAW.jpg

2. Grading nur mit Colorwheels

RGB.jpg

Das ist aus Resolve? Clipping ist automatisch so im Color Wheels Tab? Oder Tricks (Highlight Recovery oder anderes)?



Antwort von Frank Glencairn:

Ja, Resolve
Ja, so sieht's aus wenn man den Raw Tab nicht anfasst, und nur auf dem RGBRGB im Glossar erklärt mit den Color wheels arbeitet.
Highlight Recovery war nicht an (nicht nötig, weil nicht geclipt), keine sonstigen Tricks



Antwort von Roland Schulz:



Nein, das ist weder unerheblich noch spielt es keine Rolle, sonder das ist der Punkt über den wir hier reden.
Nochmal speziell für dich:

Es macht einen Unterschied, ob ich die erste Korrektur im Raw Tab vornehme, oder auf dem bereits debayerten RGBRGB im Glossar erklärt mit Farbrädern/Kurven etc.
Deshalb sind die RAW Tabs auch nicht einfach nur so zum Spaß da, und sie sind auch nicht überflüssig, egal wie oft du das behauptest.
Wenn du es nicht glaubst, probier es einfach aus.

Nochmal speziell für Dich: auch im RAW Tab arbeitest Du mit deinen Reglern bereits mit debayerten Daten ob Du"s glaubst oder nicht! Niemand verändert da RAW Daten um am Ende ohnehin RGBRGB im Glossar erklärt draus zu machen! Das macht keinen Sinn! Als erstes was kommt ist das Debayeringmodul bzw. das speziell angepasste SDK, danach passt man erst WB, Farben etc. an. Deine volle RAW Information wird in RGBRGB im Glossar erklärt Daten gewandelt.



Antwort von dienstag_01:


Ja, Resolve
Ja, so sieht's aus wenn man den Raw Tab nicht anfasst, und nur auf dem RGBRGB im Glossar erklärt mit den Color wheels arbeitet.
Highlight Recovery war nicht an (nicht nötig, weil nicht geclipt), keine sonstigen Tricks

Ging ja eigentlich um WeissabgleichWeissabgleich im Glossar erklärt, aber egal, dieses Gebaren da am oberen Rand finde ich mehr als seltsam.



Antwort von Roland Schulz:



Ja, Frank hat wieder mal recht, WeissabgleichWeissabgleich im Glossar erklärt wird selbstverständlich besser auf *Graustufenbildern* (=RAW) gemacht, als mit RGB-Werten.
Spätestens seit 75 Jahren - Happy Birthday, LSD ;)

Blickst du wirklich immer noch nicht wie so eine Pipeline funktioniert?

Aber vielleicht solltes du mal bei BM anrufen, und den Entwicklern von Resolve sagen wie man sowas richtig macht, weil du ja offensichtlich viel mehr davon verstehst als die. Die sind dir sicher total dankbar, daß sie dann nicht mehr so viel Zeit mit der Entwicklung der RAW Tabs verschwenden müssen.

Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.



Antwort von Roland Schulz:


An dieser Stelle möchte ich auch noch was beitragen. Wir hatten ja vor kurzem einen Artikel zur Highlight Recovery von RAW-Daten auf slashCAM:

https://www.slashcam.de/artikel/Grundla ... lles-.html

Diese ist NUR mit echtem Zugriff auf die RAW Daten möglich. So weit ich sehen kann ist dies jedoch weder mit Apples ProResProRes im Glossar erklärt RAW noch mit Canons RAW Light möglich, da hier eben Canon und Apple bestimmen, auf welche Parameter man zugreifen kann. Auch sind Tricks wie der Golden Sample Modus von Kinefinity nur möglich, wenn man wirklich Zugriff auf die Daten hat. Wer hier gerne experimentiert, bzw. sowas in Software nachbauen will, kann dies z.B. einfach mit RAWpy bzw. LibRAW unter CDNG machen. Allerdings nicht mit Apple/Canon RAW in der jetzigen Implementierung.

Das ist auch nicht zwingend korrekt da das in RGBRGB im Glossar erklärt Werten oberhalb eines sicheren, oberen Bereichs durchgeführt werden kann. Da gibt"s keinen Unterschied.
Fakt ist dass man für die Beeinflussung der RAW Daten zwingend die SDK kennen/beeinflussen müsste - denke da sind einigen Hersteller wenig Freund von. Ohne Kenntnisse über die Rohdaten ließe sich da gar nichts verdrehen.



Antwort von Frank Glencairn:



Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.

Schau dir die beiden Beispiele an die ich gepostet habe.
Wenn sich dir der Sinn da nicht erschließt, kann ich dir auch nicht mehr helfen.



Antwort von Roland Schulz:



Ganz allgemein gibt es diese Art der Bearbeitung aber schon seit Jahren mit RGB-Werten, nennt sich Channel Mixing oder -Blending. Gehört zu den eher fortgeschrittenen Techniken der Bildbearbeitung (Restauration) und kann in den Händen von Leuten mit Ahnung wahrscheinlich einiges mehr als so ein Automatismus ;)

Leider Nein. Das Problem hier ist , dass wenn man es erst auf RGBRGB im Glossar erklärt Werte anwendet, dann ist das Clipping ja schon in die RGB-Werte einberechnet worden (sonst würden die Flächen beim Clippen nicht weiß sondern bunt überstrahlen.). Das funktioniert so nur vor dem Debayering.

Dieser "nichtlineare Bereich" oberhalb einer "sicheren Grenze" ist aber einfach auslot- bzw. exemplarisch ermittelbar. So kann ab einem bestimmten RGBRGB im Glossar erklärt Mischwert davon ausgegangen werden, dass die Farbe hier nicht mehr dem Ausgangsmaterial entspricht und so wird diese ab diesem Grenzwert monochrom"isiert".
Das kann man ganz einfach mit 3D LUTs oder einer Grenzwertbetrachtung machen, auch in RGB.



Antwort von Roland Schulz:


eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone

Nö, alles ne Frage wo Du dein 100% RGBRGB im Glossar erklärt überhaupt hinlegst.



Antwort von Roland Schulz:


Butter bei die Fische

1. Grading nur mit RAW Tab

RAW.jpg

2. Grading nur mit Colorwheels

RGB.jpg

Da kann man sonst was hindrehen, das beweist nur dass Du mit Deinem Grading die alternative Vorlage nicht getroffen hast. Möglich muss das sein (3D-LUT, "Aufwand"...) da wir keine abweichenden NIchtlinearitäten (IR/UV Beeinflussung) im gleichen Material haben.
Wer zeigt auf dass die Hersteller die RAW Dateien nach der Aufzeichnung aber vor dem Debayering im Post beeinflussen?! Bitte um Nachweise. Es ändert nichts, nur dass ich die SDK und die CFA kennen muss! Auch Highlight (Farb-)Verschiebungen kann ich oberhalb von Grenzwerten in RGBRGB im Glossar erklärt neutralisieren.
Wo früher bei vielen Kameras bei Wolken am blauen Himmel anteilig übersteuerte Grenzbereiche noch türkis wurden kann ich diese Grenzbereiche identifizieren und in der Sättigung reduzieren - in RGB. Diese Bereiche sind ableitbar.



Antwort von WoWu:

@Roland

Du gehst immer davon aus, dass WB erst in der Post bei RAW gemacht wird.
Die Annahme ist falsch denn bereits aufgrund der unterschiedlichen Quanteneffizienz nimmt der Hersteller im RAW FormatFormat im Glossar erklärt einfluss auf den ersten Verstärker (im Sensor, bzw. bei Dual gain) direkt nach dem Sensor. Grund dafür ist die Beeinflussung des Noisepegels im Signal.
Dazu wird eine Reglung an der Stelle durchgeführt, an der das wenigste Rauschaufkommen vorliegt und möglichst noch vor der QuantisierungQuantisierung im Glossar erklärt stattfindet, weil die weitere Rauschquellen hinzufügt. Auch ist es mit einer einfachen Pegelanhebung nicht getan sondern entlang der Farbanalyse des Bildes müssen bei hohen Grün und Rot Werten, diese verhältnismässig abgesenkt werden, und Blau nur mässig angehoben, damit der Rauschpegel im Bild sich noch gleichmässig verteilt.
Solche Vorgänge bedürfen einer relativ aufwändigen Bildanalyse, sind aber sicher von Kameratyp zu Kameratyp unterschiedlich und nicht jeder handelsübliche Camcorder wird einen so aufwändigen Prozess durchlaufen, wohl aber kommerzielle Kameras.
Daher funktionieren solche Recovery Algorithmen auch nur begrenzt und auch nicht für weißes Licht, weil es dabei keinen Kanal mehr gibt, der nicht ausgeglichen ist.



Antwort von srone:



eben, die gewichtung des bayern-pattern macht es... ;-)

wenn das kind in den zu tiefen rgb-brunnnen gefallen, sprich über 100%, ist das eben weg...

lg

srone

Nö, alles ne Frage wo Du dein 100% RGBRGB im Glossar erklärt überhaupt hinlegst.

und wie kann ich das?, eben über die raw meta-daten, guten morgen, jetzt wird es langsam interessant...

lg

srone



Antwort von Alf_300:

15 Seiten und kein Ende ;-)
Ich vermute mal dass es inzwischen unmöglich geworden ist ohne Prores-Raw gute Bilder zu machen.



Antwort von WoWu:

Mal ganz davon abgesehen, dass seine Verfärbung des "blauen Himmels" gar nicht von Überpegeln hervorgerufen werden muss.
Das kann auch eine andere Ursache haben, nämlich im Abweichen der visuellen Farbkonstanz.
Das "gray world" Verfahren und Patch-Verfahren sind globale Methoden, die alle PixelPixel im Glossar erklärt in die Berechnung einbeziehen und mit denen die Farbkonstanz bestimmt wird.
Ein Nachteil ist aber, dass beide anfällig für statistische Anomalien sind.
Im ersten Fall wird das Verfahren falsche Ergebnisse bringen, wenn die Szene stark farbstichig ist, wie eine Außen-Szene vor einem Ozean und der Himmel ist in der Regel sehr blau ist.
Für die white spot-Methode, wenn ein paar PixelPixel im Glossar erklärt im Bild sehr große rote, grüne oder blaue Werte beinhalten, die am Ende in der Berechung dominieren.
Solche Anomalien werden anschliessend auf alle Pixels (abgeschwächt) übertragen.
Ein türkisfarbener Himmel kann so auch bereits im RAW Signal entstehen.



Antwort von srone:


15 Seiten ;-)
Ich vermute mal dass es inzwischen unmöglich geworden ist ohne Prores-Raw gute Bilder zu machen.

da brauchst du nicht mal ansatzweise anfangen zu drehen, dass kann nur in die hose gehen... ;-)

lg

srone



Antwort von Roland Schulz:


@Roland

Du gehst immer davon aus, dass WB erst in der Post bei RAW gemacht wird.
Die Annahme ist falsch denn bereits aufgrund der unterschiedlichen Quanteneffizienz nimmt der Hersteller im RAW FormatFormat im Glossar erklärt einfluss auf den ersten Verstärker (im Sensor, bzw. bei Dual gain) direkt nach dem Sensor. Grund dafür ist die Beeinflussung des Noisepegels im Signal.
Dazu wird eine Reglung an der Stelle durchgeführt, an der das wenigste Rauschaufkommen vorliegt und möglichst noch vor der QuantisierungQuantisierung im Glossar erklärt stattfindet, weil die weitere Rauschquellen hinzufügt. Auch ist es mit einer einfachen Pegelanhebung nicht getan sondern entlang der Farbanalyse des Bildes müssen bei hohen Grün und Rot Werten, diese verhältnismässig abgesenkt werden, und Blau nur mässig angehoben, damit der Rauschpegel im Bild sich noch gleichmässig verteilt.
Solche Vorgänge bedürfen einer relativ aufwändigen Bildanalyse, sind aber sicher von Kameratyp zu Kameratyp unterschiedlich und nicht jeder handelsübliche Camcorder wird einen so aufwändigen Prozess durchlaufen, wohl aber kommerzielle Kameras.
Daher funktionieren solche Recovery Algorithmen auch nur begrenzt und auch nicht für weißes Licht, weil es dabei keinen Kanal mehr gibt, der nicht ausgeglichen ist.

Das der WB "immer" im Post gemacht wird habe ich nicht behauptet, Ausnahmen sind bekannt. Ich denke nur dass wir zu der von Dir beschriebenen Vorgehensweise "heute" wahrscheinlich keine belegbaren Nachweise/Beispiele mehr finden.
Es war aber bei der Nikon D2x tatsächlich so (hatte ich schon beschrieben), dass man den WB ungleichmäßig (R, G, B auf Bayerbasis) in der Kamera vorverstärkt hat. Hilfestellung war dazu der externe Sensor im Dachkant oben (ähnlich EOS 1D MKI).
Wie würde das bei einer Kamera ohne Hilfssensor funktionieren?! Hier kann der WB nur aus den Bilddaten abgeleitet werden. Wird hier eine Farbtemperatur abgeleitet die nicht der "nativen Farbaufnahmetemp." des Sensors entspricht müssten ein bis zwei Kanäle der R,G,B Kanäle auf Bayerbasis durch individuelle Analogverstärkung angepasst werden.
Kann man ohne weiteres so machen und macht auch Sinn wenn die A/D QuantisierungQuantisierung im Glossar erklärt "stark limitiert" ist. Die Dynamik der A/D Wandlung würde so besser ausgenutzt. Auf der anderen Seite verliert man aber eine Haupteigenschaft der RAW Verarbeitung, den WB im Post frei und vor allem verlustfrei zu setzen.
Kann mir beides vorstellen und beides hat seine Vorteile. Was wo heute zum Einsatz kommt, glaube das bleibt Herstellergeheimnis. Mir liegen keine Nachweise vor.

Selbst wenn es heute noch so wäre wäre das aber trotzdem keine Vorraussetzung dafür dass die vorliegenden RAW Daten vor dem Debayering nochmal verändert werden müssten.
Es hat hier auch wie Du richtig sagst hauptsächlich nur den Grund die QuantisierungQuantisierung im Glossar erklärt der A/D Wandlung der Analogsignale besser auszunutzen, es wurden die Analogsignale angepasst/ungleichmäßig verstärkt.
Im Post macht das aber keinen Sinn da wir hier technisch "nicht" begrenzt sind. Es hätte hier keinen sinnvollen Nutzen mehr.

Nochmal zu meiner Aussage: ich sage dass bereits aufgezeichnete RAW Daten im Post nicht mehr auf Basis der RAW Daten vor dem Debayering angepasst werden. Wir stellen lediglich Werte für black shading fest sowie bad pixels.
Die gesamte folgende Bearbeitung findet auf Basis der debayerten Daten statt. Auch im "RAW Dialog" wird zuerst debayert.
Gerade bei der Standbildverarbeitung macht das Sinn da der Debayeringprozess deutlich aufwändiger ist als eine RGBRGB im Glossar erklärt Transformation. Für eine Änderung auf RAW Basis muss ich u.A. die CFA kennen und invers debayert die Daten manipulieren. Dann zur Ansicht nach einer Änderung jedes Mal aufwändig debayern.
Einfacher und schneller ist es die vorliegenden RAW Daten 1:1 zu debayern und anschließend sämtliche Transformationen auf RGBRGB im Glossar erklärt Basis zu machen, alles weiterhin mit hoher Quantisierung.



Antwort von Sammy D:

Nur mal so, im Resolve-Manual steht doch beschrieben, was, wann und wie mit RAW-Dateien passiert.



Antwort von Roland Schulz:


Mal ganz davon abgesehen, dass seine Verfärbung des "blauen Himmels" gar nicht von Überpegeln hervorgerufen werden muss.
Das kann auch eine andere Ursache haben, nämlich im Abweichen der visuellen Farbkonstanz.
Das "gray world" Verfahren und Patch-Verfahren sind globale Methoden, die alle PixelPixel im Glossar erklärt in die Berechnung einbeziehen und mit denen die Farbkonstanz bestimmt wird.
Ein Nachteil ist aber, dass beide anfällig für statistische Anomalien sind.
Im ersten Fall wird das Verfahren falsche Ergebnisse bringen, wenn die Szene stark farbstichig ist, wie eine Außen-Szene vor einem Ozean und der Himmel ist in der Regel sehr blau ist.
Für die white spot-Methode, wenn ein paar PixelPixel im Glossar erklärt im Bild sehr große rote, grüne oder blaue Werte beinhalten, die am Ende in der Berechung dominieren.
Solche Anomalien werden anschliessend auf alle Pixels (abgeschwächt) übertragen.
Ein türkisfarbener Himmel kann so auch bereits im RAW Signal entstehen.

Gute Ergänzung! Ich würde aber den einen Satz ändern, nämlich dass der Algorithmus anfällig für statistische Kontinuität ist, dass ein anteilig geclippter Bereich aus den umgebenden, sicheren Bereichen auf die gleiche Farbe abgeschätzt und über die Helligkeit fortgesetzt wird, wobei die tatsächliche Farbe eine andere sein könnte.

Alles interessant und nicht falsch - trotzdem irgendwo ein wenig neben der Streckenbegrenzung: ich behaupte dass u.A. FCPX keinen typischen "RAW Dialog" zur Anpassung der Bildinformationen benötigt, da alles mit anderen Werkzeugen später genau so angepasst werden kann. Es macht keinen Unterschied da direkt nach der Übergabe der RAW Daten ohnehin zuerst das Debayering steht. Man kann u.A. auch die Bildtemperatur nach mehreren vorausgegangenen Schritten immer noch anpassen - dann allerdings nicht mehr unbedingt mit kalibrierten Kelvinwerten unter der Bezeichnung "Weißabgleich".



Antwort von Frank Glencairn:

Captain Schulz im Denial Mode :-D

Die beiden Beispiele sind eindeutig, die Unterschiede sind enorm, der Beweis ist erbracht, das Thema ist durch, das kannst du dir nicht mehr schönreden - bestenfalls weiter leugnen.

Na von mir aus, jedem das seine.



Antwort von Roland Schulz:


Nur mal so, im Resolve-Manual steht doch beschrieben, was, wann und wie mit RAW-Dateien passiert.

DANKE!

Ich kann ja hier hunderttausend Posts schreiben - aber - SORRY Frank ;-),
guckst Du hier, Seite 101:

https://www.google.de/url?sa=t&rct=j&q= ... YKYWQ4F1xY



Antwort von Roland Schulz:


Captain Schulz im Denial Mode :-D

Die beiden Beispiele sind eindeutig, die Unterschiede sind enorm, der Beweis ist erbracht, das Thema ist durch, das kannst du dir nicht mehr schönreden - bestenfalls weiter leugnen.

Na von mir aus, jedem das seine.

Nochmal, das beweist GAR NICHTS!!! Du kannst da jeweils sonst was einstellen und es sieht niemals gleich aus. Mal mit "Beweisführung" beschäftigen...

...vorigen Post lesen und ins Resolve Manual gucken, ganz einfach - "das Thema ist durch, das kannst Du dir nicht mehr schönreden - bestenfalls weiter leugnen" ;-)!

...nix für ungut.
Freunde?!?!



Antwort von Frank Glencairn:



DANKE!

Ich kann ja hier hunderttausend Posts schreiben - aber - SORRY Frank ;-),
guckst Du hier, Seite 101:

LOL - Als Resolve Beta Tester kenn ich das Handbuch fast auswendig - aber danke für den Hinweis :-)

Und wo genau soll da was stehen, das deine kruden Theorien bestätigt?
Ich kann da beim besten Willen nix entdecken.

Steht da irgendwo, daß die raw Tabs eigentlich völlig unsinnig und überflüssig sind,
und kein Mensch raw Tabs braucht, weil man mit den Colorwheels das selbe machen kann?



Antwort von WoWu:

Es ist doch weder das Eine, noch das Andere allein gültig.
Es gibt genügend Kameras im unteren bis mittleren Segment, die über derart schlechte Verarbeitung im Prozessweg verfügen und auf Dinge, wie Störabstand pfeifen, dass man dann auch sämtliche Ableiche im RGBRGB im Glossar erklärt Raum vornehmen kann.
Ebenso, wie es reichlich Codecs gibt, deren Signal gar nicht direkt dem Sensorsignal entsprechen sondern nur in der Übertragungsfunktion flach sind.

Nun kann man spekulieren ... eins steht nur ziemlich fest. Hat man es mit einem "echtem" RAW zu tun und ist man gezwungen De-Mosaicing von unterschiedlichen Kameras durchzuführen, wird man um die üblichen Stellparameter nicht herum kommen.
Und legt man Wert auf hochwertige Zielbilder auch nicht darum, auf möglichst geringe ArtefakteArtefakte im Glossar erklärt zu achten, wie zuvor schon beschrieben. Dazu gehören aber eben auch Rauschanteile, die man möglichst gering halten wird.
Das gelingt nicht so gut im RGBRGB im Glossar erklärt Raum, weil die Signale bereits aus mehreren Quellen belastet sind, wie im RAW Signal, in dem man es mit der Minimalmenge an Rauschen zu tun hat.
Das Alles kann man, meiner Meinung nach, überhaupt noch nicht auf PRR beziehen, weil es noch reine Spekulation ist, um was für ein Signal es sich handelt, noch dazu nicht mal klar ist, wie Prozesse in FCP mit unterschiedlichen CFRs umgehen.
Dazu gibt es lediglich die üblichen Spekulationen im Netz, die überhaupt nicht belastbar sind.
Die Kenntnis über die bisherigen RAW Verfahren ist aber aus der Historie bestens bekannt. Nur lässt sie sich bisher mit dem, was wir über PRR "erfahren" haben (nämlich nichts Konkretes) in Einklang bringen.
Wir können noch nichtmal mit Sicherheit sagen, ob es überhaupt ein echtes RAW Signal ist, denn dafür sind die bisherigen "Erkenntnisse" viel zu widersprüchlich.

Warum warten wir also nicht einfach mal ab ...
Und noch eins ... in Franks Beitrag oben ist es schon angeklungen.... wer Codes einzig an seiner Perfomanz misst, scheint sich die Frage nach Bildqualität nicht mehr zu stellen.
Insofern divergieren hier die jeweiligen Zielanforderungen ohnehin.



Antwort von Roland Schulz:

Frank, ...da steht:
"RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page..."

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!

Dass Du zu unterschiedlichen Ergebnissen kommst liegt zum einen daran dass die "Color Wheels" und andere Tools ggf. ein etwas abweichendes Ergebnis liefern als der Raw Dialog, zum anderen dass Du die anderen Werkzeuge ggf. nicht "richtig" angewendet hast bzw. die entsprechenden Parameter nicht genau genug getroffen hast.

Da wir u.A. in Resolve aber mit 32bit-FP arbeiten haben wir nach dem (!) "RAW decoding" aber mit "keinen" qualitativen Nachteilen zu rechnen.



Antwort von Roland Schulz:


Es ist doch weder das Eine, noch das Andere allein gültig.
Es gibt genügend Kameras im unteren bis mittleren Segment, die über derart schlechte Verarbeitung im Prozessweg verfügen und auf Dinge, wie Störabstand pfeifen, dass man dann auch sämtliche Ableiche im RGBRGB im Glossar erklärt Raum vornehmen kann.
Ebenso, wie es reichlich Codecs gibt, deren Signal gar nicht direkt dem Sensorsignal entsprechen sondern nur in der Übertragungsfunktion flach sind.

Nun kann man spekulieren ... eins steht nur ziemlich fest. Hat man es mit einem "echtem" RAW zu tun und ist man gezwungen De-Mosaicing von unterschiedlichen Kameras durchzuführen, wird man um die üblichen Stellparameter nicht herum kommen.
Und legt man Wert auf hochwertige Zielbilder auch nicht darum, auf möglichst geringe ArtefakteArtefakte im Glossar erklärt zu achten, wie zuvor schon beschrieben. Dazu gehören aber eben auch Rauschanteile, die man möglichst gering halten wird.
Das gelingt nicht so gut im RGBRGB im Glossar erklärt Raum, weil die Signale bereits aus mehreren Quellen belastet sind, wie im RAW Signal, in dem man es mit der Minimalmenge an Rauschen zu tun hat.
Das Alles kann man, meiner Meinung nach, überhaupt noch nicht auf PRR beziehen, weil es noch reine Spekulation ist, um was für ein Signal es sich handelt, noch dazu nicht mal klar ist, wie Prozesse in FCP mit unterschiedlichen CFRs umgehen.
Dazu gibt es lediglich die üblichen Spekulationen im Netz, die überhaupt nicht belastbar sind.
Die Kenntnis über die bisherigen RAW Verfahren ist aber aus der Historie bestens bekannt. Nur lässt sie sich bisher mit dem, was wir über PRR "erfahren" haben (nämlich nichts Konkretes) in Einklang bringen.
Wir können noch nichtmal mit Sicherheit sagen, ob es überhaupt ein echtes RAW Signal ist, denn dafür sind die bisherigen "Erkenntnisse" viel zu widersprüchlich.

Warum warten wir also nicht einfach mal ab ...
Und noch eins ... in Franks Beitrag oben ist es schon angeklungen.... wer Codes einzig an seiner Perfomanz misst, scheint sich die Frage nach Bildqualität nicht mehr zu stellen.
Insofern divergieren hier die jeweiligen Zielanforderungen ohnehin.

Warum sollten wir u.U. im debayerten RGBRGB im Glossar erklärt Signal u.A. mehr Rauschen haben als im RAW Signal, das erschließt sich mir nicht?!
Welche Gründe könnte das haben?!
Wir könnten eigentlich nur Quantisierungsrauschen erhalten wenn wir in eine kleine Quantisierung/Bittiefe interpolieren - das hatte ich aber immer ausgeschlossen (Zielbittiefe >= RAW Bittiefe).
Resolve macht hier 32bit FP - denke da ist jede praktische Kamera WEIT von weg.

Und ja, welche Qualität das "high speed" debayerte Bild hat steht klar noch in Frage. Das könnte am Ende ggf. "schlechter" aussehen als ein OOC Bild wenn das Debayering dort hochwertiger ist.

Weiter richtig - sehr viel Spekulation bis hierher. Ggf. sollten wir Erfahrungen und weitere Untersuchungen abwarten.
Auf jeden Fall erzeugt das alles ne Menge Interesse und Diskussionen.
Ich find‘s interessant und ggf. hat das ganze gewisse Chancen.

Nacht zusammen...



Antwort von Axel:

Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.

Vielleicht kann ich da ganz schüchtern aushelfen. In ACR gilt das Öffnen eines Raw-Standbildes als Vorstufe zu weiterer Nachbarbeitung. Sobald man das Raw-Bild im normalen Photoshop öffnet, hat man alle Parameter festgelegt, die normalerweise in der Kamera festgelegt würden, inklusive WeißabgleichWeißabgleich im Glossar erklärt, Belichtung (bei BM-Kameras ist z.B. ISO nichts anderes als GammaGamma im Glossar erklärt, eingebacken durch KompressionKompression im Glossar erklärt oder nicht), Konturenschärfung, Rauschunterdrückung, Objektivkorrektur usw.. Aber im HSL-Tab lässt sich eine komplette "Color Science" festlegen (und natürlich als Profil speichern). Dieses Werkzeug erscheint vielen als so mächtig, dass sie es missbrauchen, um ordinäre JPEGs mit ACR zu öffnen und deren Farben sehr intuitiv anpassen zu können.

Im Photoshop-Klon (in manchem besser, in manchem schwächer) Affinity müssen Raw-Dateien die "Develop-Persona" durchlaufen, bevor sie zur "Photo-Persona" werden können. Eine Metamorphose!

Im Vergleich dazu ist Resolves CR ziemlich bescheiden. Aber es besagt, dass eine Raw-Datei besser zuerst interpretiert wird aufgrund von Metadaten aus der Kamera.

In FCP gibt es nur "Farbtemperatur" und der original vom Kameramann gewählte Wert wird nicht angezeigt, jedoch offenbar dennoch stillschweigend für eine erste Interpretation (das ist das "Entwickeln") herangezogen. Daher sieht der "Serviervorschlag" der Aladin-Lampe aus, wie man ihn bei 4300°K (Daten von der Mini-App "Mediainfo") erwarten würde. FCP liefert also eine vollautomatische Entwicklung. Will ich, wenn ich mir Raw "anlache" (wolfgang), einen solchen Schritt? Aus dem Atomos direkt in die "My Video Persona"? Sind das bloß sinnfreie Etiketten?

Frag mal einen Photoshop-Nutzer.

Hier noch der Hinweis zu analogem Entwickeln von Negativen, dass es Techniken wie das Flashen oder Pushen gab, um Einfluss auf das Endergebnis zu haben. Dinge, die nicht vollumfänglich beim "Vergrößern" (die normalen Photoshop-Tools haben ihre Vorbilder in der Dunkelkammer) erzielt werden konnten.

Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden.

Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss?

Auf Seite der zur Verfügung stehenden Farbwerkzeuge und daher der Wahrnehmung des Materials durch den Nutzer: in FCP kein Unterschied!

Wenn ich mir aber Raw "anlache" (wolfgang), dann möchte ich wohl in größerem Umfang Einfluss auf Farbe nehmen. FCP 10.3 war ein genialer Allrounder mit seiner kleinen Farbtafel, die zugleich eine Eigenschaft und ein Effekt war. Sie wurde oft ausgelacht, aber nur von Outsidern. Ich schrieb mal, mit ihr kann man 95% von dem erreichen, was man in Resolve tut, aber mit nur 5% Zeitaufwand.

Das galt aber für FarbkorrekturFarbkorrektur im Glossar erklärt, für einfaches Aufpolieren von normalem Video. Maximal ein oder höchstens zwei zusätzliche sekundäre Schritte. Danach begann das Verhältnis zugunsten von Resolve zu kippen. Es gibt in FCP kein einfaches Organisationsprinzip für die Arbeitsschritte (wie die Nodes), keine Lösung, um eine Referenz anzeigen zu lassen. Seit Dezember gibt es mehr Werkzeuge, aber das neue Color-Tab, in dem sie leben, hat leider nichts daran geändert.

In Bezug auf den Schnitt schrieb ich oft, man müsste schon im Detail Arbeitsabläufe vergleichen, um zu sehen, welcher NLE benutzerfreundlicher sei. Klicks, Tastenbedienungen (eine Taste oder nur mit einer oder mehreren Modifyer-Tasten?) und unvermeidliche Mausbewegungen zählen. Da gewinnt FCP immer. Bei Farbe verliert es sehr schnell.

Color Finale und zumal Chromatic hatten das schon etwas besser hingekriegt (letzteres sogar mit Mocha-Tracker, Masken ohne Tracking sind ja auch doof, übrigens Chromatic nur heute noch mit 30% Preisnachlass!). Apple hat es verpfuscht. Ich hoffe, das geht nicht so weiter. Ein paar Minuten lang gab es in der amerikanischen Update-Information für 10.4.1 den Hinweis auf integrierte Rauschunterdrückung. Jemand hat einen Screenshot gemacht:
zum Bild http://www.fcp.co/media/kunena/attachme ... onList.jpg

Bitte nicht weiter so! Hört auf, Features dazuzustopfen, die Drittanbieter besser machen. Konzentriert euch auf Medienorganisation und Schnitt!



Antwort von Sammy D:


Frank, ...da steht:
"RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page..."

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!
...

Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.



Antwort von nic:

Also zumindest für redraw kann ich mit Sicherheit sagen, dass tatsächlich vor ISO-Interpretation (Gain), WeißabgleichWeißabgleich im Glossar erklärt und selbst der 'highlight-extension' das demosaicing durchgeführt wird. Dass die Ergebnisse der Anpassungen im RAW-Dialog trotz allem nicht identisch mit den Anpassungen danach ausfallen (können), liegt daran, dass die durch das r3d-Modul vorgenommenen Korrekturen die (nur dem Hersteller bekannten) Sensoreigenheiten (Colorimetry, ...) miteinbeziehen. Sämtliche raw-Einstellungen werden auf das in Fließkommazahlen debayerte Bild durchgeführt und inkludieren alle im raw-Zustand vorhandenen Informationen. Dem NLE oder Gradingprogramm werden die verarbeiteten Daten dann als Integer in der erwarteten Bittiefe übergeben.



Antwort von Frank Glencairn:


Frank, ...da steht:
"RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page..."

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!

Zunächst einmal widerspricht der erste Satz nicht dem, was ich sage, sondern er bestätigt es: Das Decoding (Raw Tab) ist ein eigener Prozess, der getrennt von allen anderen Prozessen, und vor allen anderen Prozessen (Colorwheels) passiert.

Debayering ist nur ein Teil des Decoding und nicht das selbe. Beim Decoding im RAW Tab werden eben nicht nur die Debayering Parameter gesetzt, sondern halt auch alle anderen, die in das Decoding nach RGBRGB im Glossar erklärt einfließen.

Dass Du zu unterschiedlichen Ergebnissen kommst liegt zum einen daran dass die "Color Wheels" und andere Tools ggf. ein etwas abweichendes Ergebnis liefern als der Raw Dialog, zum anderen dass Du die anderen Werkzeuge ggf. nicht "richtig" angewendet hast bzw. die entsprechenden Parameter nicht genau genug getroffen hast.

Naja, ich hab Ende der 90er FarbkorrekturFarbkorrektur im Glossar erklärt auf einer DaVinci Renaissance 8:8:8 gelernt, hab das an der Uni unterrichtet, und heute bin ich Resolve Beta Tester, sprich ich setze mich jetzt gut 20 Jahre intensiv damit auseinander - ich schätze mal daß das "richtige Anwenden der Werkzeuge" schon so einigermaßen im Griff hab.



Antwort von Roland Schulz:


Frank, bring mal einen einzigen belastbaren Nachweis dass irgendwer im RAW->RGB Workflow die RAW Daten anpasst und sag uns welchen Sinn das ergeben sollte.

Vielleicht kann ich da ganz schüchtern aushelfen. In ACR gilt das Öffnen eines Raw-Standbildes als Vorstufe zu weiterer Nachbarbeitung. Sobald man das Raw-Bild im normalen Photoshop öffnet, hat man alle Parameter festgelegt, die normalerweise in der Kamera festgelegt würden, inklusive WeißabgleichWeißabgleich im Glossar erklärt, Belichtung (bei BM-Kameras ist z.B. ISO nichts anderes als GammaGamma im Glossar erklärt, eingebacken durch KompressionKompression im Glossar erklärt oder nicht), Konturenschärfung, Rauschunterdrückung, Objektivkorrektur usw.. Aber im HSL-Tab lässt sich eine komplette "Color Science" festlegen (und natürlich als Profil speichern). Dieses Werkzeug erscheint vielen als so mächtig, dass sie es missbrauchen, um ordinäre JPEGs mit ACR zu öffnen und deren Farben sehr intuitiv anpassen zu können.

Im Photoshop-Klon (in manchem besser, in manchem schwächer) Affinity müssen Raw-Dateien die "Develop-Persona" durchlaufen, bevor sie zur "Photo-Persona" werden können. Eine Metamorphose!

Im Vergleich dazu ist Resolves CR ziemlich bescheiden. Aber es besagt, dass eine Raw-Datei besser zuerst interpretiert wird aufgrund von Metadaten aus der Kamera.

In FCP gibt es nur "Farbtemperatur" und der original vom Kameramann gewählte Wert wird nicht angezeigt, jedoch offenbar dennoch stillschweigend für eine erste Interpretation (das ist das "Entwickeln") herangezogen. Daher sieht der "Serviervorschlag" der Aladin-Lampe aus, wie man ihn bei 4300°K (Daten von der Mini-App "Mediainfo") erwarten würde. FCP liefert also eine vollautomatische Entwicklung. Will ich, wenn ich mir Raw "anlache" (wolfgang), einen solchen Schritt? Aus dem Atomos direkt in die "My Video Persona"? Sind das bloß sinnfreie Etiketten?

Frag mal einen Photoshop-Nutzer.

Hier noch der Hinweis zu analogem Entwickeln von Negativen, dass es Techniken wie das Flashen oder Pushen gab, um Einfluss auf das Endergebnis zu haben. Dinge, die nicht vollumfänglich beim "Vergrößern" (die normalen Photoshop-Tools haben ihre Vorbilder in der Dunkelkammer) erzielt werden konnten.

Stell dir vor, du hast hundert Raw-Clips in einer Sequenz, und du musst sie alle graden.

Erleuchte mal kurz: was ist für dich der Unterschied zu 100 Nicht-raw-Clips, die man graden muss?

Auf Seite der zur Verfügung stehenden Farbwerkzeuge und daher der Wahrnehmung des Materials durch den Nutzer: in FCP kein Unterschied!

Wenn ich mir aber Raw "anlache" (wolfgang), dann möchte ich wohl in größerem Umfang Einfluss auf Farbe nehmen. FCP 10.3 war ein genialer Allrounder mit seiner kleinen Farbtafel, die zugleich eine Eigenschaft und ein Effekt war. Sie wurde oft ausgelacht, aber nur von Outsidern. Ich schrieb mal, mit ihr kann man 95% von dem erreichen, was man in Resolve tut, aber mit nur 5% Zeitaufwand.

Das galt aber für FarbkorrekturFarbkorrektur im Glossar erklärt, für einfaches Aufpolieren von normalem Video. Maximal ein oder höchstens zwei zusätzliche sekundäre Schritte. Danach begann das Verhältnis zugunsten von Resolve zu kippen. Es gibt in FCP kein einfaches Organisationsprinzip für die Arbeitsschritte (wie die Nodes), keine Lösung, um eine Referenz anzeigen zu lassen. Seit Dezember gibt es mehr Werkzeuge, aber das neue Color-Tab, in dem sie leben, hat leider nichts daran geändert.

In Bezug auf den Schnitt schrieb ich oft, man müsste schon im Detail Arbeitsabläufe vergleichen, um zu sehen, welcher NLE benutzerfreundlicher sei. Klicks, Tastenbedienungen (eine Taste oder nur mit einer oder mehreren Modifyer-Tasten?) und unvermeidliche Mausbewegungen zählen. Da gewinnt FCP immer. Bei Farbe verliert es sehr schnell.

Color Finale und zumal Chromatic hatten das schon etwas besser hingekriegt (letzteres sogar mit Mocha-Tracker, Masken ohne Tracking sind ja auch doof, übrigens Chromatic nur heute noch mit 30% Preisnachlass!). Apple hat es verpfuscht. Ich hoffe, das geht nicht so weiter. Ein paar Minuten lang gab es in der amerikanischen Update-Information für 10.4.1 den Hinweis auf integrierte Rauschunterdrückung. Jemand hat einen Screenshot gemacht:
zum Bild http://www.fcp.co/media/kunena/attachme ... onList.jpg

Bitte nicht weiter so! Hört auf, Features dazuzustopfen, die Drittanbieter besser machen. Konzentriert euch auf Medienorganisation und Schnitt!

Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGBRGB im Glossar erklärt Daten vor.



Antwort von Axel:

Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGBRGB im Glossar erklärt Daten vor.

Camera-Raw - man könnte es gewagt übersetzen mit "Kamera-Raw" - erlaubt Eingriff in die Metadaten, die von der Kamera mitgeliefert werden. Es mag sehr wohl sein, dass die Unterscheidung akademisch ist, weil die Hauptleistung, das Anzeigen eines RGB-Bildes, da schon stattgefunden hat, aber eben mit Hilfe von ganz bestimmten Werten. Wysiwyg.

Aus demselben Grund, aus dem in allen Farbkorrektur-Handbüchern und -tutorials immer wieder auf die Bedeutung der richtigen Reihenfolge beim Workflow hingewiesen wird, ist es allein aus der Anschauung des Bearbeiters heraus besser (oder wenn man es streng nimmt unerlässlich), die technische Interpretation des Ausgangsbildes von der kreativen Arbeit am so "entwickelten" Bild zu trennen. Selbst wenn, wie hier, die Software sagt, okay, hab die Metadaten erfasst, uninteressantes technisches Gewäsch für dich, fang mit Graden an! Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!

Farbkorrektur ist wegen des wysiwyg-Prinzips der reinste Datenhäcksler. Würde ich einen Look auflegen, bevor ich primäre Farb- und Helligkeitsbalance durchgeführt habe, bliebe nur Matsche übrig. Begönne ich einen Eingriff in ein vorentwickeltes Raw-Bild (wie von FCP mir aufgezwungen) mit Instrumenten, die dieselben sind, mit denen ich am Look arbeite, ...



Antwort von Roland Schulz:



Frank, ...da steht:
"RAW decoding is the very first image processing operation that takes place, and it takes place before all other operations in the color page..."

Wie in meinen ganzen Links so auch in Resolve und dort AUCH im Raw Dialog!!

debayering first!!
...

Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.

Das steht so in der von mir verklinkten Anleitung und ich habe auch nichts anderes behauptet. Debayering first. Nirgends steht dass irgendwelche Parameter Einfluss auf das Debayering haben, außer in Bezug auf die Qualität (schnell/qualitativ höherwertig). Es ist auch nicht notwendig dass Metadaten Einfluss auf das Debayering haben.
Hier gibt es wie in den anderen von mir geposteten Links keine Rückwirkungen die aufgezeigt sind. Alles (WB...) findet danach in RGBRGB im Glossar erklärt statt. Es wird "plain" debayert, nirgends steht dass es anders ist.



Antwort von Roland Schulz:


Alles gut und schön, aber auch hier verändern wir im Post keine RAW Informationen mehr sondern nehmen Veränderungen auf den durch Debayering gewonnenen RGBRGB im Glossar erklärt Daten vor.

Camera-Raw - man könnte es gewagt übersetzen mit "Kamera-Raw" - erlaubt Eingriff in die Metadaten, die von der Kamera mitgeliefert werden. Es mag sehr wohl sein, dass die Unterscheidung akademisch ist, weil die Hauptleistung, das Anzeigen eines RGB-Bildes, da schon stattgefunden hat, aber eben mit Hilfe von ganz bestimmten Werten. Wysiwyg.

Aus demselben Grund, aus dem in allen Farbkorrektur-Handbüchern und -tutorials immer wieder auf die Bedeutung der richtigen Reihenfolge beim Workflow hingewiesen wird, ist es allein aus der Anschauung des Bearbeiters heraus besser (oder wenn man es streng nimmt unerlässlich), die technische Interpretation des Ausgangsbildes von der kreativen Arbeit am so "entwickelten" Bild zu trennen. Selbst wenn, wie hier, die Software sagt, okay, hab die Metadaten erfasst, uninteressantes technisches Gewäsch für dich, fang mit Graden an! Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!

Farbkorrektur ist wegen des wysiwyg-Prinzips der reinste Datenhäcksler. Würde ich einen Look auflegen, bevor ich primäre Farb- und Helligkeitsbalance durchgeführt habe, bliebe nur Matsche übrig. Begönne ich einen Eingriff in ein vorentwickeltes Raw-Bild (wie von FCP mir aufgezwungen) mit Instrumenten, die dieselben sind, mit denen ich am Look arbeite, ...

...auch hier werden die Metadaten (WB...) auf das debayerte RGBRGB im Glossar erklärt Bild angewendet und können adaptiert werden, nirgends steht was anderes!
Das vorhandene RAW Bild wird zuerst 1:1 debayert, das steht da, da werden keine RAW Daten anhand von Metadaten verändert oder der Debayeringprozess angepasst.
Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern. Die "Farbe", und das ist auch der WB, passiert danach. Das wäre anders viel zu kompliziert und bei Änderungen unnötig langsam. Das debayerte Bild liegt in hoher QuantisierungQuantisierung im Glossar erklärt vor (Resolve 32bit FP). Da kann man alles "verlustfrei" mit machen da keine Kamera annähernd diese QuantisierungQuantisierung im Glossar erklärt aufweist!

In manchen Kameras selbst findet wie Wowu richtig schrieb mitunter eine Anpassung der R,G,B Verstärkungen vor der Digitalsierung statt. Da macht es auch noch Sinn da die QuantisierungQuantisierung im Glossar erklärt der ADCs ggf. kleiner ist als die Dynamik der Sensel. An RAW Daten selbst vor dem Debayern rumzubasteln macht aber keinen Sinn und niemand gibt einen Hinweis darauf.

Noch mal zurück auf den Track: Der RAW Converter selbst muss nicht zwingend Einfluss auf die Farben (WB...) erlauben, da das verlustfrei in späteren Schritten erfolgen kann, somit auch für FCPX Gültigkeit haben kann (wenn die interne Verarbeitung eine entsprechend hohe QuantisierungQuantisierung im Glossar erklärt aufweist).



Antwort von Sammy D:



Dann musst du eine andere Bedienungsanleitung gelesen haben...

Der erste Schritt ist De-bayering, ja, hier auch camera raw decoding genannt. Und genau in diesem Schritt des Dekodierens befinden wir uns (siehe Diagramm). Hier legt man die Parameter fest, wie der RAW-Processor in Resolve sie in die Image-Pipeline bringt: "Using theses parameters in the Camera Raw panel, you can override the original camera metadata that was written at the time of recording". Unter Camera metadata wird hier Farbtemperatur und Belichtung aufgefuehrt.
Ferner kann man die decode quality und die decode settings einstellen. Betonung auf decode!
Erst nach der Entwicklung (decoding) gehts zur color page/ image processing. Wie in jedem anderen raw processor auch.

Das steht so in der von mir verklinkten Anleitung und ich habe auch nichts anderes behauptet. Debayering first. Nirgends steht dass irgendwelche Parameter Einfluss auf das Debayering haben, außer in Bezug auf die Qualität (schnell/qualitativ höherwertig). Es ist auch nicht notwendig dass Metadaten Einfluss auf das Debayering haben.
Hier gibt es wie in den anderen von mir geposteten Links keine Rückwirkungen die aufgezeigt sind. Alles (WB...) findet danach in RGBRGB im Glossar erklärt statt. Es wird "plain" debayert, nirgends steht dass es anders ist.

Wie siehts dann mit Raw Convertern aus, wo man das Debayering abstellen, man aber trotzdem an den Metadaten drehen kann?



Antwort von Roland Schulz:


Wie siehts dann mit Raw Convertern aus, wo man das Debayering abstellen, man aber trotzdem an den Metadaten drehen kann?

Was soll das für ein "Converter" sein?! Beispiel?!
Du drehst zudem an Parametern die durch Metadaten voreingestellt sind, Du veränderst im Post nicht die Metadaten selbst denn dann würdest Du die Originaldatei ändern. Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.



Antwort von dienstag_01:

Ich möchte mal daran erinnern, um was es hier (im letzten Zweig dieser Diskussion) eigentlich geht: WB auf RAW oder RGB.
EIn PixelPixel im Glossar erklärt, dessen Farbwerte ich nur kenne, wenn ich das Bayern-Pattern kenne (Punkt 1) kann ich ohne eine Interpolation der beiden anderen Farbwerte (Punkt 2) never ever in seiner Farbe verändern. Was WB macht.
Ob Resolve das in der Anordnung seiner Tabs sichtbar macht oder nicht, ist dafür völlig irrelevant.
Es gibt auch RAW-Konverter (z.B. Lightroom), die behalten komplett das RAW-Bild und schreiben die Anpassungen (auch alle Farbanpassungen, also viel mehr als Resolve) in eine xmp. Na und, ohne Debayering passiert da nichts.



Antwort von Axel:

Der Slider "Temperatur" ist anscheinend nichts anderes, als wenn ich in der Farbtafel den "Global"-Puck auf 220° bringe und bei gehaltener Shift-Taste hoch und runter bewege. Addieren bzw. Subtrahieren von Blau bzw. Orange. Sagt mir, was ihr wollt: das fühlt sich nicht so an wie eine Änderung des CR-Weißabgleichs!

Ich widerlege mich selbst. Ein Pocket DNG sowohl in FCP (Metadaten? Der WeißabgleichWeißabgleich im Glossar erklärt von 5600°K wird nirgendwo gelistet, aber das Bild sieht okay aus) als auch in Resolve geladen. >Farbtafel >Global und >Camera Raw >White Balance >Custom ist subjektiv gar kein Unterschied. Hmmm.



Antwort von Frank Glencairn:



Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern.

Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.

Diese massive Anhäufung von völliger Ignoranz, gepaart mit mangelndem Fachwissen und Sturheit, in deinem Reality Distortion FieldField im Glossar erklärt, das offensichtliche Beweise zuverlässig für dich filtert, ist wirklich beachtlich.



Antwort von Roland Schulz:


Ich möchte mal daran erinnern, um was es hier (im letzten Zweig dieser Diskussion) eigentlich geht: WB auf RAW oder RGB.
EIn PixelPixel im Glossar erklärt, dessen Farbwerte ich nur kenne, wenn ich das Bayern-Pattern kenne (Punkt 1) kann ich ohne eine Interpolation der beiden anderen Farbwerte (Punkt 2) never ever in seiner Farbe verändern. Was WB macht.
Ob Resolve das in der Anordnung seiner Tabs sichtbar macht oder nicht, ist dafür völlig irrelevant.
Es gibt auch RAW-Konverter (z.B. Lightroom), die behalten komplett das RAW-Bild und schreiben die Anpassungen (auch alle Farbanpassungen, also viel mehr als Resolve) in eine xmp. Na und, ohne Debayering passiert da nichts.

..sehe ich auch so.
Ich kann zwar in der Farbe verändern, aber entweder nicht gezielt oder ich muss invers gebayert überlagern. Also bitte, das würde wirklich dem Aufwand x2 entsprechen!



Antwort von cantsin:

Das leuchtet in der Theorie ja ein. Nur ist in der Praxis merkwürdig, dass die Bildparameter-Regler, die Resolves Raw-Tab bzw. Adobes ACR zur Verfügung stellen, dann eigentlich genauso gut bei herkömmlichen Bildern (mit 12 oder 14bit Farbtiefe) funktionieren müsste.



Antwort von Roland Schulz:



Es gibt nirgends eine Rückwirkung auf das Debayering in den Blockschaltbildern.

Die Metadaten sind durch die Aufnahme fest eingebrannt und bilden den Istzustand bei der Aufnahme ab. Diese im Post zu ändern ist völlig unüblich.

Diese massive Anhäufung von völliger Ignoranz, gepaart mit mangelndem Fachwissen und Sturheit, in deinem Reality Distortion FieldField im Glossar erklärt, das offensichtliche Beweise zuverlässig für dich filtert, ist wirklich beachtlich.

Frank, Dein "TEST" ist bis hierher dein einziger Versuch gewesen überhaupt irgendeinen Nachweis zu bringen. Den Test verwerfe ich aber mit der Begründung dass du in beiden Vorgängen was völlig unterschiedliches hast einstellen können da es auch gar keine identischen Stellgrößen in den Dialogen gibt. Das bedeutet aber nicht dass man nicht zum gleichen Ergebnis kommen kann.

Was kam dann noch dazu, wo ist Dein Fachwissen, wo sind die Belege wie es gemacht wird?! Da ist nichts oder habe ich was überlesen?! Ich habe zig Links von Blockschaltbildern gepostet und das Resolve Manual nach Hinweis zitiert. Alles zielt auf Debayering first was auch immer mehr andere hier stützen.

Ist mir aber auch langsam echt egal, Thema ist geklärt.



Antwort von Roland Schulz:


Das leuchtet in der Theorie ja ein. Nur ist in der Praxis merkwürdig, dass die Bildparameter-Regler, die Resolves Raw-Tab bzw. Adobes ACR zur Verfügung stellen, dann eigentlich genauso gut bei herkömmlichen Bildern (mit 12 oder 14bit Farbtiefe) funktionieren müsste.

Das tun sie auch und das will BMD mit 32bit FP auch sagen.



Antwort von Roland Schulz:

...noch zwei weitere für Debayering/Demosaicing first:

zum Bild http://www.photoaxe.com/wp-content/uplo ... g_raw2.gif

https://image.slidesharecdn.com/raw-wor ... 1334351210

Frank - gib" auf, Du hast keine Chance, komme mit erhobenen Händen raus ;-) ;-) ;-)

...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.



Antwort von Frank Glencairn:



...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.

Du bist hier der einzige, der davon faselt, daß die WB und anderes vor dem Debayering passieren - ich hab immer schon gesagt, das die Parameter im raw Tab die Parameter FÜR das Debayering sind. Aber das schnallst du einfach nicht.



Antwort von dienstag_01:



...oder zeig" uns wo der WB etc. bei bereits vorhandenen RAW Daten noch vor dem Debayering adaptiert wird.

Du bist hier der einzige, der davon faselt, daß die WB und anderes vor dem Debayering passieren - ich hab immer schon gesagt, das die Parameter im raw Tab die Parameter FÜR das Debayering sind. Aber das schnallst du einfach nicht.

Eigentlich kotzen mich solche Sachen an, aber manchmal ist es unumgänglich (man wird hier sonst selbst als der Doofe hingestellt):
Ich rede jetzt nicht von irgendwelchen Sachen wie BlendeBlende im Glossar erklärt, Linsentyp, Shutterspeed uns, sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post vor dem Debayering veränderbar.



Antwort von Frank Glencairn:

Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.



Antwort von nic:


Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.

Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der FarbkorrekturFarbkorrektur im Glossar erklärt und dem Grading unterscheiden sollte.



Antwort von dienstag_01:



Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.

Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der FarbkorrekturFarbkorrektur im Glossar erklärt und dem Grading unterscheiden sollte.

Wie?



Antwort von nic:



Richtiger wäre: Im Rahmen des 'raw-processing', wovon das 'demosaicing' eben ein Prozess ist, der in gängigen Verfahren tatsächlich vor der Farbbearbeitung liegt. Wobei man diese Farbbearbeitung im 'raw-processing' trotzdem von der FarbkorrekturFarbkorrektur im Glossar erklärt und dem Grading unterscheiden sollte.

Wie?

Weil der Hersteller der Kamera den Sensor und die Eigenheiten der Daten kennt und deshalb andere Algorithmen zur Verfügung stellt, die das NLE oder Gradingprogramm mit seinen eigenen Reglern so nicht exakt hinbekommt.



Antwort von Axel:

... und außerdem, selbst wenn die Farbeffekte des Programms im Endeffekt dasselbe erreichen könnten, wäre es wichtig, das im selben Sinne zu trennen wie primäre FarbkorrekturFarbkorrektur im Glossar erklärt und Look-Grading.



Antwort von dienstag_01:



Wie?

Weil der Hersteller der Kamera den Sensor und die Eigenheiten der Daten kennt und deshalb andere Algorithmen zur Verfügung stellt, die das NLE oder Gradingprogramm mit seinen eigenen Reglern so nicht exakt hinbekommt.

Damit wäre ich sehr vorsichtig, alles was man über RAW-Bearbeitung hört und liest, läuft darauf hinaus, dass Kamerahersteller nur einen Teil ihrer internen Prozesse veröffentlichen/weitergeben. Der Rest ist reverse engineering.



Antwort von Frank Glencairn:

Wobei ich nicht sicher bin, ob das tatsächlich stimmt.
Wenn ich ein (RAW) Kamera Hersteller bin, hab ich doch ein massives Interesse daran, daß mein RAW Material, von möglichst vielen Programmen, so gut und optimal wie möglich unterstützt wird. Wenn ich jetzt meine Color-Science verheimliche, dann kann ja keiner mit dem Material aus meiner Kamera vernünftig arbeiten - das kann's doch nicht sein.



Antwort von dienstag_01:


Wobei ich nicht sicher bin, ob das tatsächlich stimmt.
Wenn ich ein (RAW) Kamera Hersteller bin, hab ich doch ein massives Interesse daran, daß mein RAW Material, von möglichst vielen Programmen, so gut und optimal wie möglich unterstützt wird. Wenn ich jetzt meine Color-Science verheimliche, dann kann ja keiner mit dem Material aus meiner Kamera vernünftig arbeiten - das kann's doch nicht sein.

Scheinbar gilt: im Zweifel tot stellen ;)
Wurde aber hier auch schon diskutiert, Sony war es, die, glaube ich, eine Meldung in Richtung der Nicht-Weitergabe von Daten rausgegeben hatten.
Im Foto-Bereich kann man schon deutliche Unterschiede im Color Processing von RAW Aufnahmen verschiedener Programme sehen.



Antwort von nic:

Genau deshalb bietet zB Red ein SDK an, das in Hostprogramme integriert werden kann. So muss nichts über das ‘decoding’ offengelegt werden und trotzdem bleibt die Qualität der Ausgabe über NLE-Grenzen hinweg konstant...



Antwort von Roland Schulz:


Ja, das hätte ich genauer definieren sollen, also:

"...sondern von ISO, WB, Belichtung, Tint etc. Die sind bei raw eben nur als Metadaten gespeichert, und daher in der Post WÄHREND dem Debayering veränderbar.

Ich hätte jetzt von nem gestandenen Mann erwartet dass man soviel Hintern in der Hose hat irgendwann auch mal die Kurve zu kriegen ;-)!

Ob Änderungen auf RAW Daten angewendet werden oder während dem Demosaicing/Debayering Adaptionen vorgenommen werden (was beides NICHT der Fall ist) spielt keine Rolle für die Diskussion. Ausgangspunkt war dass Du behauptet hast dass Änderungen im RAW Dialog notwendig sind um die volle Qualität zu erzielen und das ist für den gegenständlichen Fall in Resolve u.v.a. falsch.
Der RAW Dialog wendet Anpassungen auf das debayerte Bild an, nicht davor und auch nicht während des Debayerings. Weitere Nodes tun es genau so. Dazwischen steckt eine "verlustfreie" 32bit FP Pipeline.
Weiterhin verändern wir im Post immer noch keine Metadaten da diese die Einstellungen und Gegebenheiten der Aufnahme widerspiegeln und in aller Regel nicht geändert werden.
Was wir machen ist eine Anpassung von Parametern die u.U. Anhand von Metadaten voreingestellt werden.

Weiterhin sind ISO, WB, Belichtung, Tint usw. auch nicht in allen Fällen nur als Metadaten"information" gespeichert sondern nach Preequalizing (Wowus Aussage, vgl. Nikon D2x, EOS 1d... unterschiedliche Verstärkung der RGBRGB im Glossar erklärt Werte auf dem Sensor) ggf. ins RAW Material eingeflossen. Die Belichtung ist ebenfalls bereits im RAW enthalten, verlustfrei passen wir da nämlich keine 2 Blenden rauf oder runter an. Auch die ISO-Verstärkung/Empfindlichkeit ist durch die Analogverstärkung eingebrannt in einem ISO-varianten System.
Die Metadaten geben einfach nur die Information über den Wert bei der Aufnahme wieder, sie dienen nicht als Stellgröße für gewollte Veränderungen.

Das Du im RAW Dialog zu anderen Ergebnissen als mit dem Color Wheel kommst ist keine Kunst, glaub" mir, das schaffe ich sogar mit verschiedenen Einstellungen im RAW Dialog selbst wenn ich welche vornehmen kann.

Zurück in der Spur braucht der FCPX RAW Decoder auch immer noch nicht zwingend Einstellmöglichkeiten um die volle Qualität weiterzugeben.
Die Anpassung kann "verlustfrei" mit anderen Werkzeugen oder nachgeschalteten LUTs im Programm erfolgen.
Die Redundanz "Einstellmöglichkeit" im RAW Dialog hat sich Apple anscheinend gespart.

Glaube wir sind jetzt "damit" endlich fertig.



Antwort von Frank Glencairn:

Es wird nicht richtiger, wenn du es öfter wiederholst.



Antwort von Roland Schulz:


Es wird nicht richtiger, wenn du es öfter wiederholst.

Dazu fällt mir nur noch

Eigentlich kotzen mich solche Sachen an...

ein.

Ganz schwaches, buckeliges Licht! Schade.



Antwort von Jott:

So viel Energie für nix. Ist doch egal, wie Apple das macht, wenn die Resultate stimmen. Hat man Gegenteiliges gehört?

Sind Sonne und Frühling nicht sowieso wichtiger? Da kann man schön filmen. Sogar ohne raw, wenn Not am Mann ist! :-)



Antwort von motiongroup:



wenns noch interessiert



Antwort von Frank Glencairn:

26:01

"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D



Antwort von Axel:


26:01

"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D

... und weiter, hier nur sinngemäß zitiert, für Leute, die ein schnelles Ergebnis haben wollen. 4 mal Raw PiPPiP im Glossar erklärt auf einem Laptop, das zeigt halt, dass man sich über FCPs Performance keine Sorgen machen muss, es geht nicht darum, dass man diese Sache im Alltag braucht.

Leider dilettiert Apple gerade auf Gebieten (Farbe), auf denen andere sehr deutlich besser sind. Oder, um es anders zu sagen, wo FCP eklatant schlechter ist. So überzeugt man mittelfristig keine Pros, und man hält längerfristig auch keine "Massen" bei der Stange.

Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.



Antwort von DV_Chris:


Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.

Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das FormatFormat im Glossar erklärt zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.

Obwohl ich Jeromy kenne und mag ist sein Lobbying Aufruf bei der NAB Pressekonferenz eigentlich ein Schrei nach Hilfe. Kamerahersteller haben wohl im Vorfeld (das FormatFormat im Glossar erklärt wurde ja bereits zwei Jahre lang entwickelt) wohl dankend abgewunken.



Antwort von Roland Schulz:

Hab vor ein zwei Jahren mal FCP X auf meinem Macbook Pro 2014 zum Testen gehabt. Also als EDIUS User kam ich mir da vor wie mit zwei linken Händen mit jeweils nur zwei Fingern dran.
Aber das würde sich sicher einschmieren sowas. Die FarbkorrekturFarbkorrektur im Glossar erklärt mit den drei Schiebern war aber unterste Kanone, da scheint sich heute aber auch was getan zu haben.
Resolve liegt da heute klar vorne aber wenn man mal überlegt wo die vor ~zwei Jahren mit dem verbuggten und lahmen Scheiss noch standen kann man sich vorstellen dass wenn Apple ernst machen will da einiges geht. Performancetechnisch scheinen die auf jeden Fall schon ganz gut darzustehen.

Ich weiß auch nicht ob man heute bemängeln sollte dass es nur drei Kameras gibt die PRR supporten. Man steht jetzt erst am Anfang. Wie das alles angenommen wird und wie viel Wind da morgen drin ist wird erst die Zukunft zeigen. Wenn die Qualität stimmt kann das ne Chance sein.



Antwort von Axel:



Das Beste aus allen Welten könnten wir mit PRR in Resolve haben. Hoffentlich eine Frage der Zeit.

Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das FormatFormat im Glossar erklärt zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.

Ich denke da egoistisch an die Pocket 4k. Wenn die es hätte UND Resolve, könnte ich
> an Speicherkartenplatz sparen
> In FCP schneiden (ohne vorher, wie bei CDNG nötig, in Resolve Proxies erzeugen zu müssen)
> in Resolve Farben optimieren. Der XML-Roundtrip zwischen beiden ist für mich bereits Gewohnheit



Antwort von Frank Glencairn:



Ich denke da egoistisch an die Pocket 4k.

Irgendwie seh ich das mit raw über HDMIHDMI im Glossar erklärt noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDISDI im Glossar erklärt out, und da wird die Luft schon ziemlich dünn.



Antwort von Axel:


Hab vor ein zwei Jahren mal FCP X auf meinem Macbook Pro 2014 zum Testen gehabt. Also als EDIUS User kam ich mir da vor wie mit zwei linken Händen mit jeweils nur zwei Fingern dran.
Aber das würde sich sicher einschmieren sowas.

Was den Schnitt betrifft wahrscheinlich schon. Es ist ein anderes Konzept, aber ein konsequentes. Es gibt Leute, die nach ausgiebigem Sich-Befassen mit der magnetischen TimelineTimeline im Glossar erklärt zu dem Schluss kommen, Spuren liegen mir persönlich mehr.

Die FarbkorrekturFarbkorrektur im Glossar erklärt mit den drei Schiebern war aber unterste Kanone, da scheint sich heute aber auch was getan zu haben.

Die Farbtafel erlaubte schnelle und intuitive Farbkorrektur. Wenn man ein Larry-Jordan-Tut guckt, passiert alles in Zeitlupe. Wenn du das aber ein paarmal gemacht hattest, hast du gar nicht mehr auf die Pucks geguckt, sondern auf das Bild. Muscle Memory. Besser waren andere, mag sein. Es war die Farbtafel aus iMovie in Floating Point. Die war gut genug, sehr oft, und unschlagbar schnell. Kein Klick war nötig, um sie erst aufzurufen, denn sie war auch eine immer präsente Clip-Eigenschaft.

Farbräder sind nicht per se "besser". Aber es gab sie schon eine Zeitlang als PluginPlugin im Glossar erklärt von verschiedenen Dritt-Anbietern. Am bekanntesten wurde Color Finale, weil es sich GUI-mäßig am besten einfügte. Die Integration im Winter-Update würde ich persönlich als komplett misslungen bezeichnen. Was eben vor allem fehlt, ist das konsequente Konzept. Dieses ganze Farb-Zeug ist aufgesetzt, du gerätst vom Hochleistungssport beim Schnitt in die Inklusion-Krabbelgruppe.

Das würde sich nicht einschmieren.


Ich denke da egoistisch an die Pocket 4k.

Irgendwie seh ich das mit raw über HDMIHDMI im Glossar erklärt noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDISDI im Glossar erklärt out, und da wird die Luft schon ziemlich dünn.

Als internen CodecCodec im Glossar erklärt meine ich natürlich, nicht als HDMI-out.



Antwort von nic:



Ich denke da egoistisch an die Pocket 4k.

Irgendwie seh ich das mit raw über HDMIHDMI im Glossar erklärt noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDISDI im Glossar erklärt out, und da wird die Luft schon ziemlich dünn.

6G SDISDI im Glossar erklärt reicht.



Antwort von DV_Chris:



Irgendwie seh ich das mit raw über HDMIHDMI im Glossar erklärt noch nicht so richtig kommen, aber wer weiß?
Ansonsten bleiben nur Kameras mit einem 12G SDISDI im Glossar erklärt out, und da wird die Luft schon ziemlich dünn.

6G SDISDI im Glossar erklärt reicht.

6G nur bis 2160p30.

Für 2160p60 braucht es 12G.



Antwort von WoWu:

Kommt drauf an, wie PRR gemacht wird.
In dem Video gibt es nämlich noch ein zweites interessantes Zitat:

9:27-9:32.... the inventor of JPEG is the inventor of ProRes.... is the inventor of ProResRaw...

Benutzt Apple also weiter JPEG, wird das mit ziemlicher Wahrscheinlichkeit JPEG-XS sein.
Damit wären wir dann weg von der DCTDCT im Glossar erklärt Verarbeitung und im wavelet workflow mit sehr einfachen Codierwerkzeugen.
Damit lassen sich aber eben hohe Datenmengen sehr schnell auf minimale Datenraten bringen und 4kP120 mit Links bewältigen.
4k 60p 444 12 BitBit im Glossar erklärt laufen dann über 100G Ethernet. Nicht umsonst werden immer mehr Kameras auf IP umgestellt und haben die Fähigkeit, direkt auf externe Platten zu interfacen.
Geht nur eben irgendwann auf die Bildqualität.
Es wird schon sehr spannend sein, was hinterher dabei raus kommt.



Antwort von R S K:

Leider dilettiert Apple gerade auf Gebieten (Farbe), auf denen andere sehr deutlich besser sind. Oder, um es anders zu sagen, wo FCP eklatant schlechter ist. So überzeugt man mittelfristig keine Pros, und man hält längerfristig auch keine "Massen" bei der Stange.

Weil 98% der "Profi" Editoren auch Farbkorrekturen auf Resolve, Baselight & Co. Level brauchen?

Dann sind wohl nur in meiner Welt die Editoren auch Editoren und die Koloristen sind Koloristen? Die die jeweils immer das Programm nutzen was ihre Aufgabe am besten schafft. Und in keinem Fall habe ich bis dato gesehen, das es jeweils ein und dieselbe Software war, bzw. von ein und derselben Person gemacht wurde, wenn wir von wirklichen "Pros" auf ihrem Gebiet reden bzw. einer "Pro"-Produktion.

"Die Massen" brauchen faktisch wenig mehr als ein WeißabgleichWeißabgleich im Glossar erklärt und evtl. die ein oder andere Kurve. Wenn sie richtig mutig sind und mal völlig durchdrehen wollen, dann nehmen sie sogar mal eine Farb- oder Formmaske dazu. Uuuuuh. 😄 Und das alles bietet FCP (und so gesehn jeder andere "Pro" NLE) weit über dem hinaus was "die Massen" brauchen. Die sub-2% die noch getrackte Power Windows und 15 Nodes brauchen können immer noch alles z.B. an Resolve abgeben (aus FCP sogar mit 100% der bisherigen Korrekturen erhalten) und von jemandem machen lassen der/die auch weiß was ein "Scope" ist und damit umzugehen weiß… etwas was "Profis" auch immer machen werden. Nicht "die Massen"… aber trotzdem sehr zufrieden sein. Und?

Demnach die Farbkorrektur-Fähigkeiten als ultimativen Maßstab nehmen zu wollen für wie "Pro" irgendein Schnittprogramm ist, finde ich reichlich solipsistisch und prätentiös. Denn dann dürfte erst recht kein "Pro" je wieder ein Avid anfassen oder je angefasst haben, wo die allen ernstes erst jetzt "Shape-based color correction tools" (nur angekündigt) haben, als neues-super-Feature.

Aber was sind schon 10 Jahre später als alle anderen? (und eine echtzeit Scope-Darstellung haben die m.W. noch immer nicht)

"..and if you looking for a Hollywood kind a nuanced color correction, kind a Resolve thing, you not gonna find that in FinalCut, cause it's build for the 80% - 90% of the masses.. "

:-D

Immer praktisch wenn man nicht fertig (oder grammatikalisch korrekt 😄) zitiert um eine Aussage zu verzerren, dass es auch hervorragend die Narrative bedient die man will, oder? Dinge wie "Final Cut is back!" ignorieren wir nebenher dafür einfach. Natürlich.

Mal zuende zitiert…

"… who are doing real work every day and don't want to get into that much detail… want to finish their job and have a good look to it… then Final Cut's for you."

Plötzlich viel weniger ":-D" , oder? Aber, wie sagte einer noch… "netter Versuch". 👍🏼 Ist eben auch nichts anderes als ich oben geschrieben habe. Und gilt (zumindest vom Grundsatz her) genauso für PPro, Avid und und und…

Was hilft die Unterstützung in Resolve, wenn es kaum eine Möglichkeit gibt, das FormatFormat im Glossar erklärt zu erzeugen? Eine Handvoll Kameras und ein externer Rekorder.

Genau. Nach dieser so brillanten Logik, schaffen wir entsprechend auch gleich RED und Arri raw Unterstützung ab! Top!

Kommt drauf an, wie PRR gemacht wird.

9:27-9:32.... the inventor of JPEG is the inventor of ProRes.... is the inventor of ProResRaw...

Benutzt Apple also weiter JPEG, wird das mit ziemlicher Wahrscheinlichkeit JPEG-XS sein.

Aua. 🤦🏼???

Und da Honda mit Motorräder angefangen hat, ist demnach natürlich jeder Honda Automotor… in Wirklichkeit… ein Motorrad Motor!! Egal was die Fakten sagen.



Antwort von WoWu:

Jau, stimmt ... ein Honda Motor bleibt auch in einer Mercedes Karrosse ein Honda Motor.

Mietmäuler müssen übrigens zukünftig ihre Beiträge als "Werbung" kennzeichnen.
Mach Dir schon mal ein Banner.



Antwort von Jott:

Kommt nach Wavelet, Vektor und JPEG XS noch was? Spannung.



Antwort von R S K:

Nee. Nur der Klassiker: gehen einem die echten Argumente aus, dann kommen nur noch die peinlich, infantilen Angriffe, mangels sonst irgendeiner echten Substanz. Äusserst unspannend. Höchstens leicht vorhersehbar.

- RK



Antwort von Axel:

Demnach die Farbkorrektur-Fähigkeiten als ultimativen Maßstab nehmen zu wollen für wie "Pro" irgendein Schnittprogramm ist, finde ich reichlich solipsistisch und prätentiös.

Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich. Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel. Völlig verkannt. Spackig war das kollektive Aufatmen, ääändlich wieder Farbräder!
Ich weiß nicht, ob du's gesehen hast, anscheinend sollte es Rauschentfernung in 10.4.1 schaffen. Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen. Ich habe Sorge, dass FCP Bloatware wird wie APP, hundert halbherzig reingequetschte Features. Die Closed Captions (als Rollen, das kann ein Dritthersteller eben nicht so integrieren) sind Kerndesign.



Antwort von motiongroup:

Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich. Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel. Völlig verkannt. Spackig war das kollektive Aufatmen, ääändlich wieder Farbräder!
Ich weiß nicht, ob du's gesehen hast, anscheinend sollte es Rauschentfernung in 10.4.1 schaffen. Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen. Ich habe Sorge, dass FCP Bloatware wird wie APP, hundert halbherzig reingequetschte Features. Die Closed Captions (als Rollen, das kann ein Dritthersteller eben nicht so integrieren) sind Kerndesign.

Der war gut zumal sich von Anfang an die Spezialisten darüber beschwert hatten das Apple mit fcpx ein homogenes System entwickelt hat welches keine Erweiterungen zulässt.. das sich die Vollhorste geirrt hatten wissen heute eh alle, nur die Vollhorste verdrängen gerne und auch die Anbetungswürdigen hier im Forum waren da keinen Deut besser.. es war und ist zum fremdschämen. Wie sie es machen machen sie es falsch ich kann’s langsam nicht mehr hören muss aber gestehen das es sich auf den Entwicklerplattformen teilweise ähnlich abspielt.. egals ob zwischen MS, Google oder apple, selbst unter OS X zwischen den Obj.-C und Swiftentwicklern gibts diese wertfreien Diskussionen.. und ich muss gestehen der Hinweis das Handbuch zu lesen kommt ungefähr eine Million mal öfter vor als hier :)))

Wird die Frage kommen .. warum hat Apple noch nicht Motion, Compressor und Logic integriert..;).. vermutlich weil sonst die Updates immer über 15GB groß wären.. neeee oder doch... ich hätte sowieso Pages, Numbers und Fotos auch gleich integriert und und ne Videooffice Lösung inkl Mandanten, Faktura, Mahnwesen eingepfropft...

Und da sind wir wieder bei ProResProRes im Glossar erklärt RAW... es ist was es ist und wir können's nicht ändern und doch haben sie es wieder geschafft die Leute gegeneinander aufzuwiegeln und das verlustfrei... :)))



Antwort von Alf_300:

Jott

NAB 2019 kommt mit tollen neuen Features, das ist so sicher wue das Amen in der Kirche.



Antwort von R S K:

Was andere besser können (CFP, Chromatic) sollte man nicht als neues Feature aufnehmen, das ist peinlich.

😂 Was ist das schon wieder für eine völlig brillante Logik?

Wozu Pages, wo es doch Word gibt, oder?? Wozu Motion oder Fusion, wo Nuke es doch "besser kann", nein? Was sind denn Adobe für Idioten, wo sie Lumetric integrieren, obwohl es doch Resolve gibt?!

🤦🏼???

Aber du darfst jetzt gerne erzählen was die o.g. in der Farbkorrektur "besser können" als was FCP nun von Haus aus kann… ?

Lass mich raten… z.B. "Chromatic hat einen Tracker!", richtig? Schön. Nur können die sub-1% die das jemals brauchen werden a) auch so schon Masken bei Bedarf animieren und b) wenn das ihnen nicht reicht, jeder Zeit für LAU zu Resolve rüber oder auch SliceX kaufen, was ich für eine exponentiell sinnvollere Anschaffung halte, wo es tatsächlich eine funktionelle Erweiterung ist und nicht irgendwelche gleichen Funktionen, nur mit anderer GUI und sonst nichts an Mehrwert zu bieten hat. Aber wenn einem Funktionen auf Knopfdruck zu haben (die man allesamt auch so schon hat, nur halt mit ein paar Klicks mehr) wichtiger sind als 100+€… wer genau hält dich ab?

Also, was hinsichtlich der tatsächlichen Korrektur, was auch jeder braucht, können die "anderen besser"? Ach ja… nichts. Ganz im Gegenteil. CFP kann am Ende sogar weniger als die FCP eigenen Tools. Oh… ja… peinlich.

Und die Fähigkeit sein Projekt auf einem beliebigen anderen Rechner (oder gar Jahre oder Monate später nach evtl. Updates und/oder Neuistallationen) aufmachen zu können ohne ein Wald an Warnschild-Ausrufezeichen zu sehen… das interessiert natürlich auch niemanden. Was für ein Blödsinn, oder? Noch will irgendjemand das was er bis zur Übergabe zu Resolve bereits angelegte Korrekturen erhalten. Doppelt und dreifache Arbeit ist schließlich "Pro"! 😏

Cool, sehr cool, sehr souverän, fand ich das fünfeinhalbjährige Festhalten an der Farbtafel.

Da stimme ich dir sogar zu. Schau an. 😄 Ich für mein Teil habe die Farbtafel schnell verstanden und benutze es noch immer als aller erstes bei >70% meiner Korrekturen. Schnell, einfach, intuitiv. Und auch da: die Räder können nicht mehr oder weniger, sie machen es nur anders. Das einzige was mich (gelegentlich) gestört hat, war die mangelnde Präzision (besonders bei Farbmasken), aber das ist ja jetzt alles Geschichte.

Wenn es nicht besser ist als das, was es schon gibt, sollen sie es lassen.

Aber klar… es wird mit Sicherheit jeder super sauer, oder? So ein Denoiser FÜR LAU ist doch echt scheisse, ich weiß. Vor allem, wie wir ja alle wissen, sobald sie es einbauen, ist das kaufen und installieren von vermeintlich "besseren" Denoiser sofort gesperrt und bisherige werden gelöscht!! Schweinerei. Ach ja… und natürlich voll peinlich.

Was nur nochmals beweist, dass Apple zum Glück weiß, dass meine Bedürfnisse und Ansprüche die aller aller aller ALLER wichtigsten überhaupt sind. Was interessieren mich andere? Pff…

- RK



Antwort von Jott:

Nicht so aufregen. Es wird nie Konsens geben, was besser oder schlechter ist.

Axel nutzt und kennt fcp, der darf kritisieren. Es gibt immer etwas zu verbessern, egal in welcher Software. Einen Tracker direkt in fcp x fände ich schon hübsch, das würde die Sache gut abrunden.

Die anderen natürlich, die fcp erkennbar NICHT nutzen und kennen, aber jahrein, jahraus als schräges Hobby oder beruflich bedingt dagegen kämpfen und haltloses Zeug verbreiten, sind was anderes. Ich habe da auch immer wieder mal den Drang, als Korrektiv nach Wikipedia-Prinzip gegenzuhalten. Aber aufregen in Form von fetten und kursiven Lettern - nö. Der mündige und regelmäßige Mitleser sollte hoffentlich auch so sortieren können.



Antwort von R S K:

Einen Tracker direkt in fcp x fände ich schon hübsch, das würde die Sache gut abrunden.

Aber NUR wenn es BESSER ist als MOCHA!!!

Jetzt verstanden? Willst du es jetzt also immer noch? Bist du wirklich so anspruchslos? 😏

Meinst du, dass ich es nicht genauso begrüße wenn FCP jegliche neue Funktionalität bekommt? Das dann aber widerstandslos als "peinlich" titulieren zu "dürfen" nur weil man User ist und es seinen überlegenen Ansprüchen nicht entspricht, als ob man nicht noch immer jeden PluginPlugin im Glossar erklärt seiner Wahl nehmen kann, wenn es denn alles so schrecklich ist? 😄 Ernsthaft?

Nochmals: "Was andere besser können sollte man nicht als neues Feature aufnehmen, das ist peinlich." Dem stimmst du demnach also zu? Das ist für dich völlig legitime und sachliche Kritik, weil User? Okay. Na denn. Ich eben nicht.

Der mündige und regelmäßige Mitleser sollte hoffentlich auch so sortieren können.

Du weißt aber schon, dass du mit der Aussage knapp 18 Seiten zu spät dran bist und sie damit allesamt ins ad absurdum führst, oder?
:-)))

- RK



Antwort von Jott:

Das Beispiel Tracker hätte halt gut zu der jetzt - aus meiner bescheidenen Sicht - sehr guten FarbkorrekturFarbkorrektur im Glossar erklärt gepasst. Seit 10.4. nutzt bei uns kein Cutter mehr Resolve oder Color Finale.

Natürlich haben wir Slice X und all die anderen ergänzenden "teuren" Spielsachen, was auch nicht juckt, weil fcp x selbst ja quasi nichts kostet. Aber - am Elegantesten ist immer das, was wirklich intern an Bord ist. Insbesondere bei Kollaborations-Projekten. Also: ein schicker Tracker steht auf der Wunschliste für 10.5. - auch ohne deinen Segen! :-)

Was das Problem mit ProResProRes im Glossar erklärt Raw sein soll, das alle die haben, die nichts damit zu tun haben und auch niemals haben werden, erschließt sich wie immer nicht. Aber das läuft unter Unterhaltung.



Antwort von R S K:

Also: ein schicker Tracker steht auf der Wunschliste für 10.5. - auch ohne deinen Segen! :-)

Meinen Segen?? :-D

Ergo: du hast da offensichtlich was gänzlich missverstanden. Oh well.

- RK



Antwort von Axel:

Um noch mal die Kurve zu kriegen von So Scheiße ist FCP😡 zu Neues Apple ProResProRes im Glossar erklärt Raw Format:
Gesetzt den Fall PRR bleibt exklusiv FCP vorbehalten, dann wird Raw, traditionell mit dem Vorurteil behaftet, anspruchsvolles Grading vorauszusetzen, so einfach wie Farbverbesserungen in der Fotos-App (wozu eigentlich Photoshop?). Ich hätte nichts dagegen, denn ich bin selbst nicht besonders geschickt mit Farben. Ich bin außerdem mit meiner Abneigung der 10.4- Farbtools der totale Geisterfahrer, was womöglich auf einen Wahrnehmungsfehler hindeutet. Meinungen sollten respektiert werden, finde ich, allerdings haben sie einen Wert nur für ihren Inhaber. Und es kann sehr gut sein, dass ich in einem halben Jahr den Kopf schüttele über Leute, die meinen (Meinungen, nicht Fakten!), es hätte irgendwelche tatsächlichen Vorteile, Raw-Video mit irgendetwas anderem zum Glänzen zu bringen als der Farbtafel oder meinetwegen den Rädern. Das würde ich dann hier schreiben, und die üblichen Verdächtigen würden raderkastendoll (woran ich mich ehrlich gesagt ergötze).



Antwort von Funless:


... würden raderkastendoll ...

Ich musste erstmal googeln was das heißt. Nun bin ich schlauer. Wieder was dazugelernt.



Antwort von Axel:

Ein Wort entsteht nicht bei einer so blödsinnigen Etymologie (Rheindampfer-Radkasten? Da gibt's doch keinerlei Bezug).

Ich habe Verwandte am Niederrhein, nahe der holländischen Grenze. Dort gibt es schon lange eine große Psychiatrie, deren Namen weit über die Region hinaus gleichbedeutend mit "Irrenhaus" ist. Shutter Island. Dieser Zweig meiner Sippe war seit mehreren Generationen dort beschäftigt. Ich hörte sie über jemanden sagen, er/sie sei raderkastendoll geworden. Ich fragte meine Patentante, was gemeint sei (ich war zehn oder so). Sie sagte, ein Raderkasten sei ein Vorläufer der Gummizelle gewesen. Wenn jemand ausgeflippt sei, habe man ihn dort eingesperrt, bis er sich beruhigt habe. Ein Raser-Kasten.



Antwort von Funless:

Auch wenn deine Erklärung zur Herkunft des Worts (hierfür vielen Dank) für mich erheblich plausibler klingt, finde ich die Rheindampfer-Radkasten Schlussfolgerung dennoch witziger, weil sie mehr zu dem Klischee passt, welches ich mir bzgl. der Rheinländer angeeignet habe. Für mich sind sie die Hobbits von Deutschland (ist nicht abwertend gemeint).

Jetzt aber zurück zu ProResProRes im Glossar erklärt RAW.



Antwort von R S K:

ich bin selbst nicht besonders geschickt mit Farben.

Hat sich wieder gelohnt.



Antwort von nic:


ich bin selbst nicht besonders geschickt mit Farben.

Das geht hervorragend mit der "zu respektierenden Meinung" zusammen, welche also doch nicht nur auf reinen Mutmaßungen und völlig willkürlichen Annahmen, sondern wirklich kompetentes, sachlich fundiertes Fachwissen basiert! Demnach bist du natürlich der völlig legitime Oberrichter in allen Sachen "peinlich" was Farbe (und ProResProRes im Glossar erklärt raw sowieso) angeht! Und das ohne rot zu werden. Muss daran liegen, dass du User bist. Hab's jetzt endlich verstanden. 👍🏼

Hat sich wieder gelohnt.

Selbst wenn du regelmäßig Hollywodfilme graden würdest, stünde dir diese Arroganz nicht gut zu Gesicht...



Antwort von R S K:

Bewundernde Zustimmung ist hier also auch nicht erwünscht? Na dann…



Antwort von nic:


So krass wollte ich es ihm jetzt nicht sagen… aber, ja.

...



Antwort von R S K:

Zustimmung ist also nicht erwünscht. Alles klar.



Antwort von R S K:

...





Antwort von Axel:

Da ich ja schon zugegeben habe, dass ich gerne provoziere, solltest du diese Dinge nicht zu persönlich nehmen, Robin.



Antwort von motiongroup:

Brad Olsen
ProResProRes im Glossar erklärt RAW is a true RAW format. I spoke with Jeremy from Atomos at the SuperMeet. He said that all the ISO and WB metadata from the camera is saved in ProResProRes im Glossar erklärt RAW. He went on to say that while at the moment Apple's 1.0 implementation of ProResProRes im Glossar erklärt RAW doesn't let you change those controls the way we're used to like with REDCODE RAW the debayering happens at playback, rendering, and exporting. SO if you use the manual white balance tool or the exposure tools on with the color wheels or color board you are essentially doing the same thing as making those adjustments in camera before debayering. I believe that we will probably see specific controls in Final Cut in the future.

Wir lassen uns einfach mal überraschen ;)



Antwort von Axel:


Brad Olsen
ProResProRes im Glossar erklärt RAW is a true RAW format. I spoke with Jeremy from Atomos at the SuperMeet. He said that all the ISO and WB metadata from the camera is saved in ProResProRes im Glossar erklärt RAW. He went on to say that while at the moment Apple's 1.0 implementation of ProResProRes im Glossar erklärt RAW doesn't let you change those controls the way we're used to like with REDCODE RAW the debayering happens at playback, rendering, and exporting. SO if you use the manual white balance tool or the exposure tools on with the color wheels or color board you are essentially doing the same thing as making those adjustments in camera before debayering. I believe that we will probably see specific controls in Final Cut in the future.

Wir lassen uns einfach mal überraschen ;)

Okay. Ich möchte von vornherein klarstellen, dass das jetzt kein Haten sein soll, sondern Gedanken und Wünsche eines Fans. Kein Grund, auf irgendwas steil zu gehen:

Innerhalb der bisherigen Diskussion ist ja nicht schlüssig bewiesen, dass die Kamera-Metadaten dem Benutzer überhaupt angezeigt werden *müssen*, um mit vorhandenen Farb-Tools ein Raw-Video zu optimieren. Wir haben ja bereits gesehen, dass der blöde PRR-Testclip mit 4300K aufgenommen wurde (Mediainfo), dass aber das naheliegende / naheliegendste Tool in FCP - "Temperatur" unterhalb der Farbräder - immer nur stur "5000" anzeigt.

Außerdem habe ich (siehe dort) ein DNG-Bild aus einem CDNG-Ordner parallel in FCP und in Resolve geöffnet, und in beiden Programmen wurden die Metadaten korrekt gelesen. Nur Resolve zeigte sie auch an, und nur Resolve hat einen "Farbtemperatur"-Slider, der mit den Kamera-Kelvin startet (Camera Raw).

Man sollte nun erwarten (ich habe es zumindest erwartet), dass besagter Resolve-Slider "besser" ist als das "primitivste" Tool aus FCP, der "Global"-Puck der Farbtafel. Das ist aber offensichtlich nicht so. Da ist kein Unterschied zu sehen.

Farbe in FCP sind die Werkzeuge eines Cutters, der obendrauf noch FarbkorrekturFarbkorrektur im Glossar erklärt macht, es sind keine High-End-Coloristen-Werkzeuge. Soviel habe ich demütig verstanden. Dann wäre es nur konsequent, auf alles zu verzichten, was nicht eindeutig einen Vorteil bringt.



Antwort von motiongroup:

wieso denn Axel..wenn Du dich über die Jahre mit einem Programm angefreundet hast sollte das doch ein leichtes sein einen passenden Workflow zu generieren.. selbst das Preset für 4300k ist doch ein leichtes zu generieren.. das ist doch schon auch über Jahre der Weg wenn du bspw lediges Prores verwendest.. selbst die nachträgliche Isoschrauberei bei der Manche hier glauben Wurst welcher Fehler dabei auch geschehen ist im Nachhinein durch schrauben an der ISO im Programm wieder hinbiegen zu können ist doch eher als undurchführbar abzulegen.. ist das Material Schrott will ich Nachhinein Zeit und Ressourcen vergeigen es wieder hinzubiegen?.. wir hier eigentlich und Du auch haben doch besseres zu tun.. Ich weis nicht , ich bin der ewigen Radneuerfinderei eher unglücklich... ebenso wie mit den ewigen Genörgel derer die eh niemals damit arbeiten werden..

übrigens.. die neuesten NV Webdriver haben wieder mit fcpx Freundschaft geschlossen.. ArtefakteArtefakte im Glossar erklärt sind Schnee von Gestern..;:)

nochmals zurück fcpx, nein dort ist nicht alles in Ordnung... die Interlacesverabeitung ist bei manchen Cam der alten Garde ziemlich buggy... die GH3 bstw wird immer noch falsch interpretiert trotz P Aufzeichnung.. Wurst sich darüber aufzuregen Workflow anwenden done..
Die Shortcuts machen mir aktuell und auch anderen etwas das Leben schwer ... wir werden es richten und gut wird's sein..
in der Summe sind es Baustellen die alle Anbieter vorweisen können und auch die Arbeiten daran..



Antwort von Jott:

Am Rande:

"ProRes RAW is in its early stages and we are currently looking into it!"

Jan Heugel
Application Engineer, Arri




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Messevideo: Atomos Ninja V & ProRes RAW: Workflow, Handling, uvm. // NAB 2018
Atomos Ninja V - Kleiner 5-Zoll 4K-Recorder mit ProRes RAW // NAB 2018
DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018
Messevideo: Blackmagic Pocket Cinema Camera 4K: Ergonomie, Speedbooster, (ProRes) RAW uvm. // NAB 2018
Erste ProRes RAW-Recoder durch Update von Atomos Shogun und Sumo 19 // NAB 2018
Neues Easyrig Vario 5 angekündigt // NAB 2015
RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019
Neues zu ProREs RAW
Messe-Video: NAB-Kracher - Z-Cam E2-Z6 - Mini S35 Sensorkamera mit Compressed Raw, ProRes uvm. // NAB 2019
Erster Apple ProRes RAW Shoot: Panasonic EVA1, Shogun Inferno und Final Cut Pro X 10.4.1
Fast wie RAW: neues Sony 16-bit Format X-OCN
Neue Version von Apple Final Cut Pro X 10.4.1 // NAB 2018
Messevideo: Nikon Z6 und ProRes RAW mit dem Atomos Ninja V // NAB 2019
Atomos Shogun 7: 7" Dolby HDR Monitor/Recorder/Switcher mit 5.7K ProRes RAW // NAB 2019
Grass Valley EDIUS 9.40 - u.a. mit ProRes RAW und Audiosync bei Multicam // NAB 2019
Messevideo: Atomos Shogun 7 - High-End Display, Zielgruppe, Userfragen und ProRes RAW auf Ninja V // NAB 2019
Litepanels Gemini bekommt neues Zubehör und neue Effekte per Firmware // NAB 2018
Ultrakompakte 4K RAW Kamera mit Global Shutter -- indieGS4K // NAB 2018
Vocas: Neues, hochflexibles Schulter-/Kamera-Rig von 5D- bis FS5-Formfaktor uvm. // NAB 2018
RAW Wars - ProRes RAW gegen CinemaDNG
Neues Cine-Makro-Objektiv IRIX 150mm T 3.0 1:1 angekündigt
Apple: iMac Pro mit bis zu 18 Xeon Kernen und 11 TFlop Vega GPU angekündigt
Adobe Photoshop und Premiere Elements 2018 angekündigt
S-Log 3 & Apple ProRes
Apple ProRes 4444XQ für Windows 10
Osmo Raw -- Handgimbal jetzt mit X5R 4K-Raw Kamera kompatibel // NAB 2016

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen