Logo Logo
/// 

Wann ersetzt Nikon RED? Compressed RAW für alle ...!



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://www.slashcam.de/images/texte/15 ... -FRONT.jpg

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Glosse: Wann ersetzt Nikon RED? Compressed RAW für alle ...!




Antwort von Valentino:

Kann eigentlich mal Wolfgang oder jemand anders klarstellen, das Sonys X-CON eben kein RAW ist, sondern sehr wahrscheinlich ein Vektor-Codec?

Stärker komprimiertes RAW gab es bei Sony schon zuvor, X-Con ist aber wie gesagt etwas Anderes, sonst würde es Sony auch ganz klar beim Namen nennen.



Antwort von rob:

Hallo Valentino,

naja, Sony spricht von "eXtended Original Camera Negative" - näher an "RAW" kann man meiner Meinung kaum sein, ohne RAW "RAW" zu nennen.

Aber scheinbar tut Sony alles, um RED allein schon bei der Wortwahl nicht in die Quere zu kommen.

Die Praxis von XOCN wird zeigen, wie weit man hier tatsächlich auseinanderliegt ...

Viele Grüße

Rob





Antwort von Valentino:

Ich glaube das es Sony und den anderen Herstelleren recht egal ist, das Red meint das Sie RAW erfunden haben.

Wie gesagt, das mit dem Vektor-Codec ist ja gar nicht so unwahrscheinlich, den warum sollte man nur wegen einer höheren Komprimierung gleich das gesamte FormatFormat im Glossar erklärt neu erfinden, den RAWLight gab es schon zur Einführung der F65 und spätestens mit der F5/55 Serie wurde die glaube ich 7:1 Komprimierung eingeführt.



Antwort von rob:

Hi Valentino,

ich denke du liegst falsch was Sony und RED anbelangt.

Hier ein Zitat vom Sony-Expert Alistair Chapman zum Thema XOCN und RED:

"There are lot's of words and terms that I'm not allowed to use when I'm talking about Sony's raw let alone X-OCN. I think most of us know what it is as it's 16 bit linear, comes in different data rate versions and is "processed" by software that includes the ability to de-bayer."

https://community.sony.com/t5/F5-F55/X- ... m-p/627637

Und noch ein Paar "Hints" in Sachen XOCN:

- die Sony Kamera muss in der Einstellung "Raw" betrieben werden, um XOCN aufzuzeichnen
- debayert wird in der jeweiligen Software
- Weisabgleich und ISO können nachträglich gesetzt werden

Sorry aber für mich ist das - ich trau es mich jetzt mal zu sagen - und Achtung RED mal weghören:

(Compressed) RAW

:-)

Viele Grüße

Rob



Antwort von WoWu:

Das sind doch alles Spekulationen und warum sollten wir in solche Marketingspielereien der Wortwahl einsteigen.
Fest steht, dass es für RAW doch gar keine Definition gibt und weder hat RED irgend etwas wie RAW erfunden, noch irgend eine andere Firma, den genau genommen ist es der Wert, der bei jedem Speicher entsteht.
Hier geht es also lediglich um geschützte Markennahme.
Was die 16 BitBit im Glossar erklärt angeht, wird das, nach dem allgemeinen Verständnis von uns allen, zunächst einmal vom Sensor definiert, denn wenn man da nicht auf 16 BitBit im Glossar erklärt kommt, nutzt auch die Wortbreite dahinter nichts. Es sei denn, man führt sein Signal tatsächlich in die Vectorebene, in der man dann beliebige Wortbreiten erstellen kann, lediglich aber noch eine geringe Menge an Vectoren überträgt.
Also auch solche Wortspielereien von Chapman bringen uns nicht weiter.
Wer immer ein solches Signal auf den Tisch bekommt, sollte lieber einmal den Inhalt analysieren, um heraus zu finden, was das für ein Signal ist.
Nachdem aber Sony schon seit 4 Jahren (zunächst in dem Softwarezoom) solche vectorbasierten Algorithmen einsetzt, liegt es nahe, dass auch weiter auf das Pferd der künstlichen Bildrekonstruktion setzen und nicht den Rückwärtsgang plötzlich eingelegt haben.
Ansonsten sind die Unterschiede zwischen RED und SONY ohnehin für die jeweiligen Alleinstellungsmerkmale groß genug.
Da tut die Namensgebung sicher nicht mehr zu bei.
Wir sind nun mal, was die spatiale Auflösung angeht, an einige Barrieren gestoßen, an denen eigentlich SR der logische Ausgang ist.
Irgendeiner mussels damit anfangen (sony hat schon vor Jahren damit angefangen).
RED (und alle andern) kommen auch früher oder später dahin.



Antwort von iasi:

Auch Canon könnte sein Spitzenmodell unter den Knippsen mit 30fps RAW-Aufnahmen machen lassen. So sehr viel weniger als aktuell die C300II kostet sie auch nicht mehr. :)

Wahrscheinlich verspricht sich Canon wie die anderen Hersteller auch, keine besonders hohen Absatzzahlen aufgrund von Film-Raw.
Und Red bekommt mit seinen teuren Kameras wohl auch kaum Marktanteil im Knippser-Markt, was die Stückzahlen betrifft.

Aber vielleicht bringt ja nun Red eine Fotokamera, die reichlich Frameraten bietet und preislich für den Massenmarkt taugt.



Antwort von Darth Schneider:

Red ignoriert dummerweise den Consumermarkt, obwohl dort erfahrungsgemäss viel mehr Geld zu verdienen ist als im Profimarktsegment, leider war das so bis heute. Aber Vieleicht fällt ja irgendwem den Glückskreuzer runter oder denen geht mal das Licht der Erleuchtung auf. Schliesslich haben sie mit den Sonnenbrillen früher mal bei den Consumern angefangen....Apple hat das auch kapiert, beziehungsweise Steve Jobs hat, die zündenden Ideen noch gehabt. Darum geht es der Firma ja heute noch sehr gut.
Canon hat das Glück all die Profi und Consumerfotografen die an ihren Linsen hängen noch zu haben und die tolle Cinema Camera Serie, plus die zahlreichen günstigen Dslr Cameras, die waren und sind, bis heute noch ein Hit, das dürfte sich mit Sony und Panasonic auch bald ändern, die schlafen nicht und bieten ein wenig mehr für reine Video Filmer, für das Geld. Die sind aber nur eine Randgruppe, die meisten Amateure wollen doch filmen und fotografieren.
Mal sehen wie es in der Zuknunft weiter geht.



Antwort von nic:

RED hat sich doch an der Raven schon übernommen. Die war schon so sehr Consumer, dass sie mit der Produktion gar nicht nachkommen...
Ich glaube RED kann und will gar nicht in den Massenmarkt, da können sie gegen die Giganten wie Sony, Canon oder selbst Panasonic gar nicht ankommen. Auch Arri wird sich hüten einen Fuß in dieses Haifischbecken aus DAUs, Prosumern und Hobbyisten zu setzen.



Antwort von Darth Schneider:

Raven oder auch Scarlett. ??? Eine Kamera die drehfertig, das heisst bei Red, mit Sucher, Akku und etwas Speicher und ein paar Schrauben und ein Plättchen um es gerade so auf ein Staiv zu schrauben, ohne Optik für mehr als 10 000€ ? Was hat das mit Consumer zu tun ? Die sich gut verkaufenden Consumer Produkte bewegen sich im unteren vierstelligen Preisbereich, oder noch viel weiter unten, nicht im Zehntausender Bereich.
Arri, Nikon, und Canon müssen nicht auf den Consumermarkt los. Nikon und Canon sind schon drin, und Arri ist erfolgreich genug im Profisegment. Red auch noch, aber nur knapp, Black Magic Design hat es in keinem Bereich wirklich geschaft, zumindest was Kameras betrifft, aber das könnte sich ändern, falls Sie die richtigen Entscheidungen treffen sollten. Sie haben Resolve, Raw Video und den professionellen Postproduktions Markt im Griff, das hilft.



Antwort von nic:

Das war überspitzt formuliert. Stell dir vor es gäbe eine RED für 2K drehfertig. Dann müssten sie in China massenproduzieren lassen... dann wäre nach drei Tagen das Reduser-Forum down... der persönliche Support würde zusammenbrechen... usw... das ist einfach nicht vorstellbar.



Antwort von Darth Schneider:

Früher gab es keinen Apple Computer unter 4000€ mit dem man etwas gescheites anfangen konnte. Heute bekomme ich einen Apfel der was kann für 1000€. Final Cut Pro kostete früher noch 3000€ Von einem Tag auf den anderen dann noch 300€.
Alles ist möglich, in der freien Marktwirtschaft.
Eine Red für 2K warum denn nicht ? Dann bringen sie halt gleichzeitig eine revolutionäre neue professionelle Red mit 12k Auflösung für 40 0000€ Oder ein Update für alle Heliums, und anderen teuren Reds dafür günstig.
Ps: In China hocken die Weltbesten Astrologen, die kennen sich somit auch bestens aus mit Kameras, sehr grossen Spiegeln, hochwertigen Linsen und Bildbearbeitung. Ich denke die könnten locker die Red produzieren, ohne Probleme in perfekter Qualtät. Unterschätzt die Chinesen nicht. ( ich bin zwar keiner und war auch nie dort)
Gruss Boris



Antwort von Darth Schneider:

Ich denke Red bringt 3 oder 4 kleine (ein wenig grösser und dicker wie das iPhone) Module raus. Die wie ein Sandwich zusammen passen.
Ein Sensormodul mit Objektiv Mount wahrscheinlich 2K und wahlweise 4K, Ein Akku Modul, ein Telefonmodul mit Möglichkeit zur externen Steuerung durch ein Smartphone mit oder ohne Bildschirm und ein Speichermodul, oder Bildschirmmodul.
Sensormodul 2000€ Oder das doppelte für 4K
Telefonmodul 1000€
Akkumodul 500€
Bildschirmmodul oder Speichermodul 500€
Das könnte doch schon eine Möglichkeit sein ? Black Magic müsste sich warm anziehen. Red hat das Budgets und die Produktedesigner für solche Dinge. BMD aber ganz und gar nicht.
Perfekt für Gimbal, Drohnen, Remote Kameras, Stop MotionStop Motion im Glossar erklärt, hochwertige, ganz kleine Actioncam, und allgemein für aller Arten von Kamerabewegung mit kleinem Gewicht und Budget.
Nikon konzentriert sich doch fast nur auf Fotografen, den Filmermarkt haben die doch seit Jahrzehnten schon verschlafen und nur zufällig einige Treffer gelandet. Vieleicht landen sie mit RAW ( Version was auch immer,) einen weiteren Zufallstreffer.



Antwort von Funless:

Ich denke man sollte mal die Kirche im Dorf lassen.

Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?

Die BM Pocket kann RAW Video und bekommt man für etwas über 1K Euro hinterhergeschmissen. Wird wohl einen Grund haben weshalb das Teil nicht in jedem zweiten Consumer Haushalt zu finden ist.



Antwort von cantsin:

@slashcam: Eure Hypothese, dass Hersteller wie Nikon und Fuji demnächst Raw-Videoaufzeichnung bringen könnten, lässt einen Faktor ausser acht: die Abhängigkeit von Sensorherstellern und damit verbundene technische Auflagen.

Sowohl Nikon, als auch Fujifilm (und auch Pentax) bauen Sony-Sensoren in ihre Kameras. Diese Sensoren gibt es nicht auf dem freien Markt. Ihre Verwendung geschieht daher auf Basis von vertraglichen Vereinbarungen mit Sony. Diese Verträge sind nicht öffentlich, aber es gibt schon seit längerem Vermutungen, dass sie Einschränkungsklauseln für Kamerafeatures beinhalten. Aktuell dürften die vor allem 4K-Aufzeichnung betreffen.

Es würde mich schon wundern, wenn Sony seine Sensoren an Kamerahersteller verkaufen würde, die dann mit preiswerten DSLRs oder Spiegellosen das FS5/7-Videokamerasegment angreifen könnten...

Wahrscheinlicher scheint, dass in den nächsten Kameragenerationen Raw-Serienfotografie mit Bildraten von 24fps und mehr kommt, allerdings dann ohne Tonaufzeichnung und ohne stabiles Timing, so dass da keine wirkliche Konkurrenz zu Videokameras entstehen wird.



Antwort von WoWu:

Aber der Sensor dürfte losgelöst vom Verfahren zu sehen sein.
Interessant wäre nur mal zu sehen, ob der Sensor überhaupt 16 BitBit im Glossar erklärt macht.
Wenn nicht, wäre das der erste Hinweis auf ein nachgelagerten Verfahren.
Auch Chapman deutes soetwas ja an...

"What I can say is that it is linear data processed using a unique, highly efficient algorithm, that makes the files smaller than they would otherwise be."



Antwort von iasi:


Ich denke man sollte mal die Kirche im Dorf lassen.

Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?

Die BM Pocket kann RAW Video und bekommt man für etwas über 1K Euro hinterhergeschmissen. Wird wohl einen Grund haben weshalb das Teil nicht in jedem zweiten Consumer Haushalt zu finden ist.

Wenn Papa aus einer Bildreihen von 60fps ds eine Foto rauspicken kann, auf dem Klein-Piefke besonders schön lacht, dann ist Papa sehr glücklich und öffnet den Geldbeutel.

Die BM Pocket ist leider nicht Fisch, nicht Fleisch.



Antwort von Funless:

Das kann Papa bereits aus den Bildreihen machen die aktuelle Fotokameras jetzt schon bieten. Dafür braucht er kein RAW-Video mit 24 oder mehr fps.

Ich werde ja seltsamerweise nie müde zu betonen, dass normale Consumer völlig andere Prioritäten haben als ein Professioneller Benutzer. Das wird hier in solchen Diskussionen gerne immer wieder vergessen.



Antwort von prime:

Wenn Papa aus einer Bildreihen von 60fps ds eine Foto rauspicken kann, auf dem Klein-Piefke besonders schön lacht, dann ist Papa sehr glücklich und öffnet den Geldbeutel.
Das hat RED auch so verkaufen wollen, aber so wirklich gezündet hat die Idee nicht.. warum auch? Bei den Video-typischen Verschlusszeiten sind Einzelbilder von bewegenden Motiven meistens unbrauchbar.



Antwort von Daniel P Rudin:


Wenn Papa aus einer Bildreihen von 60fps ds eine Foto rauspicken kann, auf dem Klein-Piefke besonders schön lacht, dann ist Papa sehr glücklich und öffnet den Geldbeutel.
Das hat RED auch so verkaufen wollen, aber so wirklich gezündet hat die Idee nicht.. warum auch? Bei den Video-typischen Verschlusszeiten sind Einzelbilder von bewegenden Motiven meistens unbrauchbar.
Es wird dich verwundern, aber auch bei RED kann man den Shutterspeed unabhängig der FramerateFramerate im Glossar erklärt einstellen..

Das von @iasi geschilderte Bespiel funktioniert perfekt, habe ich selbst schon mehr als genug eingesetzt, auch wenn ich keine Piefkes habe ;-)

Nebenbei ein netter Nutzen von HDRX: Hauptspur mit 180° ShutterShutter im Glossar erklärt und Motionblur, X-Spur mit kürzerer Belichtungszeit => scharfe Pics für die Webseite :-)
Nicht immer nutzbar aber wenn man weiss was man tut, finde ich das ab und an ganz nützlich..



Antwort von iasi:



Das hat RED auch so verkaufen wollen, aber so wirklich gezündet hat die Idee nicht.. warum auch? Bei den Video-typischen Verschlusszeiten sind Einzelbilder von bewegenden Motiven meistens unbrauchbar.
Es wird dich verwundern, aber auch bei RED kann man den Shutterspeed unabhängig der FramerateFramerate im Glossar erklärt einstellen..

Das von @iasi geschilderte Bespiel funktioniert perfekt, habe ich selbst schon mehr als genug eingesetzt, auch wenn ich keine Piefkes habe ;-)

Nebenbei ein netter Nutzen von HDRX: Hauptspur mit 180° ShutterShutter im Glossar erklärt und Motionblur, X-Spur mit kürzerer Belichtungszeit => scharfe Pics für die Webseite :-)
Nicht immer nutzbar aber wenn man weiss was man tut, finde ich das ab und an ganz nützlich..

Noch ist eine Red als Fotokamera eben doch recht dick und schwer. Ansonsten ist"s eine tolle Sache.



Antwort von TonBild:

"Was liegt also näher, als dass Hersteller, die keine Rücksicht auf ein eigenes Cine-Kamera-Lineup nehmen müssen – hier mal einfach "Nikon" genannt (oder Fuji ...?) eine DSLM/ DSLR mit komprimierter RAW-Aufzeichnung herausbringen. Sind wir mal bescheiden und sagen max. 24 Bilder pro Sekunde?

Würde dies in einem DSLR-Body geschehen, wäre mit einem Schlag der DSLR-hype wie er mit der Canon 5D MKII (und eigentlich Nikon D90) mal da war, wieder hier und Hersteller wie RED müssten sich gehörig umschauen. Oder vielleicht doch nicht?"
https://www.slashcam.de/artikel/Glosse/ ... -----.html

Ich weiß nicht, was solche Beiträge bringen. Gerüchte oder vielmehr Wünsche nach neuen Produkten werden zwar ausfühlich auf Seiten wie https://nikonrumors.com/, http://www.canonrumors.com/, http://www.fujirumors.com/, https://www.sonyrumors.co/usw. diskutiert, aber außer etwas Unterhaltung zu haben sind solche Gedanken für Konsumenten bzw. Anwender wenig nützlich.

Denn letztendlich kann man nur mit den Produkten arbeiten, die auch wirklich da sind und nicht mit solchen, von denen man sich in der Phantasie vorstellt, dass sie mal kommen könnten. Natürlich wird es immer wieder neue Produkte von unterschiedlichen Herstellern geben. Aber wenn man immer auf die Kameras der übernächsten Generation wachtet würde man nie zum Filmen oder zumindest zu einer Kaufentscheidung kommen (Rent könnte eine Lösung sein. Denn wenn plötzlich ein neues Gerät mit wesentlich besseren Eigenschaften verfügbar wird, kann man eben das ohne Verluste für das nächste Projekt ausleihen. Dann braucht man sich auch keine Gedanken mehr zur Investition in eine möglicherweise bald veraltete Technik machen.)

Für Produktentwickler und Manager bei den Unternehmen, die wissen wollen, was der Markt in ein paar Jahren verlangt, sind solche Gedanken aber sinnvoll.



Antwort von rob:

Hallo TonBild,

naja - auch wir müssen uns im Testalltag mal gedanklich austoben, um frisch in der Birne zu bleiben ...

Eine Glosse, der Unterhaltungswert zugebilligt wird, nehmen wir mal als Kompliment - denn genau das soll sie :-)

Jetzt aber weiter mit Ernsthaftem - der zweite Teil vom Sigma - Metabones Speedbooster Praxistest soll schließlich diese Woche noch raus ...

Viele Grüße

Rob



Antwort von kabauterman:

@Schreiber

schonmal darüber nachgedacht das es nicht einzig um die Schreibgeschwindigkeit der SD-Karten geht, die hier vollkommen deplatziert als einziges ausschlag gebendes Merkmal her gezogen wird.

Was ist mit CPU Power, RAM größe und Speed, internen Bus-Systemen all das muss im Vergleich zu einer Foto-Kamera unmengen mehr an Daten verarbeiten und transportieren.

Welche Kamera macht heute an die 24 RAW Einzelbilder pro Sekunde ohne das der Buffer irgendwann voll ist?

Man stelle sich eine A7RII (wegen 8K Sensor als Vergleich zu RED) vor die 24 oder mehr RAW Einzelbilder pro Sekunde direkt auf die SD Karte speichert... davon sind wir noch weit entfernt.
Das schafft die A9 nichtmal und die hat "NUR" mit 6K Bildern zu arbeiten, vom Buffern mal ganz zu schweigen.

Klar ist sowas möglich aber dann eben in Form einer fetten teuren und schweren RED und nicht in einer kleinen leichten A7RII.

Da sitzt CPU Power, RAM und ein BUS-System mit SSDs drin was keinen Flaschenhals hat, das alles muss auch entsprechend gekühlt und mit Strom versorgt werden.

Mit 4K mag das vllt bald gehen aber dann hat man eben einen 12 MP Sensor und dann ist die Kamera für viele Fotografen nichtmehr ganz so interessant. Oder man Downsampled 6K was wieder mehr CPU Power und RAM braucht.

Das ist nicht einfach so fix und schnell gemacht...

Ich wäre über 4K mit einem guten CodecCodec im Glossar erklärt und überall 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt schon vollkommen zufrieden, alle die mehr wirklich brauchen kaufen eh andere Kameras.



Antwort von WoWu:

Das kann sich aber alles nicht auf RAW beziehen, denn gerade RAW hat den Vorteil, aus einem einfachen Datensatz von nur einem Wert proPixel zu bestehen.
Insofern werden bei RAW die geringsten Anforderungen an kamerainterne Prozesse und der damit verbundenen Hardware gestellt.
Insofern kann sich jeder Hersteller mit RAW einen "schlanken Fuß" machen.



Antwort von mash_gh4:


Das kann sich aber alles nicht auf RAW beziehen, denn gerade RAW hat den Vorteil, aus einem einfachen Datensatz von nur einem Wert proPixel zu bestehen.

ja -- das ist in der tat eine der nicht ganz offensichtlichen besonderheiten von RAW material, dass es eben nicht die drei grundfarben für jedes pixel, sondern nur einen einzigen helligkeitswert für den betreffenden sensel zu übertragen gilt. das wirkt sich derart positiv auf das datenvollumen aus, das man tatsächlich eine weitaus höhere bitiefe in der gleichen bandbreite -- etwa bei der aufzeichnung über externe SDISDI im Glossar erklärt rekorder unterzubringen vermag als bei normalen (debayertem) RGBRGB im Glossar erklärt material von "gleicher" nomineller auflösung. (siehe: https://www.apertus.org/axiom-beta-uhd- ... e-may-2016).

wobei man mit trickreicher anordnung der daten auch noch zusätzlich große systembedingte eigenschaften (bayerpattern anordnung) sehr vorteilhaft in entsprechende verlustfrei kompressionslösungen zu übertragen vermag. wenn man das sauber handhabt, sind die datenmengen duchaus zu handeln und wenigstens im vergleich zu gängigen antiquierten intermediate codecs (prores etc.) auch nicht weiter schlimm.



Antwort von WoWu:

Wobei solche Pattern Veränderungen natürlich schon einer KompressionKompression im Glossar erklärt gleichkommen denn die spatiale Auflösung wird de-facto bereits reduziert, sofern nicht mehr die original Werte hinter jeder Farbmaske als Luminanzwert ausgegeben werde.



Antwort von mash_gh4:


Wobei solche Pattern Veränderungen natürlich schon einer KompressionKompression im Glossar erklärt gleichkommen denn die spatiale Auflösung wird de-facto bereits reduziert, sofern nicht mehr die original Werte hinter jeder Farbmaske als Luminanzwert ausgegeben werde.

kompresssion schon, aber ohne informationsverlust!
es geht hier nur darum, dass jene bereiche, in denen benachbarte informationen, die sich statistisch gesehen großteils stark ähneln, sinnvoll zusammengefasst werden und in dafür optimal geeigneter weise platzsparend umschrieben werden können, statt etwa sensel völlig unabhängig von der betreffenden farbe, in ihrer ursprünglichen anordnung stehen zu lassen bzw. ohne rücksicht auf ihre diese systembedingten vorgaben viel platzraubender zu übertragen. so wird das jedenfalls bspw. in DNG gehandhabt. (siehe: http://thndl.com/how-dng-compresses-raw ... peg92.html)



Antwort von Frank Glencairn:


I

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?

Daß man raw angeblich (stundenlang) graden muß, wird auch durch gebetsmühlenartiges wiederholen nicht wahr.
Das Material in Resolve schmeißen, Resolve auf BM-Film Input und 709 Output stellen und fertig ist die Laube.



Antwort von WoWu:

@mash
Das geht aber auf die Annahme zurück, dass das Objektiv, bzw. ein OLED den limitierenden Faktor darstellt.
Man verlässt also -so oder so- ein (4/8)K Pattern und damit die eigentliche spatiale Auflösung.
Solche Lösungen sind nur sinnvoll, wenn das Objektiv die Auflösung ohnehin nicht schafft, weil dann nur noch reale Auflösungswerte übertragen werden und keine sinnlose Wertemenge.
Aber hinten kommt eben nicht mehr das raus, was als vermeintliche Bildauflösung angegeben ist.
Axiom hat sich da auf die Realität eingestellt. Sinnvoll, aber wirkt nur auf ohnehin komprimierte Bilder (Objektiv) oder komprimiert selbst, wenn die Optische Leistung ansonsten ausreichen würde.



Antwort von iasi:


@mash
Das geht aber auf die Annahme zurück, dass das Objektiv, bzw. ein OLED den limitierenden Faktor darstellt.
Man verlässt also -so oder so- ein (4/8)K Pattern und damit die eigentliche spatiale Auflösung.
Solche Lösungen sind nur sinnvoll, wenn das Objektiv die Auflösung ohnehin nicht schafft, weil dann nur noch reale Auflösungswerte übertragen werden und keine sinnlose Wertemenge.
Aber hinten kommt eben nicht mehr das raus, was als vermeintliche Bildauflösung angegeben ist.
Axiom hat sich da auf die Realität eingestellt. Sinnvoll, aber wirkt nur auf ohnehin komprimierte Bilder (Objektiv) oder komprimiert selbst, wenn die Optische Leistung ansonsten ausreichen würde.

Das hab ich jetzt nicht ganz verstanden.



Antwort von WoWu:

Wenn Du davon ausgehst, dass ein 4K Sensor auch 4K Bildauflösung bringen soll, dann brauchst Du von jedem PixelPixel im Glossar erklärt einen individuellen Luminanzwert und vom Objektiv ein individuelles Bilddetails, pro Pixel.
Das Ergebnis wären dann 4K.
Ich denke soweit ist das Consens.
Fasst man nun an irgend einer Stelle solche Individualwerte zusammen, egal ob das Objektiv pro Bilddetails bereits 4Pixel überstreicht, oder ob man aus 4 individuellen Werten am Sensor nur drei (oder weniger) Werte macht, wird die resultierende Bildauflösung begrenzt.
Wir haben es also mit einer Datenkompression zu tun.
Wenn nun das Objektiv bereits begrenzt, besteht seitens des Sensors keine Notwendigkeit, alle 4K Werte zu übertragen, weil sie im Begrenzungsbereich gleiche -oder sehr ähnliche-Werte enthalten.
Man komprimiert also (quasi) verlustfrei, weil es ohnehin keine individuellen Werte zu übertragen gibt. Das Objektiv hat das schon komprimiert.
Löst das Objektov allerdings 4K auf und wendet man trotzdem ein solches Verfahren an, dann ist es nicht mehr verlustfrei, weil ohne das Verfahren, die Bildauflösung besser gewesen wäre.



Antwort von mash_gh4:


@mash
Das geht aber auf die Annahme zurück, dass das Objektiv, bzw. ein OLED den limitierenden Faktor darstellt.

nein -- es hat einfach nur damit zu tun, dass in der natur sehr häuffig größere flächen anzutreffen sind, die relativ homogene farben besitzen bzw. benachbarte bildpunkte am sensor oft gleiche od. wenigstens nur geringfügig abweichende werte aufweisen.

natürlich wird diese tatsache noch verstärkt, wenn die optik davor das ganze noch weiter unscharf zeichnet, aber das ist trotzdem eher ein völlig untergeordneter faktor, den man nicht so viel bedeutung beimessen sollte, obwohl es natürlich z.b. als OLPF vor dem bayersensor durchaus seine berechtigung haben kann, damit die angesprochene grundannahme auch noch in jenen fällen besser funktioniert, wo in wahrheit kanten, strukturierung und starke veränderungen vorliegen...

trotzdem: ich würde eher das größere naturgegebene ganze im auge behalten, statt sich in peripheren techn. spitzfindigkeiten zu verlieren. die welt, wie sie sich uns zeigt, fällt ja zum glück nicht einfach nur in pixel auseinander, sondern erschließt sich uns menschen ja von klein auf viel eher in wahrnehmbaren gestalten, die eben sehr oft auf ausschnitte im blickfeld von großer ähnlichkeit zurückzuführen sind.



Antwort von Peppermintpost:



Daß man raw angeblich (stundenlang) graden muß, wird auch durch gebetsmühlenartiges wiederholen nicht wahr.
Das Material in Resolve schmeißen, Resolve auf BM-Film Input und 709 Output stellen und fertig ist die Laube.

genau so wie du es beschreibst ist es richtig, passenden lut (der zur aufnahmeeinstellung passt) draus werfen und gut ist. nur du bist profi, schau dich mal im amateur lager um wie viele das so machen. da werden dann eher irgend welche grusel luts von obscuren webseiten geladen und auf material geworfen was nicht im ansatz dem entspricht wofür der lut gemacht ist, wenn sich der lut creator überhaubt irgendwelche gedanken gemacht hat. oder alternativ wird garkein lut benutzt und das raw footage direkt gegradet.

natürlich ist das ein user error, aber genau dieser error ist genau so alt wie farbverbiegung selbst. nur eine hand voll menschen haben geschakkelt wie das funktioniert, du bist offensichtlich einer davon, die norm bist du dadurch aber nicht.



Antwort von WoWu:



@mash
Das geht aber auf die Annahme zurück, dass das Objektiv, bzw. ein OLED den limitierenden Faktor darstellt.

nein -- es hat einfach nur damit zu tun, dass in der natur sehr häuffig größere flächen anzutreffen sind, die relativ homogene farben besitzen bzw. benachbarte bildpunkte am sensor oft gleiche od. wenigstens nur geringfügig abweichende werte aufweisen.

natürlich wird diese tatsache noch verstärkt, wenn die optik davor das ganze noch weiter unscharf zeichnet, aber das ist trotzdem eher ein völlig untergeordneter faktor, den man nicht so viel bedeutung beimessen sollte, obwohl es natürlich z.b. als OLPF vor dem bayersensor durchaus seine berechtigung haben kann, damit die angesprochene grundannahme auch noch in jenen fällen besser funktioniert, wo in wahrheit kanten, strukturierung und starke veränderungen vorliegen...

trotzdem: ich würde eher das größere naturgegebene ganze im auge behalten, statt sich in peripheren techn. spitzfindigkeiten zu verlieren. die welt, wie sie sich uns zeigt, fällt ja zum glück nicht einfach nur in pixel auseinander, sondern erschließt sich uns menschen ja von klein auf viel eher in wahrnehmbaren gestalten, die eben sehr oft auf ausschnitte im blickfeld von großer ähnlichkeit zurückzuführen sind.

Na ja, aber darin liegt genau das Problem, dass man nicht so genau hinschaut und sich dann hinter dem "naturgegebenen Ganzen" verschanzt, um untaugliche Verfahren zu rechtfertigen.
Mal ganz davon abgesehen, dass das beschriebene Verfahren überhaupt keine Bildanalyse vorsieht, die ganze gleichbleibende Flächen erkennt und deren Wert dann als einen Wert überträgt.
axiom arbeitet über der ganzen Sensormaske gleichförmig und nimmt damit eine Datenreduktion vor (sofern das Objektiv es auflöst).
und das sollte man sich mit "naturgegeben" auch nicht schönreden.
Sonst wären "naturgegeben" dann nämlich wieder 2K.



Antwort von Funless:



Daß man raw angeblich (stundenlang) graden muß, wird auch durch gebetsmühlenartiges wiederholen nicht wahr.
Das Material in Resolve schmeißen, Resolve auf BM-Film Input und 709 Output stellen und fertig ist die Laube.

genau so wie du es beschreibst ist es richtig, passenden lut (der zur aufnahmeeinstellung passt) draus werfen und gut ist. nur du bist profi, schau dich mal im amateur lager um wie viele das so machen. da werden dann eher irgend welche grusel luts von obscuren webseiten geladen und auf material geworfen was nicht im ansatz dem entspricht wofür der lut gemacht ist, wenn sich der lut creator überhaubt irgendwelche gedanken gemacht hat. oder alternativ wird garkein lut benutzt und das raw footage direkt gegradet.

natürlich ist das ein user error, aber genau dieser error ist genau so alt wie farbverbiegung selbst. nur eine hand voll menschen haben geschakkelt wie das funktioniert, du bist offensichtlich einer davon, die norm bist du dadurch aber nicht.

Und genau das ist es was ich damit sagen wollte.

Otto-Normal-Verbraucher will aufnehmen, direkt an die Glotze anschließen und sich das fertige Ergebnis angucken.

Die Anzahl der Consumer, die sich an zusätzlichen "Gestaltungsmöglichkeiten" austoben wollen ist gemessen an der Anzahl der Consumer, die (simpel ausgedrückt) einfach nur "knipsen" wollen verschwindend gering. Doch genau die letztgenannte Gruppe bestimmt den Markt, denn die sind es die den größten Umsatz bringen. Auch wenn so manch einer hier das nicht so gerne realisieren möchte, ändert es nichts an der Tatsache.



Antwort von Frank Glencairn:



Otto-Normal-Verbraucher will aufnehmen, direkt an die Glotze anschließen und sich das fertige Ergebnis angucken.

So so - will er.

Dann geh zieh dir doch mal ein beliebiges Otto-Normal-Filmer Forum rein.



Antwort von Peppermintpost:

ich glaube ihr beiden habt da eine unterschiedliche definition von "Otto Normal".
slashcam ist das grösste deutschsprachige forum. die nasen die hier posten sind gerade mal eine hand voll. wir kennen ja alle unsere user namen und wissen was wir von anderen zu erwarten haben und haben teilweise auch ein bissel background über diverse user. also wir sind definitiv nicht Otto Normal. natürlich lesen ein paar hundert die seiten und posten nicht. aber sind die schon Otto Normal? ein teil davon sicherlich.

aber vergleiche mal die anzahl der user hier, schreibende oder lesende mit der anzahl der verkauften video devices, und zwar von grabbel tisch niveau bis consumer niveau, das sind tausende vermutlich hunderttausende in deutschland, österreich und schweitz.

und genau die würde ich mal als Otto Normal definieren und die wollten tatsächlich nur die kinder oder enkel aufnehmen und sich dann am tv ansehen. drei schnitte in einen 45min spielplatz film zu machen ist für viele schon "high end"

also ich finde die Otto Normal definiton von fun schon berechtigt. die in den foren rumgeistern, die rürde ich schon in die semi-pro liga packen und die wollen tatsächlich jedes technische gimmik, ob sie es verstehen und bedienen können oder nicht.



Antwort von WoWu:

Ich glaube, dass da nur eine Verwechslung vorliegt.
Es gibt Produkte für Consumer, ambitionierte Consumer und den oberen Film Markt.
Das Missverständnis liegt darin, dass jeder jeweils meint, für die gehobene Gruppe mit seinem Equipment arbeiten zu können.
Der Handyfilmer meint schon im Pro-Bereich zu arbeiten und der Fotoknipsen Besitzer meint er könne damit schon den kommerziellen Filmbereich aufmischen und Firmen wie ARRI, RED -um nur die beiden zu nennen- seien völlig obsolet und deren Kameras könnten auch nicht mehr, als die Fotoapparate.

Das spiegelt sich hier auch im Forum wieder.
Jeder, der sich ernsthaft mit dem Thema -auch im Detail- auseinander setzt wird entweder als Pixelzähler bezeichnet oder mit den üblichen Argumenten erschlagen .."nur der Inhalt zählt" ... oder ... " geh' lieber raus und dreh einen Film".
Dabei finden viele von denen gerade mal den roten Knopf der Kamera und wenn man sich die Menge der miesen Filme bei Youtube mal anschaut, dann spricht das für sich (auch die, die da vermeintliche "Kunst" eingestellt haben).
Kunst ist es immer dann, wenn man es nicht besser hinbekommen hat.



Antwort von Funless:

@Frank:

Es gibt ja kein Otto-Normal-Filmer Forum weil Otto-Normal-Verbraucher sich gar nicht so weit mit seinem Device beschäftigt, dass er einen Grund hätte in'nem Forum aktiv zu sein. Denn in dem Augenblick in dem ein einfacher Consumer (nicht abwertend gemeint) anfängt in einem Forum wie bspw. diesem hier auch nur mitzulesen, beginnt die Intention sich näher mit der Sache zu beschäftigen.

So wie Pepperminpost es beschreibt, genau so sehe ich das auch.

Also welchen wirtschaftlichen Nutzen sollte ein Hersteller wie bspw. Nikon haben plötzlich RAW Video mit mindestens 24 fps in seiner DSLR, die mit diesem Feature übrigens mindestens 2,5 - 3K Euro kosten würde, zu implementieren wenn die dominierende Mehrheit der Nikon/Canon/Panasonic/Sony/Olympus/etc. Käufer nicht mal RAW Fotos in einen Converter wie LR und was es sonst noch gibt schmeißen um die in JPEG zu wandeln, sondern gleich in mit schicken Bildprofil ausgestattet fertigem JPEG aufnehmen?

@WoWu:

Die Produkte für Consumer sind es, die den Herstellern in der Sparte der Unterhaltungselektronik den größten Umsatz bringen. Nicht die Produkte der ambitionierten Consumer oder des oberen Film Marktes.



Antwort von Darth Schneider:

Wolfgang hat recht, findet ihr nicht ?



Antwort von iasi:


Wolfgang hat recht, findet ihr nicht ?

ne - die Gerätschaften bestimmen doch nicht, auf welchem Niveau jemand arbeitet.



Antwort von iasi:


Ich glaube, dass da nur eine Verwechslung vorliegt.
Es gibt Produkte für Consumer, ambitionierte Consumer und den oberen Film Markt.
Das Missverständnis liegt darin, dass jeder jeweils meint, für die gehobene Gruppe mit seinem Equipment arbeiten zu können.
Der Handyfilmer meint schon im Pro-Bereich zu arbeiten und der Fotoknipsen Besitzer meint er könne damit schon den kommerziellen Filmbereich aufmischen und Firmen wie ARRI, RED -um nur die beiden zu nennen- seien völlig obsolet und deren Kameras könnten auch nicht mehr, als die Fotoapparate.

Das spiegelt sich hier auch im Forum wieder.
Jeder, der sich ernsthaft mit dem Thema -auch im Detail- auseinander setzt wird entweder als Pixelzähler bezeichnet oder mit den üblichen Argumenten erschlagen .."nur der Inhalt zählt" ... oder ... " geh' lieber raus und dreh einen Film".
Dabei finden viele von denen gerade mal den roten Knopf der Kamera und wenn man sich die Menge der miesen Filme bei Youtube mal anschaut, dann spricht das für sich (auch die, die da vermeintliche "Kunst" eingestellt haben).
Kunst ist es immer dann, wenn man es nicht besser hinbekommen hat.

Das Missverständnis liegt darin, dass Niveau mit Gerätschaften gleich gesetzt wird.

Kameras stellen Gestaltungsmöglichkeiten zur Verfügung - damit mehr oder weniger gut umgehen zu können, bestimmt das Niveau.

Die Geräte nähern sich dieszgl. immer weiter aneinander an.
stark komprimiertes 8bit 422 beschränkt im Vergleich zu RAW natürlich gewaltig. Wenn aber auch Consumer-Geräte RAW bieten, verringert sich der Unterschied zu prof-Geräten doch erheblich.
Red will ja nun sogar ein Telefon anbieten, das zusammen mit einem Kameramodul in Richtung der Helium geht.

Die Menge der miesen Filme bei Youtube wurde eben auch oft mit teuren prof-Kameras gedreht.
Wenn ich die Glotze anschalte, überrascht mich die "Qualität" eben auch recht häufig - obwohl da Leute am Werk waren, die dafür bezahlt werden und vom Filmen leben - und die benutzen Geräte aus dem Pro-Bereich.



Antwort von Peppermintpost:

tja iasi, genau wegen solcher kommentare wie deinem hat wolfgang recht. ja natürlich ist das gestalterische niveau der leute unterschiedlich, natürlich ist die story wichtiger als die technik mit der es aufgenommen wird. NIEMAND!!!! bestreitet das. es sind halt nur Äppel und Birnen die man da vergleicht. wowu spricht in 99,9% seiner beiträge über technische grundlagen und dann kommen immer ein paar hirnies die das nicht begreifen, dann technischen unfug labern, von wowu zerflückt werden und am ende wenns nicht mehr weiter geht steht dann der spruch "das drehbuch ist wichtiger als die kamera". ganz toll. totschlagargument das nirgendwo hin führt. das ist nur rumgetrolle, sonst nichts.

das du im fernsehn schon irgend einen scheiss von profis gesehen hast, was belegt das? nichts. vergleiche das tv niveau mit youtube und das tv ist weit besser. gibt es deswegen scheiss beiträge in fernsehen? selbstverständlich. gibt es super beiträge bei youtube? selbstverständlich. was belegt das alles? nichts. heisse luft.



Antwort von Jackjones1337:

Danke für den Artikel. Ich mag nützliche Informationen. Auch ich habe eine gute "Raw-Bank" für Sie Leute http://fixthephoto.com/raw-images-for-retouching Es kann jemandem helfen :) VG!



Antwort von Frank Glencairn:


Ich denke man sollte mal die Kirche im Dorf lassen.

Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?


Blödsinn, niemand muss raw graden. Schon gar nicht stundenlang.
Einfach ne 709 LUT drauf und gut - dauert genau 1 Sekunde.



Antwort von Funless:



Ich denke man sollte mal die Kirche im Dorf lassen.

Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?


Blödsinn, niemand muss raw graden. Schon gar nicht stundenlang.
Einfach ne 709 LUT drauf und gut - dauert genau 1 Sekunde.

Und wo ist dann der Mehrwert von RAW-Video für Otto-Normal-Verbraucher, der gerade Klein-Piefkes Kindergeburtstag aufgenommen hat, ggü. H264/265? Kann er doch gleich in-camera ein hübsches picture profile ganz nach seinem Gusto auswählen und drauf los filmen. Dauert sogar weniger als eine Sekunde. Und kriegt on top auf seine Speicherkarte sogar mehr Footage rauf.

Ich raffe echt nicht wieso hier andauernd Consumer Anforderungen mit professionellen Anforderungen vermischt werden.



Antwort von dienstag_01:



Blödsinn, niemand muss raw graden. Schon gar nicht stundenlang.
Einfach ne 709 LUT drauf und gut - dauert genau 1 Sekunde.

Und wo ist dann der Mehrwert von RAW-Video für Otto-Normal-Verbraucher, der gerade Klein-Piefkes Kindergeburtstag aufgenommen hat, ggü. H264/265? Kann er doch gleich in-camera ein hübsches picture profile ganz nach seinem Gusto auswählen und drauf los filmen. Dauert sogar weniger als eine Sekunde. Und kriegt on top auf seine Speicherkarte sogar mehr Footage rauf.

Ich raffe echt nicht wieso hier andauernd Consumer Anforderungen mit professionellen Anforderungen vermischt werden.

Damit IHR LAIEN endlich mal wisst, wo der HAMMER HÄNGT.
Ausserdem seit ihr dann mal von der Straße weg und WIR haben endlich Platz zum FILMEN.
CAPITO!?
Geld kommt auch noch rein.



Antwort von WoWu:

Bei der LUT auf RAW trifft das auch nur auf solche pseudo RAWs zu, die in wirklichkeit Videoformate mit flacher Übertragungskurve sind und sich nur RAW nennen.
Funless hat schon Recht, wenn man bei echtem RAW in der Post erst noch das De-Bayering durchlaufen muss ist das eine ganze Ecke Mehraufwand



Antwort von -paleface-:


Bei der LUT auf RAW trifft das auch nur auf solche pseudo RAWs zu, die in wirklichkeit Videoformate mit flacher Übertragungskurve sind und sich nur RAW nennen.
Funless hat schon Recht, wenn man bei echtem RAW in der Post erst noch das De-Bayering durchlaufen muss ist das eine ganze Ecke Mehraufwand

Bei welcher Kamera heutzutage finde ich denn noch das "echte Raw"?



Antwort von WoWu:

Überwiegend bei der kommerziellen Kameras, ARRI oder SONY .
Meistens haben die auch eigene RAW Recoder im Angebot, die in der Lage sind, entsprechende Bandbreiten aufzunehmen.

Das sich keine echten RAWs weniger ich semi- oder Amateirkameras finden liegt in erster Linie daran, dass auch das Know-How für die Berarbeitung fehlt (und in vielen NLEs auch die Tools) bzw. Plu-Ins, die man sich erst beschaffen muss.
Aber wenn man RAW als (weitestgehend) unbearbeitetes Luminanzsignal, aus jedem einzelnen PixelPixel im Glossar erklärt versteht, fallen eben alle bereits de-Bayerten Signale durch das Raster.
Aber der Begriff RAW ist nicht geschützt und jeder Kamerahersteller kann ihn für jedes beliebige Signal verwenden, solange er die Benutzer überreden kann, es zu glauben.



Antwort von mash_gh4:


Bei der LUT auf RAW trifft das auch nur auf solche pseudo RAWs zu, die in wirklichkeit Videoformate mit flacher Übertragungskurve sind und sich nur RAW nennen.

und welche kamera bzw. welches aufzeichnungsformat würdest du da als beispiel anführen, um diesen verdacht zu erhärten?



Antwort von Paralkar:

Gopro, diese flachere Gammakurve, hab ich schon oft genhört, "die ist auf Raw" eingestellt,

Viele verstehen halt nicht wie Sensoren funktionieren und dementsprechend nicht was Raw überhaupt bedeuten würde,

Aber meistens ist eigentlich n Rec 709 im Default eingestellt für Raw Material, also muss ich recht geben, Raw is kein höherer Gradingaufwand, Das Debayering is schon n anderer Aufwand als n Videosignal...



Antwort von WoWu:

Es ist und bleibt eine Definitionssache.
Sobald ich für jedes PixelPixel im Glossar erklärt 3 Werte bekomme,(also ein Video darstellbares Signal - egal, wie flach es aussieht-) sind in eine Kamera mit BayerFilter 2 Werte davon errechnet .... und das hat nichts mehr mit RAW zutun, egal wie der Hersteller das auch nennt.



Antwort von Frank Glencairn:


Bei der LUT auf RAW trifft das auch nur auf solche pseudo RAWs zu, die in wirklichkeit Videoformate mit flacher Übertragungskurve sind und sich nur RAW nennen.
Funless hat schon Recht, wenn man bei echtem RAW in der Post erst noch das De-Bayering durchlaufen muss ist das eine ganze Ecke Mehraufwand



Das De-Bayering geht in Echtzeit und on-the-fly, das merkst du nicht mal, ob du da eben H264 oder raw auf die timeline geschmissen hast.



Antwort von WoWu:

von welchem RAW sprichst Du ?
Denn das, was z.B. aus der BM rauskommt, sind bereits 3 Signale pro PixelPixel im Glossar erklärt, also so ein pseudo RAW.
Denn wenn die TimelineTimeline im Glossar erklärt das schon als Video erkennt, ist das doch alles schon gegessen.
Wenn nicht, welches De-Bayering nimmst Du im NLE vor (welches Verfahren ?)
Wir arbeiten mit 6 unterschiedlichen De-Bayer verfahren und der Aufwand, allein zur Ermittlung des günstigsten Aliasingverfahrens ist nicht unerheblich.



Antwort von Frank Glencairn:


von welchem RAW sprichst Du ?
Denn das, was z.B. aus der BM rauskommt, sind bereits 3 Signale pro PixelPixel im Glossar erklärt, also so ein pseudo RAW.

Nö, da is nix mit 3 Signalen, wie kommst du den da drauf?
Sieht man doch schon an der Dateigröße des einzelnen DNG, daß da keine 3 Farben drin sein können.

Denn wenn die TimelineTimeline im Glossar erklärt das schon als Video erkennt, ist das doch alles schon gegessen.

Wieder nö.
Resolve erkennt das Material, wenn ich es importiere, und nutzt automatisch die entsprechende De-Bayer Engine.

Wenn nicht, welches De-Bayering nimmst Du im NLE vor (welches Verfahren ?)

Die Engine vom jeweiligen Kamerahersteller
Wenn ich BM, Arri oder Red raw hab, dann halt die entsprechenden De-Bayer Engines in der Auswahl



Antwort von -paleface-:


von welchem RAW sprichst Du ?
Denn das, was z.B. aus der BM rauskommt, sind bereits 3 Signale pro PixelPixel im Glossar erklärt, also so ein pseudo RAW.
Denn wenn die TimelineTimeline im Glossar erklärt das schon als Video erkennt, ist das doch alles schon gegessen.
Wenn nicht, welches De-Bayering nimmst Du im NLE vor (welches Verfahren ?)
Wir arbeiten mit 6 unterschiedlichen De-Bayer verfahren und der Aufwand, allein zur Ermittlung des günstigsten Aliasingverfahrens ist nicht unerheblich.

Hab mir gerade mal das RAW von der Arri XT und der Alexa65 runtergeladen.
Das bearbeite ich in Resolve genauso wie das von BM. Reinwerfen und los gehts.
Gut...die Buttons für LIFT und GAIN sind anders.

Wobei ich auf der Arri Seite gelesen habe das es von Arri selber ja auch noch mal ein Tool zum Entwicklen gibt.



Antwort von WoWu:



von welchem RAW sprichst Du ?
Denn das, was z.B. aus der BM rauskommt, sind bereits 3 Signale pro PixelPixel im Glossar erklärt, also so ein pseudo RAW.

Nö, da is nix mit 3 Signalen, wie kommst du den da drauf?
Sieht man doch schon an der Dateigröße des einzelnen DNG, daß da keine 3 Farben drin sein können.

Denn wenn die TimelineTimeline im Glossar erklärt das schon als Video erkennt, ist das doch alles schon gegessen.

Wieder nö.
Resolve erkennt das Material, wenn ich es importiere, und nutzt automatisch die entsprechende De-Bayer Engine.

Wenn nicht, welches De-Bayering nimmst Du im NLE vor (welches Verfahren ?)

Die Engine vom jeweiligen Kamerahersteller
Wenn ich BM, Arri oder Red raw hab, dann halt die entsprechenden De-Bayer Engines in der Auswahl

Du hast immDNg bereits ein Interpretiertes Signal.
Ansonsten müsstest Du alle Metadaten mit übergeben, was BM nicht macht.
Da steht nur RAW drauf, ist aber kein RAW drin. Die Dateigröße gegenüber anderen RAWs ist kleiner, weil keine 14 oder 16 BitBit im Glossar erklärt herauskommen, was bei echtem RAW oft der Fall ist.
Ansonsten zeig doch mal den Screenshot, an dem die Parameter für das De-Bayering zu setzen sind. Wäre ja mal interessant zu sehen, auf welche Parameter da eingewirkt werden kann.
Spätestens die Auswahl der Metadaten gibt ja schon Aufschluss.

Aber es geht auch gar nicht um BM sondern schlicht darum, dass Funeless Aussage zu (echtem) RAW stimmt.



Antwort von -paleface-:



Ansonsten zeig doch mal den Screenshot, an dem die Parameter für das De-Bayering zu setzen sind. Wäre ja mal interessant zu sehen, auf welche Parameter da eingewirkt werden kann.

Würde gerne mal ein "echtes RAW" in die Finger bekommen.



Antwort von -paleface-:

Nebenbei....wie kann ich "Finetune" green, blue und red aktivieren?



Antwort von Frank Glencairn:


Du hast immDNg bereits ein Interpretiertes Signal.
Ansonsten müsstest Du alle Metadaten mit übergeben, was BM nicht macht.

Doch, genau das macht BM

Da steht nur RAW drauf, ist aber kein RAW drin. Die Dateigröße gegenüber anderen RAWs ist kleiner, weil keine 14 oder 16 BitBit im Glossar erklärt herauskommen, was bei echtem RAW oft der Fall ist.

Das DNG is 14bit, was in der TimelineTimeline im Glossar erklärt zu 16bit wird

Was man in den raw settings einstellen kann, ist von Hersteller zu Hersteller unterschiedlich, hier mal das von BM und RED

zum Bild http://www.4kshooters.net/wp-content/up ... low_05.jpg

zum Bild https://i1.creativecow.net/u/244299/cam ... ttings.png



Antwort von Paralkar:

Sorry Ihr habt einfach nicht recht & wisst es auch noch (solltet)

Egal ob Arri Raw, Blackmagic Raw oder Red Raw, im Vergleich zu nem ProResProRes im Glossar erklärt ist da sehr viel mehr Rechenpower notwendig & das liegt am Debayering

Wenn ich jetzt nehmen wir an 30h Arri Raw oder ProResProRes im Glossar erklärt Material transkodieren müsste für ein Offline Edit, einmal Default Rec709 & einmal LUT-to-Rec709 dann dauert Raw 35-40% länger.

Klar kann man jetzt Online Editing betreiben mit sehr viel Rechenpower und schneller Speicheranbindung oder vielleicht is das Material so weniger & überschaubar und es ist egal, aber es ändert nix daran das es länger dauert im Verhältnis.

Das wäre einfach mehr Renderkapazität ausgelagert für eine solche Aufgabe.



Antwort von WoWu:

@Frank
Das hab ich schon so vermutet ... das sind alles Videopararameter, die Du da stellen kannst.
Nix mit RAW als einzelner Luminanzwert.
Und guck Dir mal die DNg Dpezifikationen an, denen liegt nämlich TIFF zugrunde und das ist nur bis 12Bit spezifiziert.



Antwort von Frank Glencairn:



Wenn ich jetzt nehmen wir an 30h Arri Raw oder ProResProRes im Glossar erklärt Material transkodieren müsste für ein Offline Edit, einmal Default Rec709 & einmal LUT-to-Rec709 dann dauert Raw 35-40% länger.

In 2017 mach ich bestimmt keinen Offline Edit mehr (hab ich seit 2005 nicht mehr gemacht).

Und ja, ich weiß. Es gibt Leute die sitzen immer noch an einem Avid, oder müssen auf Laptops im Starbucks schneiden.
Jedem das seine - sowas ist aber nix für mich. Offline, Roundtripping, Proxies etc. die Zeiten sind für mich längst vorbei.
Einzige Ausnahme ist VFX, wo ich noch exportieren muss.



Antwort von WoWu:

"....—you can record full resolution 4K and 4.6K 12-bit RAW files. ....."

BM Webseite.



Antwort von Frank Glencairn:


@Frank
Das hab ich schon so vermutet ... das sind alles Videopararameter, die Du da stellen kannst.
Nix mit RAW als einzelner Luminanzwert.
Und guck Dir mal die DNg Dpezifikationen an, denen liegt nämlich TIFF zugrunde und das ist nur bis 12Bit spezifiziert.

Das sieht nur so aus, weil du mit dem Workflow in Resolve nicht vertraut bist.
All die Parameter im raw Tab, fließen in das De-Bayering ein, das sind keine Farbkorrekturen auf dem De-bayrerten RGBRGB im Glossar erklärt, dafür gibts andere Funktionen wie Colorwheels, Kurven etc.

"....—you can record full resolution 4K and 4.6K 12-bit RAW files. ....."

BM Webseite.

Dann waren es halt 12bit, die in der TimelineTimeline im Glossar erklärt zu 14 werden.



Antwort von Paralkar:

Ja aber das ist doch Schwachsinn, alle wirklich alle vernünftigen und größeren Filmprojekte werden offline geschnitten, egal ob Premiere, Final Cut oder letzteres Avid.

Du bist da grad echt n bisschen wie iasi, is schön das es für dich so läuft & macht auch ungefragt in vielen Situationen, wenn das Projekt & Umfang klein genug ist mehr Sinn, aber ist keinesfalls gängig.

Kein Kinofilm wird online geschnitten, egal ob Sound Sync und Proxie Grading oder einfaches TranscodingTranscoding im Glossar erklärt mit LUT, zum Editor geht das nicht Flat und nicht in Raw oder ProResProRes im Glossar erklärt 4444

Das is jetzt an der Realität vorbei argumentieren, vergleichbar mit "mein X6 BMW verbraucht weniger als n Primus, da ich am Tag nur 20 km fahre", es stimmt einfach nicht.



Antwort von WoWu:



@Frank
Das hab ich schon so vermutet ... das sind alles Videopararameter, die Du da stellen kannst.
Nix mit RAW als einzelner Luminanzwert.
Und guck Dir mal die DNg Dpezifikationen an, denen liegt nämlich TIFF zugrunde und das ist nur bis 12Bit spezifiziert.

Das sieht nur so aus, weil du mit dem Workflow in Resolve nicht vertraut bist.
All die Parameter im raw Tab, fließen in das De-Bayering ein, das sind keine Farbkorrekturen auf dem De-bayrerten RGBRGB im Glossar erklärt, dafür gibts andere Funktionen wie Colorwheels, Kurven etc.

"....—you can record full resolution 4K and 4.6K 12-bit RAW files. ....."

BM Webseite.

Dann waren es halt 12bit, die in der TimelineTimeline im Glossar erklärt zu 14 werden.

Das hat mit workflow individueller Systeme gar nichts zu tun, sondern damit, dass BM im DNG 3 Farbsignale enthält und es nur RAW nennt.

Frage ist, ob Du eigentlich genau weißt, was ein RAW Signal beinhaltet oder nur auf die Beschriftung guckst, wenn schon Unsicherheiten bestehen, ob Du mit 12 oder 14 BitBit im Glossar erklärt arbeitest, erscheint mir das sehr viel wahrscheinlicher.

Aber seì s drum, nach meiner Auffassung und Erfahrung hat Funless mit seiner Aussage Recht.



Antwort von Frank Glencairn:

Je größer ein Posthouse ist, desto später adaptiert es neue Technik (oder desto weiter hinkt es dem Stand der Technik hinterher, wenn du so willst). Das war schon immer so. Ich hab schon auf Nonlinear am Rechner produziert, als die Läden, die normal die großen Jobs bekommen, noch 3 Maschinen-Digibeta Plätze als top of the Line angeboten haben. Das Posthouse, das den letzten Kinofilm, den ich gedreht hab, gegradet hat, mußte die Daten noch per USB2 einlesen, weil sie kein USB3 hatten - alter Hut, und vor allem kein Maßstab für irgendwas.

Auch ansonsten sind solche Pauschalbehauptungen schwierig, das alles ändert sich gerade sehr schnell.

Fincher's Mindhunter wurde soweit ich weiß, z.B. komplett online gemacht.

.



Antwort von Frank Glencairn:



Das hat mit workflow individueller Systeme gar nichts zu tun, sondern damit, dass BM im DNG 3 Farbsignale enthält und es nur RAW nennt.

Und wie kommst du da drauf?



Antwort von Paralkar:

Ja aber 99% werden weiterhin Offline geschnitten, ob deutscher Fernseh, Kinofilm und bei den Amis auch.

Du hast jetzt ein Gegenbeispiel gefunden und ja es ist auch erheblich einfach als Freelancer schneller auf Innovationen einzugehen (besonders Softwaretechnischer Natur) als n großes Postproduction Haus, weil Anforderungen & Anbindung einfach kleiner sind oder überhaupt nicht da sind. Allein schon die BandbreiteBandbreite im Glossar erklärt mit Raw zu blockieren bei 20 Schnittplätzen ist kompletter Unsinn, da is es weitaus günstiger alles zu transkodieren und gleichzeitig reduziert sich die benötigte Rechenleistung bei jedem Schnittplatz, weil mit DNXHD 36 kann jeder alte Rechner arbeiten...



Antwort von WoWu:



Das hat mit workflow individueller Systeme gar nichts zu tun, sondern damit, dass BM im DNG 3 Farbsignale enthält und es nur RAW nennt.

Und wie kommst du da drauf?

Weil wir mit der Phantom immer in DNG gearbeitet haben und der DNG Container lediglich zulässt, (echte) RAW Files zu transportieren, in einem separaten BIN vorsieht. Dann hast Du das interpretierte DNG FormatFormat im Glossar erklärt + zusätzlich das native RAW FormatFormat im Glossar erklärt im DNG Container.
Das wird vor dem NLE wieder separiert und in mehreren Schritten entwickelt, bevor danach 3 Farbsignale dem NLE zugeführt werden.
Das interne DNG Signal kann in unterschiedlichen Qualitäten erzeugt werden ... von 8-12 BitBit im Glossar erklärt, ist aber dann ein JPEG Video. Weil die beiden Formate sich im Datenvolumen addieren, und das RAW FormatFormat im Glossar erklärt bereits groß war, haben wir das DNG Formal als Proxi in 8Bit mitlaufen lassen.
Man hätte es auch in 12Bit machen können, nur dann wären die Datenmengen unhandlich geworden und es bestand kein Grund, weil das (echte) RAW das überflüssig gemacht hat.
Dein RAW, was Du benutzt ist ein 12Bit JPEG Video und hat mit einem echten RAW, von dem Funless gesprochen hat, wenig zu tun.



Antwort von Frank Glencairn:

Dann weißt anscheinend mehr als die Entwickler und Programmierer bei Black Magic,
und das trifft dann auf Arri Raw und Red genauso zu.



Antwort von WoWu:

Jedenfalls wahrscheinlich mehr, als deren Marketingabteilungen, auf deren Sprüche Du abhebst.



Antwort von nic:

Natürlich ist DNG und damit CDNG ein Rohdatenformat. Und natürlich sind Metadaten eingebettet...



Antwort von Frank Glencairn:



Dein RAW, was Du benutzt ist ein 12Bit JPEG Video und hat mit einem echten RAW, von dem Funless gesprochen hat, wenig zu tun.

Bei allem Respekt Wolfgang, aber das ist so falsch auf so vielen Leveln, dazu fällt mir wirklich nix mehr ein.



Antwort von WoWu:

Dann weist Du ja offenbar, wie genau das RAW FormatFormat im Glossar erklärt aussieht, wenn Du so genau weißt, wie es nicht aussieht.
Dann lass uns doch nicht dumm sterben, teil es uns doch mit.

Das Einzige, was Du bisher hier zum Besten gegeben hast ist, dass es RAW ist.
Da man aber jedes FormatFormat im Glossar erklärt RAW nennen kann, sagt das also gar nicht.

Also, sag was es für ein FormatFormat im Glossar erklärt es ist, in welchem Container es kommt und wie die (vermeintlich vorhandenen) Metadaten gehandhabt werden.
Wenn sich dann herausstellt, dass Du nur einen Wert pro PixelPixel im Glossar erklärt hast, also ungebayered und dass es keine Codierung, sondern ein Datenformat hast, dann sehen wir weiter.

Solange gilt das, was Adobe in seinem CDNG definiert und was zumindest plausibler ist als Deine Beteuerung, nur weil irgendwo steht, dass es RAW ist.
Werd mal konkret.
Du sagst, Du kannst "alle Level" widerlegen .... dann mal los.

Nur mal so als Hilfestellung ...
Cinema DNG Encoding format ...

"Per the DNG format specification, the full resolution image has NewSubfileType = 0. The raw image can be stored in strips or tiles. The image can be of any size, with a bit depth in the range 8 to 32 bits. The data can be uncompressed or compressed using lossless Huffman JPEG. The PhotometricInterpretation values can be 32803 = CFA (Color Filter Array) for one sample per pixel, or 34892 = LinearRaw for Red, Green and Blue samples per pixel."

Und nun sag mal an, wie Dein FormatFormat im Glossar erklärt nun aussieht.



Antwort von Frank Glencairn:



Also, sag was es für ein FormatFormat im Glossar erklärt es ist, in welchem Container es kommt und wie die (vermeintlich vorhandenen) Metadaten gehandhabt werden.

Es geht schon mal damit los, daß CinemaDNG Einzelbilder sind, die kommen in keinem Container.



Antwort von nic:


Dann weist Du ja offenbar, wie genau das RAW FormatFormat im Glossar erklärt aussieht, wenn Du so genau weißt, wie es nicht aussieht.
Dann lass uns doch nicht dumm sterben, teil es uns doch mit.

Das Einzige, was Du bisher hier zum Besten gegeben hast ist, dass es RAW ist.
Da man aber jedes FormatFormat im Glossar erklärt RAW nennen kann, sagt das also gar nicht.

Also, sag was es für ein FormatFormat im Glossar erklärt es ist, in welchem Container es kommt und wie die (vermeintlich vorhandenen) Metadaten gehandhabt werden.
Wenn sich dann herausstellt, dass Du nur einen Wert pro PixelPixel im Glossar erklärt hast, also ungebayered und dass es keine Codierung, sondern ein Datenformat hast, dann sehen wir weiter.

Solange gilt das, was Adobe in seinem CDNG definiert und was zumindest plausibler ist als Deine Beteuerung, nur weil irgendwo steht, dass es RAW ist.
Werd mal konkret.
Du sagst, Du kannst "alle Level" widerlegen .... dann mal los.

Nur mal so als Hilfestellung ...
Cinema DNG Encoding format ...

"Per the DNG format specification, the full resolution image has NewSubfileType = 0. The raw image can be stored in strips or tiles. The image can be of any size, with a bit depth in the range 8 to 32 bits. The data can be uncompressed or compressed using lossless Huffman JPEG. The PhotometricInterpretation values can be 32803 = CFA (Color Filter Array) for one sample per pixel, or 34892 = LinearRaw for Red, Green and Blue samples per pixel."

Du hast also Rot, Grün und Blau pro PixelPixel im Glossar erklärt in einem JPEG.
War das vielleicht einer der "Level" wo ich schon mal falsch gelegen habe ?

Da schreibst du es doch schon selbst. DNG kann die Rohdaten speichern (auch lossy komprimiert) oder (etwa für foveon-Sensoren) ein lineares RGB-Psedoraw. Das CFA steht für color filter array und beschreibt ein klassisches (nicht debayertes) RAW. Dass DNG zusätzlich "linear DNG" spezifiziert, tut dem keinen Abbruch. Dass etwa die URSA mini echtes RAW aufzeichnet, kannst du gerne abstreiten, aber sie tut es trotzdem. Auf die Metadaten gehe ich nicht ein, die wirst du selbst finden, wenn du in dem Dokument weitersuchst...



Antwort von Darth Schneider:

Echtes RAW, Rohdaten, oder nicht, das verwirrt mich aber schon sehr ?
Ich bin so etwas von Anfänger auf diesem Gebiet. Aber wenn ich das richtig verstehe, sind das doch alles nur digitale Daten die von einem Objektiv, als Licht und Farben zu einem Sensor kommen und digitalisiert und in ein digitales FormatFormat im Glossar erklärt umgewandelt werden. Oder sehe ich das schon falsch ? Echtes RAW,egal ob bei Fotografie oder beim Film gibt es doch eigentlich heute gar nicht, alles ist doch digitalisiert.
Echtes RAW wäre somit wie ein Negativ beim Film. Das gibt es doch aber eigentlich in der digitalen Welt doch gar nicht. Alle Daten sind doch eigentlich nur Nummern. Somit ist sind doch die verschiedenen RAW Formate beziehungsweise ihre Eigenschaften und der Look eigentlich Geschmackssache und deren Eigenschaften absolut veränderbar, mit programmieren. Anders als bei einem Film Negativ, dessen Eigenschaften nur mit der Wahl von verschiedenem Filmaterial und mit Chemie und Physik zu ändern war.
Es gibt doch gar keinen physikalischen Unterschied zwischen einem Jepg und einem RAW Foto, ausser das das RAW Bild mehr Veränderungen zulässt und mehr Speicherplatz braucht. Es sind doch alles nur programmierte Nummern.
Oder sehe ich das falsch ?
Sorry für meine Naivität, aber das Thema interssiert mich schon auch sehr.
Gruss Boris



Antwort von Frank Glencairn:

Okay, kleiner Crashkurs.

Ein Sensor sieht eigentlich keine Farben per se, sondern nur Helligkeitswerte.
Damit irgendwie Farben draus werden, ist vor jedem "Sensor Pixel" ein kleiner Farbfilter.
Rot, Grün, oder Blau. Ohne jetzt zu sehr ins Detail gehen zu wollen, die Hälfte der PixelPixel im Glossar erklärt hat einen Grün Filter, ein viertel Rot und das letzte Viertel Blau.

Trotzdem sieht der dahinterliegende Sensor nur Helligkeitswerte. Das raw bild ist also schwarz/weiß.
Deshalb wird zusammen mit den Helligkeitswerten, die Position der jeweiligen Farbfilter gespeichert (Metadaten)
Also z.B. PixelPixel im Glossar erklärt 1 in der ersten Reihe hat einen Grünen Filter, PixelPixel im Glossar erklärt 2 in der ersten Reihe einen Blauen usw.

Beim De-Bayering, werden die Farben in deinem Bild aus den Helligkeitswerten, und den Metadaten (Filterposition) sozusagen "erfunden".

Consumer Kameras machen das in der Kamera, raw Kameras speichern die Daten einfach nur, und du machst das im Schnittprogramm, wo du mehr Kontrolle drüber hast.

Also in einem abstrakten Konzept entspricht raw quasi dem alten Negativ, weil es "entwickelt" (De-Bayert)
werden muss. Deshalb heißt DNG ja auch "Digital Negative" - auch wenn es genau genommen eher ein schwarz /weiß positiv ist.



Antwort von WoWu:

@Darth Schneider

Vielleicht noch als Ergänzung.
Hinter jeder Filterfarbe werden die beiden fehlenden Farben, also hinte4 einem roten Filter werden die Farben Blau und Grün aus den (bis zu 21 umliegenden Pixels, ja nach de-bayeringmethode) errechnet.
Es sind also keine Werte, die der Sensor geliefert hat, sondern geschätzte Werte und damit keine RAW Werte, denn die hätte der Sensor geliefert.
Der hat aber nur den Helligkeitswert für (in dem Fall) Rot geliefert.
Der Unterschied zwischen echtem RAW und einem kompletten Videosignal (RGB) besteht also darin, dass ein echtes RAW nur 1/3 der Wertemengen hat, deswegen kann man bei RAW auch leichter 10/12/14 BitBit im Glossar erklärt machen, weil die Wertemengen nur 1/3 einer Videoübertragung ausmacht.
Weil aber R,G und B auf den verschiedenen Sensorendurchaus ander Einfärbungen haben kann, was der Hersteller macht, um u.A. die Quanteneffizient auszugleichen und weil die Farbwerte sich überlappen können, muss ein RAW signal dies dem nachlaufenden De-bayern mitteilen. Geschieht das nicht, wird die Farbe nicht, wie vom Hersteller vorgesehen sondern wird von software, wie z. B. DNG interpretiert, nach Vorgaben, die ADOBE macht.
Weil abersolcje sensorspezifischen Feinheiten nicht so gern von Herstellern preis gegeben werden, machen viele Hersteller das de-bayering noch in der Kamera und nennen das so entstandene RGBRGB im Glossar erklärt Signal trotzdem RAW, was es streng genommen gar nicht mehr ist.
Auch verarbeiten nicht alle NLEs Metadaten, sofern sie denn angegeben sind.
Das alles macht RAW Formate sehr proprietären und unhandlich für den Anwender.
Es sei denn, er bekommt schon, wie im Fall DNG, das eigentliche Vodeosignal, nur eben in einer sehr flachen Ausführung und der Hersteller schreibt nur noch Raw drauf, denn der eigentliche Begriff ist nirgend definiert und jeder kann sein Signal so nennen.

Aber wir werden ja gleich erfahren, wie das hier besprochene Signal aussieht.



Antwort von Frank Glencairn:



Es sei denn, er bekommt schon, wie im Fall DNG, das eigentliche Vodeosignal, nur eben in einer sehr flachen Ausführung und der Hersteller schreibt nur noch Raw drauf

Das wird auch nicht wahrer, wenn du es noch 100 mal behauptest.

Wie wärs, wenn du dir BM Material aus dem Netz ziehst, und mal rein schaust, bevor du dich dermaßen aus dem Fenster lehnst.



Antwort von nic:

Nur weil eine JPEG-Komprimierung eingesetzt wird, heißt das nicht, dass ein RGB-Signal vorliegt. Noch dazu ist das 3:1 und 4:1 lossy CDNG nicht von Adobe spezifiziert, sondern proprietär durch BMD selbst. Und wird auch nur von Resolve unterstützt. Wenn du dir die Datenraten von URSA CDNG anschaust, kommst du nur auf einen 12bit-Wert pro Pixel...



Antwort von WoWu:



Es sei denn, er bekommt schon, wie im Fall DNG, das eigentliche Vodeosignal, nur eben in einer sehr flachen Ausführung und der Hersteller schreibt nur noch Raw drauf

Das wird auch nicht wahrer, wenn du es noch 100 mal behauptest.

Wie wärs, wenn du dir BM Material aus dem Netz ziehst, und mal rein schaust, bevor du dich dermaßen aus dem Fenster lehnst.

Frank,
ich erkenne aus der Äußerung, dass Du gar nicht weißt, wie das Signal aufgebaut ist, sonst würdest Du es uns ja sicher mitteilen.
Sprich also nicht vom "aus dem Fenster lehnen", wenn Du selbst schon lange rausgefallen bist.
Wir haben uns vor 6 Jahren sehr intensiv mit CDNG, gemeinsam mit Vision research beschäftigen müssen und seitdem hat ADOBE, gerade weil es ihnen darauf ankam, soetwas wie einen Industriestandard zu schaffen, nichts elementares mehr daran verändert.

Also ..sag, wie das Signal aussieht und erwarte nicht, dass Andere für Dich suchen.



Antwort von dienstag_01:

Kleine Hilfe



Antwort von Paralkar:

Was mich interessieren würde, falls du recht hast Wowu (ich kann dir keinesfalls widersprechen, dazu fehlt mir die Expertise), welche Übertragungskurve wird genutzt, da ich ja in Resolve mit 4.6k "Raw" Footage von der Ursa MIni auf Weißabgleich/ Tint, Gammakurve, Farbraum, Sharpness etc. einwirken kann.

Wie muss man sich dann laut deiner Meinung vorstellen, ne Art IDT oder LUT die dann mittels meiner Änderung in den "Raw" Settings zu ner anderen Kurve führt?

Und letzteres müssten besagte Datenmengen in nem nennen wir es mal "Raw" RGBRGB im Glossar erklärt Bild (ich weiß das widerspricht sich) dann nicht viel höher sein, da ich ja 3 Werte pro PixelPixel im Glossar erklärt hätte?

Ich kann dir erstmal nicht widersprechen wie gesagt, aber die Datenmengen & Kompressionen deuten auf "klassische" Raw Wavelet Komprimierung wie bei Red hin (ob das jetzt auch noch Raw ist sei mal auch dahingestellt). Das RGBRGB im Glossar erklärt Bild mit 4.6k und 12 bit müsste ja dann brutal groß sein, wenn man an Tiff oder DPX Einzelbildsequenzen denkt oder sehr gut und stark komprimiert sein, was gefühlt beim bearbeiten nicht so rüberkommt.



Antwort von Darth Schneider:

An Wolfgang, Frank und dienstag.
Danke Vielmol für die Mühe und die Zeit !!!
Das hilft, wirklich interessant und aufschlussreich, jetzt hab ich was zum studieren.
Einen schönen Abend
Gruss Boris



Antwort von Sammy D:

Kurze, naive Zwischenfrage: was kommt dann aus Fotokameras raus? RAW RAW oder fake RAW?



Antwort von WoWu:

Die Kurve, die da genutzt wird, kann proprietär sein, denn jedes Bayerfilter ist exakt auf den Sensortyp abgestimmt.
Aber wenn Du echtes RAW, also nur einen Wert pro PixelPixel im Glossar erklärt hast, kriegst Du gar kein gescheites Videobild, weil Dir die restlichen Werte fehlen.

Hast Du aber ein Vodeobild, auch wenn es noch so flach ist, ist es kein klassisches RAW mehr sondern ein irgendwie bearbeitetes Videobild.
Was die größe des Datenvolumens angeht, kommt es natürlich erheblich darauf an, was alles mit dem Bild geschehen ist.
Dazu kann man so aus dem Stehgreif nicht spekulieren.

Frage ist immer, akzeptiert das NLE das Video, ohne dass Du vorher das De-Bayerverfahren wählst und alle Parameter, einschließlich von Anti-Alisaingverfahren setzt, dann hast Du mit ziemlicher Wahrscheinlichkeit ein Videosignal.
Dabei ist es unerheblich, ob das nun als Einzelbildsequenz vorliegt, oder irgendwie anders, denn "Video" bezieht sich hier auf das einzelne Bild, dass dann aus RGBRGB im Glossar erklärt besteht und bezieht sich nicht auf die Abfolge der Bilder.



Antwort von WoWu:


Kurze, naive Zwischenfrage: was kommt dann aus Fotokameras raus? RAW RAW oder fake RAW?

Kommt drauf an, wie der nachfolgende Schritt aussieht, den das Signal durchlaufen muss aber bei Fotos ist es schon eher richtiges RAW.



Antwort von nic:


Frage ist immer, akzeptiert das NLE das Video, ohne dass Du vorher das De-Bayerverfahren wählst und alle Parameter, einschließlich von Anti-Alisaingverfahren setzt, dann hast Du mit ziemlicher Wahrscheinlichkeit ein Videosignal.
Dabei ist es unerheblich, ob das nun als Einzelbildsequenz vorliegt, oder irgendwie anders, denn "Video" bezieht sich hier auf das einzelne Bild, dass dann aus RGBRGB im Glossar erklärt besteht und bezieht sich nicht auf die Abfolge der Bilder.

Jetzt wird es aber völlig abstrus. Wann hast du das letzte mal mit RAW gearbeitet? Schön, dass du meine Beiträge alle ignorierst, würdest du darauf eingehen, müsstest du dich mit deinen Behauptungen selbst beschäftigen.



Antwort von Paralkar:

https://www.youtube.com/watch?v=ELIJHe9mZVo

https://www.youtube.com/watch?v=dS5vKUAC3Sc&t=36s

Ersteres ist sehr mathematisch erklärt, hab aber auf die Schnelle nix gefunden, was es etwas "einfacher" ausdrückt



Antwort von Paralkar:


Die Kurve, die da genutzt wird, kann proprietär sein, denn jedes Bayerfilter ist exakt auf den Sensortyp abgestimmt.
Aber wenn Du echtes RAW, also nur einen Wert pro PixelPixel im Glossar erklärt hast, kriegst Du gar kein gescheites Videobild, weil Dir die restlichen Werte fehlen.

Hast Du aber ein Vodeobild, auch wenn es noch so flach ist, ist es kein klassisches RAW mehr sondern ein irgendwie bearbeitetes Videobild.
Was die größe des Datenvolumens angeht, kommt es natürlich erheblich darauf an, was alles mit dem Bild geschehen ist.
Dazu kann man so aus dem Stehgreif nicht spekulieren.

Frage ist immer, akzeptiert das NLE das Video, ohne dass Du vorher das De-Bayerverfahren wählst und alle Parameter, einschließlich von Anti-Alisaingverfahren setzt, dann hast Du mit ziemlicher Wahrscheinlichkeit ein Videosignal.
Dabei ist es unerheblich, ob das nun als Einzelbildsequenz vorliegt, oder irgendwie anders, denn "Video" bezieht sich hier auf das einzelne Bild, dass dann aus RGBRGB im Glossar erklärt besteht und bezieht sich nicht auf die Abfolge der Bilder.

Hmm irgendwie wenn ich ehrlich bin ist das keine Antwort mit der man nicht wirklich was anfangen kann, schlussendlich muss es ja ne Kurve sein, die die andern Kurven sauber und vollkommen darstellen kann, also auch die Log Übertragungskurve, ansonsten könnt ich diese nicht einstellen in den "Raw" Settings. Das ein Bild auf egal welchem Monitor kein Raw mehr ist, ist mir klar und das Raw nur ein Luminanzwert pro Subpixel hat auch.

Zum Thema Datenmengen, doch sorry, aber genau das merkt man, durch RGBRGB im Glossar erklärt Werte ist ein Tiff oder DPX größer als jedes Raw Bild (bei gleicher Auflösung & Bittiefe)

Zwecks Anti Aliasing in den Raw Parametern, ganz ehrlich hab ich egal ob bei ArriRaw, Sony Raw, RedRaw, Blackmagic Raw, Canon CR2, Nikon Raw oder Fujiraw noch nie gesehen, egal ob Resolve, Scratch, Daylight/ Baselight, Premiere, After Effects etc.

Auf welchen Systemen/ Softwaren oder wo kann man den zwischen den Algorithmen umstellen?



Antwort von Sammy D:



Kurze, naive Zwischenfrage: was kommt dann aus Fotokameras raus? RAW RAW oder fake RAW?

Kommt drauf an, wie der nachfolgende Schritt aussieht, den das Signal durchlaufen muss aber bei Fotos ist es schon eher richtiges RAW.

Wie unterscheide ich dann, ob es sich um ein bereits gewandeltes RGB-Signal oder um echtes RAW handelt? Wenn ich beispielsweise ein, wie du annimmst, echtes RAW aus einer Fotokamera und ein CinemaDNG aus einer BM-Kamera in einen RAW-Konverter wie den von Adobe werfe, gibt es dort keine Parameter fuers De-Bayering einzustellen; beide Dateien werden scheinbar gleichbehandelt, beide werden als RAW behandelt.



Antwort von WoWu:

Die Frage ist dabei ob die Entwicklungs Software ein vorgegebenes De-bayering Verfahren einsetzt oder der Anwender das Verfahren auswählen kann.
Wenn die Software "quick&dirty" entwickelt, siehst Du sicher keinen Unterschied.

@Paralka
Die Software lief auf unsern Quantel Schnittplätzen und das PluginPlugin im Glossar erklärt ist von Niche Video products für Vision research entwickelt und war zur Bearbeitung eines, in CDNG eingebetteten Nativen RAW Signals der Phantom vorgesehen.
Eingriff in Aliasingpatameter waren insofern möglich, als man die Frequenzbegrenzungen anfassen könnte und so mit dem entstandenen Delta zwischen den Einzelbildern Moire deutlich beeinflussen und szenenbezogen verarbeiten konnte.
Das Setting hat sich damit auch auf die Bildschärfe ausgewirkt.
Darüber hinaus konnten auch damit Werte in der Kantenortbestimmung versetzt werden, was in hohen Kontrastwerten die Farbdeckung korrigiert hat.
(Und noch ein paar andere Parameter denn De-Mosaicking erzeugt ja nicht nur 2 Farbbilder, da passiert ja noch eine ganze Menge mehr.

Das kann man aber eben alles in der Pfeiffe rauschen, wenn die Kamera schon RGBRGB im Glossar erklärt als "RAW" ausgibt.



Antwort von Paralkar:

Okay hört sich aufjedenfall sehr interessant an, Aliasing & Kantenortbestimmung zu beeinflussen, aber die Aussage das alles andere kein "richtiges" Raw ist, ist dadurch keinesfalls getroffen

Ich denke schon das Arri & Sony Raw wirkliches Raw mit dem einen Luminanzwert pro Subpixel liefern, und RedRaw sowie Blackmagic Raw auch ähnliches verlustbehafteter ergeben, trotz Wavelet Komprimierung (Schwer zu sagen ab wann man da nichtmehr von Sensordaten reden darf, da es ja ne lossy KompressionKompression im Glossar erklärt ist)

Ich hab jetzt kurz mal mit dem Raw FrameFrame im Glossar erklärt von Dienstag_01 auch den Test gemacht, in Photoshop reingeladen und als Tiff ausgespielt, hier mal die Unterschiede der MediaInfos Infos

Es zeigt sich das im ausgespielten Tiff RGBRGB im Glossar erklärt als Color Space angegeben wird und im Original garnichts dabei steht. Auch die Datenmengen sind bei dem Tiff bedeutend größer, wobei original in 12 bit ist und Tiff 16 bit, kann man bei Photoshop nicht anders angeben und letzteres müsste es durch die Wortbreite doch so oder so 16 bit sein



Antwort von WoWu:

Grundsätzlich ist jedes Signal, das irgend jemand so nennt, ein RAW, denn RAW ist nirgend definiert.
Es muss also jeder für sich entscheiden, ob das Datensignal eines Sensors oder zusätzlich berechneten Farbwerte RAW Signale sind.
Nach meinem Verständnis haben interpolierte Signale nichts mehr mit RAW zu tun, auch wenn das drauf steht.
Es ging hier ja auch nur darum, dass Frank die Anmerkung von Funless abgekanzelte hat, obwohl, wie es scheint, er noch nie native RAW Signale verarbeitet hat und noch nicht mal genau weiß, wie sein Arbeitssignalbeschaffen ist denn das natives RAW mit einem deutlichen Mehraufwand verbunden ist, wenn auch mit einem deutlich besseren Ergebnis, steht außer Frage.
Aber wenn es den Anwender glücklich macht, kann jeder sein Signal nennen, wie er will.
Wie gesagt, der Begriff RAW ist nirgend definiert.
Das ist so ähnlich wie 4K ... reine Glaubenssache.



Antwort von Frank Glencairn:

Und?

Hast du dir das DNG. das Dienstag gepostet hat schon angeschaut?



Antwort von cantsin:

Mir fehlt die Expertise, eine DNG-Datei durch Analyse der Binärdaten darauf zu prüfen, ob sie nun 12-bit-JPEG oder undebayerte Sensordaten enthält...

...Doch: Wenn ich dienstags Beispiel-DNG in RawTherapee öffnen und die Debayering-Methode auf "None (Shows sensor pattern)" stelle, kriege ich das hier:

Frame000320.png

Ausschnitt davon:
Frame000320-crop.png

In der Vergrößerung zeigt sich deutlich das Bayer-Muster:
Frame000320-crop_8x.png



Antwort von mash_gh4:


...Doch: Wenn ich dienstags Beispiel-DNG in RawTherapee öffnen und die Debayering-Methode auf "None (Shows sensor pattern)" stelle, kriege ich das hier:
Frame000320.png

vor allem sieht man dabei auch recht recht deutlich, dass sich hier bei vergleich unterschiedlicher berechnungsmethoden einiges tut (bspw. bei bilddetails mit einzelnen haaren)! bedeutsame unterschiede, die unser WoWu in all seiner hinlänglich bekannten weisheit aber sicher wieder nur als "kantenschärfung" abtun wird. ;)



Antwort von Olaf Kringel:


vor allem sieht man dabei auch recht recht deutlich, dass sich hier bei vergleich unterschiedlicher berechnungsmethoden einiges tut (bspw. bei bilddetails mit einzelnen haaren)! bedeutsame unterschiede, die unser WoWu in all seiner hinlänglich bekannten weisheit aber sicher wieder nur als "kantenschärfung" abtun wird. ;)

...man darf dabei aber auch nicht vergessen, das Datenbanken z.b. auch die kompletten Baupläne sämtlicher Fahrgastgeschäfte dieses Planeten enthalten.

Daraus können Algorithmen dann aus Pixelbrei z.B. feinste Details für z.B. Oesen und Kabel eines Riesenrades errechnen ;)



Antwort von Jott:

Du wirst doch wowu Auslassungen nicht anzweifeln wollen? :-)



Antwort von Sammy D:


Mir fehlt die Expertise, eine DNG-Datei durch Analyse der Binärdaten darauf zu prüfen, ob sie nun 12-bit-JPEG oder undebayerte Sensordaten enthält...

...Doch: Wenn ich dienstags Beispiel-DNG in RawTherapee öffnen und die Debayering-Methode auf "None (Shows sensor pattern)" stelle, kriege ich das hier:...
...

Sag mal, hast du schon mal ein DNG der Pocket in diesem Programm zu oeffnen versucht? Ich krieg da nur bunte PixelPixel im Glossar erklärt mit einer Silhouette.

URSA- und BMCC-DNGs hingegen funktionieren problemlos.



Antwort von cantsin:


Sag mal, hast du schon mal ein DNG der Pocket in diesem Programm zu oeffnen versucht? Ich krieg da nur bunte PixelPixel im Glossar erklärt mit einer Silhouette.
Ja, selbiges Problem hier.



Antwort von Sammy D:



Sag mal, hast du schon mal ein DNG der Pocket in diesem Programm zu oeffnen versucht? Ich krieg da nur bunte PixelPixel im Glossar erklärt mit einer Silhouette.
Ja, selbiges Problem hier.

Weisst du, woran das liegt?
Hab nur einen Eintrag ergoogeln koennen, wo ein User dieses Problem beschrieb, aber kein Loesung angeboten wurde.

Ich habe es mal in den DNG-Converter (also DNG nach DNG) gepackt, dann gehts, inkl. RAW-Optionen natuerlich.



Antwort von cantsin:


Weisst du, woran das liegt?

Ich nehme an, es liegt an Blackmagics DNG-Kompression, die von RawTherapee nicht unterstützt wird.

EDIT: Hier noch ein DNG-Frame aus der Pocket, der mit Adobe DNG Converter in ein für Raw Therapee lesbares FormatFormat im Glossar erklärt umgewandelt wurde, im undebayerten Rendering:

fcr_1_2016-12-03_1233_C0000_001774.png

Ausschnitt:
fcr_1_2016-12-03_1233_C0000_001774-crop.png

...vergrößert:
fcr_1_2016-12-03_1233_C0000_001774-crop_8x.png



Antwort von WoWu:



...Doch: Wenn ich dienstags Beispiel-DNG in RawTherapee öffnen und die Debayering-Methode auf "None (Shows sensor pattern)" stelle, kriege ich das hier:
Frame000320.png

vor allem sieht man dabei auch recht recht deutlich, dass sich hier bei vergleich unterschiedlicher berechnungsmethoden einiges tut (bspw. bei bilddetails mit einzelnen haaren)! bedeutsame unterschiede, die unser WoWu in all seiner hinlänglich bekannten weisheit aber sicher wieder nur als "kantenschärfung" abtun wird. ;)

Mir war ja schon klar, dass Du nicht richtig lesen kannst, oder zumindest ein lese-vetständnisproblem hast.
Anders ist nicht zu erklären, dass ich im Thread sehr wohl von mehreren de-mosaicing Verfahren gesprochen habe.
Derzeit gibt es rd. 20, die in der Anwendung nennenswert sind. Auf unsern Rechnern haben wir auf 6 unterschiedliche Verfahren zurückgegriffen, in denen man sehr wohl ins Gradientenmodul eingreifen konnte und das Verhältnis des Luminanzsignals, das vorwiegend in niedrigen Ortsfrequenzen moduliert wird und zwei Chrominanzsognalen, überwiegend bei hohen Ortsfrequenzen moduliert, eingreifen konnte. Da das De-mosaicing überwiegend Unschärfe, Gitterwirkung und Falschfarben generiert, wenn die BandbreiteBandbreite im Glossar erklärt der Filter, die auf das CFA Bild angewendet werden, zu eng ist, um die LuminanzLuminanz im Glossar erklärt abzuschätzen, tritt eine übermäßige Unschärfe ein. Ist das Filter zu groß, fürt das dazu, dass Flächen in Chrominanzzonen ausgewählt und dargestellt werden, die Gitterstrukturen haben. Außerdem entstehen Falschfarben, wenn Chrominanzfilter mit der Luminanzfilterung in der Frequenzdomain überlappen. Im umgekehrten Fall entstehen Farben an Kanten, die darüber hinaus gehen.
Ergebniss präziser Eingriffe sind Bildschärfe, bessere Farbdeckungen und präzisere Kanten.
Wenn Du solche Prozesse mit Kantenschärfung bezeichnen willst, bist Du herzlich willkommen, zeigst aber damit, dass Du keinen blassen Dunst davon hat, was und wie man im De-mosaicing aktiv das Bild verändern kann.
Die oben erwähnte Kantenschärfung bezog sich, wie man bei genauem Lesen hätte herausfinden können, auf das verlinkte Beispiel.
Aber das hast Du vermutlich auch nicht geschnallt.



Antwort von nic:

Wieso kannst du nicht einfach zugeben, dass du dich im Falle von (C)DNG geirrt hast? Stattdessen gehst du einfach nicht weiter darauf ein, beschimpfst andere Nutzer und wirfst mit irrelevanten Aussagen um dich...



Antwort von Sammy D:


...

fcr_1_2016-12-03_1233_C0000_001774.png

Ausschnitt:
fcr_1_2016-12-03_1233_C0000_001774-crop.png

...vergrößert:
fcr_1_2016-12-03_1233_C0000_001774-crop_8x.png

Ist dieses Bild nun ein Indiz dafuer, dass es sich bereits um ein RGB-Signal handelt? Ist die Logik von cantsin korrekt?



Antwort von Paralkar:

Nope das is ein wirkliches Raw Signal,



Antwort von Rick SSon:


Ich denke man sollte mal die Kirche im Dorf lassen.

Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?

Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?

Die BM Pocket kann RAW Video und bekommt man für etwas über 1K Euro hinterhergeschmissen. Wird wohl einen Grund haben weshalb das Teil nicht in jedem zweiten Consumer Haushalt zu finden ist.

derjenige, der auch in 10 jahren noch einen neuen 8,10,12k fernseher mit superHDR kaufen soll. Sicherlich braucht der nicht das umständliche "RAW" das wir heute kennen, das ist wie immer, alles nur marketing. Aber er braucht auf jeden Fall Geräte (inkl. aller youtuber, v-logger et cetera) die Material so hochwertig aufzeichnen (evtl. dann intern interpretieren und optimieren) und wieder rauswerfen damit das auch alles total sichtbar besser aussieht.

Der Content der heutzutage betrachtet wird kommt doch schon längst nicht mehr aus wenigen quellen, sondern vielen verschiedenen.



Antwort von cantsin:

Das Slashcam-Editorial ist nun beinahe ein Jahr alt und hat sich doch als zu optimistisch erwiesen. Von Raw-Video bei Nikon oder Fuji ist nach wie vor nichts zu sehen. Nicht einmal 10bit-Video gibt's, mit Ausnahme der GH5, im Prosumer-Markt, und es sieht momentan auch nicht so aus, als ob sich das bald ändern würde...

Auch der Versuch, mit ProResProRes im Glossar erklärt RAW den Massen RAW-Video zu bringen, darf wegen der extrem eingeschränkten Kamera- und Softwareauswahl als vorerst gescheitert gelten.



Antwort von WoWu:

Ich denke, dass RAW, so wie wir es früher kannten sowieso vom Tisch ist, weil aus kostengründen immer mehr Bild-Nachberechnung bzw. Bildberechnung in der Kamera stattfinden muss.
Das bedeutet aber, dass zunächst mal soetwas ähnliches wie Bilder entstehen müssen, denn auf Basis eines Luminanzwertes pro PixelPixel im Glossar erklärt funktioniert das nicht.
Auch die Reduktion schreitet fort und der Nachfolger von HEVC, VVC ist auch in Arbeit.
Also wird man vielleicht noch eine Weile diesen "RAW" Begriff hoch halten, in Wahrheit aber schon völlig andere Signale darunter verkaufen.
Das ist ja das schöne an nicht standardisierten Begriffen .... jeder kann etwas Anderes darunter verstehen.

@7Nic
Weil CDNG ein interpretiertes Signal beinhaltet.
Innerhalb von CDNG besteht zwar die Möglichkeit ein externes RAW Signal neben einen JPEG zu transportieren, daraus wird aber nicht der CDNG Container zum Bildformat.



Antwort von klusterdegenerierung:


Auch der Versuch, mit ProResProRes im Glossar erklärt RAW den Massen RAW-Video zu bringen, darf wegen der extrem eingeschränkten Kamera- und Softwareauswahl als vorerst gescheitert gelten.

Klasse, die Jungs von Atomos haben gerade erst ihren Messestand abgebaut, auf dem sie angekündigt haben,
das es das nun bald in Form von Firmware updates und auch NLE Implements geben wird!

Und kaum nach dem die Jungs wieder in ihrer Firma sind ist das Firmwareupdate draussen und man kann gerade erst damit recorden, da kommt der Zeitreisende cantsin und kündigt uns das Ende von ProResProRes im Glossar erklärt Raw an!!!!

Ich frag mich echt in welchem Komödienstadel ich hier gelandet bin?
Da weiß man schon echt nicht mehr ob man lachen oder heulen soll, oder total zugekifft ist!!



Antwort von nic:


@7Nic
Weil CDNG ein interpretiertes Signal beinhaltet.
Innerhalb von CDNG besteht zwar die Möglichkeit ein externes RAW Signal neben einen JPEG zu transportieren, daraus wird aber nicht der CDNG Container zum Bildformat.

CDNG kann ein reines unkomprimiertes oder auch verlustfrei oder verlustbehaftet komprimiertes RAW-Signal enthalten. Wie kommst du auf JPEG im Bezug auf CDNG?



Antwort von WoWu:

Weil CDNG den SDNG Konverter benutzt, der auf TIFF 6.0 aufsetzt und das ist auf JPEG festgelegt.

The image encoding is based on the DNG specification, compliant with current DNG readers, compatible with the TIFF6 and TIFF/EP specifications, using published TIFF6, TIFF/EP and DNG tags;

Das war ja gerade der Ansatz von Adobe, dass sie eine definierte Codierung benutzen, um so etwas wie einen Standard zu etablieren.
Hat leider nicht geklappt.

Aber das RAW jedes beliebigen Fremdherstellers kann man in CDNG als "PackBits" transportieren, was allerdings dann zusätzlich zum JPEG geschieht und den Containerinhalt entsprechend vergrößert.
So kann man das vorhandene JPEG als Proxy nutzen und das kameraeigene RAW in der Post.

"The camera sensor output can be stored directly into the CinemaDNG format with minimal in-camera pixel processing and no repackaging of the raw image data. For 16 or 32 bits, the byte ordering of the CinemaDNG data can be big-endian or little-endian as needed, to match the sensor output;"

Das ist aber nicht das, was Du als CDNG RAW verstehst weil CDNG nur ein Container und Konverter ist. Das RAW bleibt das kameraeigene RAW.
Seit 2010 arbeiten wir mit CDNG.



Antwort von nic:



"The camera sensor output can be stored directly into the CinemaDNG format with minimal in-camera pixel processing and no repackaging of the raw image data. For 16 or 32 bits, the byte ordering of the CinemaDNG data can be big-endian or little-endian as needed, to match the sensor output;"

Das ist aber nicht das, was Du als CDNG RAW verstehst weil CDNG nur ein Container und Konverter ist. Das RAW bleibt das kameraeigene RAW.
Seit 2010 arbeiten wir mit CDNG.

Doch, das ist genau das was ich unter CDNG verstehe... und das was die Idee von CDNG war. Und genau das, was ich auch schon öfter hier geschrieben habe.



Antwort von WoWu:

Und genau das, was einen Container beschreibt.

DNG erzeugt kein eigenes RAW Format.
Da kannst Du ein RAW reinstecken und es kommt hinten wieder raus, aber DNG transportiert es nur und / oder interpretiert es und macht daraus ein JPEG.
Wenn Du natürlich ein flaches JPEG als RAW definierst... alles klar.
Dann hat das aber mit dem Kamerasensor gerade soviel zu tun, wie ADOBE meint, es interpretieren zu müssen.



Antwort von nic:

Du zeichnest ein RAW-Signal auf, zeichnest das als CDNG auf und hast in der Post einen RAW-Stream vorliegen.
Das hat nichts mit flachem JPEG zu tun.



Antwort von WoWu:

Eben. nicht, wie Cantsin schon dargestellt hat.

Entweder packst Du dein Kamera RAW (zusätzlich) in den DNG Container und entpackt ihn in dr Post wieder, um ihn mit Deinem Kamera RAW Entwickler zu bearbeiten oder DNG interpretiert das RAW in ein eigenes FormatFormat im Glossar erklärt, sodass es für ADOBE Programme lesbar ist, aber Dein Kamera RAW Entwickler kann mit dem so entstandenen und bearbeiteten File nix mehr anfangen.
Weil Du aus dem RAW ein JPEG gemacht hast.
DNG interpretiert das Signal mit ziemlich vielen Nachteilen, beispielsweise nur mit zwei Farbwiedergabecharakteristika.
Du verlierst also das Farbspektrum Deiner Kamera und reduzierst es auf ein einziges ADOBE Profil (eins für Tag und eins für Nacht).

Genau das ist ja einer der Gründe, warum die meisten Hersteller so einen "Standard" nicht brauchen.



Antwort von Frank Glencairn:

Also meine CDNG raw Container beinhalten quasi ein tiff, plus Metadaten für's Debayering, sowie andere wie Datum, Camera, Szene, Take, TimecodeTimecode im Glossar erklärt, etc. - ein JPEG ist da allerdings nicht dabei, wozu auch.



Antwort von WoWu:

TiFF ist das Fileformat und JPEG ist die Codierung darin.
Das kann darin durchaus losless sein.

Siehe TIFF Specs.
https://www.itu.int/itudoc/itu-t/com16/ ... /tiff6.pdf

Das hatte ADOBE ja bei der Einführung sogar als den eigentlichen Vorteil angepriesen, dass auf ein einheitliches Kompressionsformat gebaut wird, wodurch Adobe darin die Merkmale einer Standardisierung gesehen hat.



Antwort von klusterdegenerierung:

Dito, bei mir genauso.



Antwort von mash_gh4:


DNG interpretiert das Signal mit ziemlich vielen Nachteilen, beispielsweise nur mit zwei Farbwiedergabecharakteristika.
Du verlierst also das Farbspektrum Deiner Kamera und reduzierst es auf ein einziges ADOBE Profil (eins für Tag und eins für Nacht).
Genau das ist ja einer der Gründe, warum die meisten Hersteller so einen "Standard" nicht brauchen.

mann oh mann oh mann!

könnt man nicht vielleicht doch irgendeinen ganz elementare captcha-artigen Intelligenztest in diesem forum (bspw. die ganze einfache verbale frage: "handelt es sich bei 4K videofiles tatsächlich um 4K" od. "DNG ist in wahrheit nur JPEG" jeweils mit ja/nein-checkboxen zu ankreuzen) als vorbedingung für das absenden von beiträgen einbauen, damit wenigstens einigen unbelehrbaren querulanten und begnadeten demagogen das zumüllen aller threads hier im forum ein bisserl schwerer od. gar unmöglich gemacht würde?



Antwort von WoWu:

Du solltest anfangen, die Postings genau zu lesen, bevor Du so eine falsche Zusammenfassung präsentierst, deren Charakter ausschließlich in der Polemik steckt.
Lesen und die Inhalte verstehen ist der erste Schritt vor einer Antwort.
Aber bei Dir geht es wohl ausschließlich um Polemik.



Antwort von Jott:

Das mag schon sein, aber dass ausgerechnet du anderen Polemik vorwirfst, ist echt lustig!



Antwort von Frank Glencairn:


TiFF ist das Fileformat und JPEG ist die Codierung darin.
Das kann darin durchaus losless sein.


Das wär dann aber DPCM - hab noch nie gesehen, daß das irgendwo bei einem DNG tatsächlich verwendet wurde.
Eigentlich gibts nur uncompressed und lossles (LZW) Kompression. Jedenfalls ist mir bisher noch nix anderes untergekommen.



Antwort von WoWu:

https://en.m.wikipedia.org/wiki/Lossless_JPEG
Mach doch mal Dein FormatFormat im Glossar erklärt auf und schau Dir die Blockbildung an. Dann weißt Du doch, was da drin steckt.



Antwort von dienstag_01:



TiFF ist das Fileformat und JPEG ist die Codierung darin.
Das kann darin durchaus losless sein.


Das wär dann aber DPCM - hab noch nie gesehen, daß das irgendwo bei einem DNG tatsächlich verwendet wurde.
Eigentlich gibts nur uncompressed und lossles (LZW) Kompression. Jedenfalls ist mir bisher noch nix anderes untergekommen.

unter Compression:
http://wwwimages.adobe.com/www.adobe.co ... .4.0.0.pdf



Antwort von WoWu:

Tja, alles klar.
Danke, für den Link.



Antwort von Frank Glencairn:

Ja, Huffman für 3:1/4:1, nicht LZW, Blackmagic hatte damals extra ne CDNG Extension für 12-Bit Huffman geschrieben, als sie die neuen Kompressionsstufen eingeführt haben - müsste dann 9a sein, oder sowas. LZW ist nur das "lossles" raw.



Antwort von klusterdegenerierung:


Lesen und die Inhalte verstehen ist der erste Schritt vor einer Antwort.

Oder anders gesagt, ich rede es mir so lange bis es für mich passt!
Hätte Frank geschrieben das er png in seinen DNGs stehen hat, hättest Du geantwortet, ja das ist nur der Codec.

Und dann jpg ist da lossless! Klar jpg war ja auch schon immer lossless, deswegen wird es auch so klein. :-)
Übrigens DNG ist der Container, Tiff der Codec!



Antwort von -paleface-:

@ WoWu
Könnte das der Grund sein warum Adobe bis heute nicht die CDNG die compressed sind aus den Blackmagic Kameras lesen kann?

Weil Blackmagic ein eigenes Compressed Algorithmus nutzt den Adobe gar nicht entschlüsseln kann?



Antwort von Axel:


@ WoWu
Könnte das der Grund sein warum Adobe bis heute nicht die CDNG die compressed sind aus den Blackmagic Kameras lesen kann?

Weil Blackmagic ein eigenes Compressed Algorithmus nutzt den Adobe gar nicht entschlüsseln kann?

Ich hatte PPR CC 2017 als 1-wöchige Testversion. Ich importierte damals auch Pocket-Raw (2-fach komprimiert), ohne Probleme. Über den alten Importweg (cmd+i) konnten aber nur Einzel-DNGs importiert werden. Über den Medienbrowser (falls das so heißt) werden statt der Ordner mit Gedöns drin gleich reguläre Clips angezeigt, wie in Resolve.



Antwort von -paleface-:



@ WoWu
Könnte das der Grund sein warum Adobe bis heute nicht die CDNG die compressed sind aus den Blackmagic Kameras lesen kann?

Weil Blackmagic ein eigenes Compressed Algorithmus nutzt den Adobe gar nicht entschlüsseln kann?

Ich hatte PPR CC 2017 als 1-wöchige Testversion. Ich importierte damals auch Pocket-Raw (2-fach komprimiert), ohne Probleme. Über den alten Importweg (cmd+i) konnten aber nur Einzel-DNGs importiert werden. Über den Medienbrowser (falls das so heißt) werden statt der Ordner mit Gedöns drin gleich reguläre Clips angezeigt, wie in Resolve.

Also bei der Ursamini 4.6k geht compressed leider nicht in Premiere.



Antwort von WoWu:


@ WoWu
Könnte das der Grund sein warum Adobe bis heute nicht die CDNG die compressed sind aus den Blackmagic Kameras lesen kann?

Weil Blackmagic ein eigenes Compressed Algorithmus nutzt den Adobe gar nicht entschlüsseln kann?

Dazu müsste man genau wissen, was BM da verändert hat.
Eigentlich überträgt der CDNG Container jedes beliebige RAW FormatFormat im Glossar erklärt unverändert, setzt dann allerdings bei der Entwicklung die Entwicklungssoftware des Herstelkers voraus.
Erst danach geht es in das eigentliche NLE.
BM scheint die Entwicklungssoftware für die eigenen Kameras bereits in sein NLE integriert zu haben.
Auf die Weise können sie natürlich machen, was sie wollen und sind völlig proprietäre.
Nutzen sie allerdings den Konverter und bringen das Ganze auf die TIFF Ebene, sind sie (streng genommen) an die JPEG Vorgaben gebunden.
Das hat aber den Vorteil der Kompatibilität zu andern NLEs.

Ist es aber in der Tat so, wie Frank schreibt, dass sie da irgendwelche Absonderheiten eingebaut haben (was Schwachsinn wäre und ich mir auch nicht wirklich denken kann), dann würde auch das JPEG Signal inkompatibel denn ADOBE wird solche proprietären Schritte vermutlich nicht mitgehen.
Man müsste sich die Signale und das Umfeld genauer ansehen, um da Definitives zu sagen.



Antwort von -paleface-:

Aber eine Art "Passwortschutz" kann man nicht in sowas einbauen, oder?

Also so das gar keine aneder Software das lesen kann ohne den Passwort-Schlüssel zu haben.

Kann eigentlich Final Cut BMD Compressed Raw öffnen?



Antwort von WoWu:

So ein Svhutz wäre gar nicht nötig, denn niemand macht sich die Mühe proprietäre Formate zu knacken, weil die morgen schon wieder anders aussehen können.
Das ist ja gerade der Grund, warum Hersteller auf festgeschriebenen Standards bestehen ( und eben auch der Nachteil von großen Teilen freier Software).

Die zweite Frage kann ich Dir nicht beantworten, weil FCP bei uns nie zentrale Software war und nur im Bedarfsfall mal zur Anwendung gekommen ist.
Aber betrachtet man mal die Entwicklung, so hat ja auch Apple diese Bestrebung mit PR. Sofern jetzt PRR ebenso auf JPEG aufsetzen sollte, bleibt abzuwarten, ob sie sich an den Standard halten oder so einen proprietären Verbund anstreben, um überhaupt einen Kamersanwender für PRR zu finden.
Kann ich Dir also im Augenblick nicht beantworten. -sorry-



Antwort von Frank Glencairn:

So ganz geheimnisvoll kanns nicht sein, weil ja außer Resolve noch andere Software mit den BM CDNG umgehen kann.

SlimRaw, Fastvideo, mindestens ein Programm das CDNG in CineformRaw umwandelt, dessen Namen ich aber vergessen hab, und Baselight kanns glaub ich auch. Für Premiere muß man die BM files vorher durch den Adobe raw Converter laufen lassen, soviel ich weiß, außerdem gabs mal ein PluginPlugin im Glossar erklärt, is aber schon ein paar Jahre her, keine Ahnung ob das noch aktuell ist, ich bin zu lange von Premiere weg.



Antwort von WoWu:

Ich hatte "paleface" so verstanden, dass es nicht allgemein darum ging, sondern im Speziellen um die Ursamini 4.6k in Verbindung mit "compressed RAW".



Antwort von Frank Glencairn:

Betrifft alle BM Kameras, weil die alle die selben Formate schreiben



Antwort von WoWu:

Tja, auch das hört sich anders an, weil Axel ja offenbar keine Probleme hatte, pf aber ...
Das würde auch nicht erklären, warum sein Signal von Premiere nicht erkannt wird.
Vielleicht erkennt ja auch nur Resolve alle Formate. (Was niemanden wundern dürfte).



Antwort von -paleface-:


Für Premiere muß man die BM files vorher durch den Adobe raw Converter laufen lassen, soviel ich weiß,

Wüste nicht dass das geht.
Jedenfalls nicht bei der Ursa.



Antwort von mash_gh4:

das ganze ist wirklich ziemlich symptomatisch für die art und weise, wie sich BMD regelmäßig fremde standards und fertig vorliegende lösung aneignet, sie dann gemäß ihren eigen erfordernissen abändert und alle anderen, die an herstellerunabhängigen standards interessiert sind, dumm sterben lässt.

das ist leider nicht nur bei diesen DNG erweiterungen der fall, sondern bspw. auch bei ihren modifikationen der OpenFX plugin-schnittstellen u.ä.

ich gewinne langsam immer mehr den eindruck, dass diese firma in puncto tatsächlicher offenheit und der freigeben von nützlichem elementaren informationen od. SDKs für unabhängiger entwickler in wahrheit fast schlimmer verfährt als die meisten diesbezüglich verrufenen großen monopolisten.
das ist wirklich traurig, aber eben zugleich auch denkbar gut getarnt, weil man ja ohnehin alles von ihnen quasi gratis geschenkt od. billig zu kaufen erhält, so lang es nur dazu dient, dass sich möglichst viele anwender von den entsprechenden mittel bzw. der damit verbundenen sackgasse des offenen austauschs immer mehr abhängig machen.



Antwort von WoWu:

Da bin ich ausnahmsweise mal einer Meinung.



Antwort von mash_gh4:


Da bin ich ausnahmsweise mal einer Meinung.

das freut mich natürlich! :)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Kurznews: Sitcom "Wilfred" mit Elijah Wood komplett mit Nikon D800 gedreht
Canon 5D Mark II, Canon 7D, Nikon D300S und Red One im Vergleich
Updates bei Blackmagic u.a. Compressed RAW für die 2,5 K Cinema Camera
Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
Gamechanger: ProRes RAW für die Vollformat Nikon Z6 und Nikon Z7 im Anflug // CES 2019
Panasonic GH6 zur Photokina? 8K, ND, Compressed RAW u.a. Welche neuen Videofunktionen für die GH6?
Kinefinity Terra Compressed RAW
Bringt 2019 RAW für alle?
DSLR-Video-Revolution - MK II? Tschüss 8 Bit! - Hallo Compressed RAW!
Messevideo: Sony - Neues XOCN compressed RAW, Zweikanal-Wireless Empfä
Nikon DL24-85 erscheint wann...?
iMac Pro interessant für RED RAW!
Messe-Video: NAB-Kracher - Z-Cam E2-Z6 - Mini S35 Sensorkamera mit Compressed Raw, ProRes uvm. // NAB 2019
Nikon Z6 Essential Movie Kit: Vollformat RAW Setup für 2.899,- Euro // IBC 2019
scheinbar muss es für RED-RAW wohl in Zukunkt eine Nvidia sein
4K Knipsenflut von Nikon - B700, A900 sowie alle neuen DL-Modelle
Frage zu Stativen: Wann Bodenspinne / wann Mittelspinne?
Nikon ProRes RAW Teaser
Red Scarlet-X - 4.5K RAW (2.4:1)
Kurznews: Nikon Hacker- LV RAW Puffer gefunden?
Prescht Nikon mit 8K-ProRes RAW vor?
RED Raven Rauschen RAW
Weitere CES-Informationen zu Nikon, RAW und Atomos
FCP ersetzt Clips an falscher Stelle
Workflow bei RED 6K Raw Material
Red-Raw Samples zum Vergleich

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
7-10. November / Linz
Linz International Short Film Festival
alle Termine und Einreichfristen