Na ja - der Grund, warum ProRes "cleaner" war was Moire und Rauschen betrifft ist der, daß feine Bildinformation durch die Komprimierung das erste war, was aus dem Fenster geworfen wurde.
Na ja - der Grund, warum ProRes "cleaner" war was Moire und Rauschen betrifft ist der, daß feine Bildinformation durch die Komprimierung das erste war, was aus dem Fenster geworfen wurde.
Das ist ehrliche Frustration, keine Polemik. Ich finde es ja gut, dass du immer wieder Quellen zusammenträgst und viele Diskussionen damit voranbringst. Aber manchmal ist es einfach nur anstrengend, vor allem wenn es sich dann im Kreise dreht.WoWu hat geschrieben: ↑Mo 17 Sep, 2018 19:31 Wenn Du ein paar Fakten statt Polemik hättest, wäre das deutlich hilfreicher.
Welche „neuen“ De-Mosaicing Schemata (außer den genannten) sind denn seit 2014 dazu gekommen ?
Ich lerne gern dazu.
Nenn doch mal Ross&Reiter oder reichte es nicht zu mehr als Polemik.Da lässt mal wieder jemand den „Praktiker“ raushängen.
seit einigen Jahren nicht mehr mit gängigen Rawformaten gearbeitet hat
Aber das BM einen Codec, der das Demosaicing *teilweise* (was immer das heisst) in-Camera erledigt, dann RAW nennt, lässt dich nicht an deinen eigenen Einschätzungen zweifeln?7nic hat geschrieben: ↑Mo 17 Sep, 2018 21:49Das ist ehrliche Frustration, keine Polemik. Ich finde es ja gut, dass du immer wieder Quellen zusammenträgst und viele Diskussionen damit voranbringst. Aber manchmal ist es einfach nur anstrengend, vor allem wenn es sich dann im Kreise dreht.WoWu hat geschrieben: ↑Mo 17 Sep, 2018 19:31 Wenn Du ein paar Fakten statt Polemik hättest, wäre das deutlich hilfreicher.
Welche „neuen“ De-Mosaicing Schemata (außer den genannten) sind denn seit 2014 dazu gekommen ?
Ich lerne gern dazu.
Nenn doch mal Ross&Reiter oder reichte es nicht zu mehr als Polemik.
Da lässt mal wieder jemand den „Praktiker“ raushängen.
Dass man zB den demosaicing-Algorithmus auswählen muss, ist bei den gängigen Rawformaten schon längst nicht mehr notwendig. Das erledigen die NLEs und/oder die Hersteller-SDKs für dich, für den Anwender ändern sich nur die möglichen Funktionen (Raw-Einstellungen) und die Renderzeit, bzw. die Echtzeitfähigkeit, je nach Ausgangsmaterial. Ob du jetzt mit Redraw, CDNG, PRR oder Arriraw arbeitest, mit dem debayering an sich hast du gar nichts zu tun. Das ist also keinerlei Kriterium um zu erkennen, ob du mit „echtem Raw“ arbeitest oder nicht. Auch kenne ich keinen Hersteller, der darum einen Hehl machen würde, ob es sich nun um ein Rawformat oder einen guten Akquisitionscodec handelt. Apple hat mit PR einen guten 444/422-Codec an der Hand, den fast alle Kamerahersteller lizensiert haben, wieso sollten sie uns mit PRR betrügen? Wieso sollte BM mit CDNG betrügen? Panasonic bietet tolle 10bit 422 log Codecs - und kommunizieren das so. Und bietet zusätzlich Raw. Sony bietet auch tolle herkömmliche Codecs. Aber eben auch uncompressed Raw oder compressed als X-OCN. Was treibt dich um an jeder Ecke Betrug zu wittern? Raw hat gewisse Vorteile. Herkömmliche Akquisitionscodecs wiederum andere. Hinterlistig einen Codec als Rawformat auszugeben wäre einfach nur unsinnig.
Nein, ganz im Gegenteil.Aber das BM einen Codec, der das Demosaicing *teilweise* (was immer das heisst) in-Camera erledigt, dann RAW nennt, lässt dich nicht an deinen eigenen Einschätzungen zweifeln?
Naja, BM gibt ja immerhin zu, dass zum Teil in der Kamera debayert wird. Die Frage für mich ist: speichern sie die Rohdaten und daneben Informationen zum schnelleren demosaicing in der Post oder verändern sie die Rohdaten selbst? Dass es sich um einen klassischen 444 oder 422 Codec handelt, bezweifle ich, kann es aber nicht ausschließen. Also: Natürlich interessiert mich was es mit BRAW auf sich hat. Und ich versuche momentan auch über diverse Kontakte ein paar ‚Insights‘ zu erhaschen. Aber bis ich zumindest halbwegs verlässliche Informationen habe, werde ich nicht öffentlich spekulieren.dienstag_01 hat geschrieben: ↑Mo 17 Sep, 2018 22:15Aber das BM einen Codec, der das Demosaicing *teilweise* (was immer das heisst) in-Camera erledigt, dann RAW nennt, lässt dich nicht an deinen eigenen Einschätzungen zweifeln?7nic hat geschrieben: ↑Mo 17 Sep, 2018 21:49
Das ist ehrliche Frustration, keine Polemik. Ich finde es ja gut, dass du immer wieder Quellen zusammenträgst und viele Diskussionen damit voranbringst. Aber manchmal ist es einfach nur anstrengend, vor allem wenn es sich dann im Kreise dreht.
Dass man zB den demosaicing-Algorithmus auswählen muss, ist bei den gängigen Rawformaten schon längst nicht mehr notwendig. Das erledigen die NLEs und/oder die Hersteller-SDKs für dich, für den Anwender ändern sich nur die möglichen Funktionen (Raw-Einstellungen) und die Renderzeit, bzw. die Echtzeitfähigkeit, je nach Ausgangsmaterial. Ob du jetzt mit Redraw, CDNG, PRR oder Arriraw arbeitest, mit dem debayering an sich hast du gar nichts zu tun. Das ist also keinerlei Kriterium um zu erkennen, ob du mit „echtem Raw“ arbeitest oder nicht. Auch kenne ich keinen Hersteller, der darum einen Hehl machen würde, ob es sich nun um ein Rawformat oder einen guten Akquisitionscodec handelt. Apple hat mit PR einen guten 444/422-Codec an der Hand, den fast alle Kamerahersteller lizensiert haben, wieso sollten sie uns mit PRR betrügen? Wieso sollte BM mit CDNG betrügen? Panasonic bietet tolle 10bit 422 log Codecs - und kommunizieren das so. Und bietet zusätzlich Raw. Sony bietet auch tolle herkömmliche Codecs. Aber eben auch uncompressed Raw oder compressed als X-OCN. Was treibt dich um an jeder Ecke Betrug zu wittern? Raw hat gewisse Vorteile. Herkömmliche Akquisitionscodecs wiederum andere. Hinterlistig einen Codec als Rawformat auszugeben wäre einfach nur unsinnig.
Bring‘ nur einen Beweis für deine Flache-Video-Hypothese und ich lass‘ dich für immer in Ruhe. Im Volksmund nennt man das log-Video, ist in der Regel in einem 10- oder 12-bit 422-Codec verpackt und wird genau als das vermarktet.WoWu hat geschrieben: ↑Mo 17 Sep, 2018 22:26 Ich habe ja auch nichts dagegen, wenn Anwender scheiss Codecs benutzen, dann sollen sie aber nicht die vom Hersteller selbsternannten RAWs mit dem Vergleichen, was als RAW in die Fotographie eingegangen ist.
Da schmückt sich so mancher Hersteller mit Federn, die ihm gar nicht zustehen.
Was ProRes angeht, können die Meinungen auch auseinander gehen.
Aber jedem steht eben nur die Qualität zu, die er in der Lage ist, zu erzeugen.
Was die (automatische) Auswahl der Demosaicing Schemata angeht, wäre ich nicht so sicher, wie Du, denn ein gutes Demosaicing ist vom Content abhängig und den Zielen, die man in der Produktion mit den Algorithmen erreichen will.
Ein „quick&dirty“ Eingeitsalgorithmus ist dasselbe, als wenn Du die Kamera permanent im Automatikmodus betreibst.
Und, ganz ehrlich gesprochen .... die meisten RAWs sind sowieso nur flache Videos. Die Anwender hinterfragen das nur genauso wenig, wie die Frage der spatiale Auflösung, die auch nur nach der Nummer auf dem Karton entschieden wird.
Spätestens, wenn Du dabei bist, premium Content zu machen, für den der Abnehmer hohe Lizenzkosten zahlen soll, fängst Du an, mal über solche Parameter nachzudenken.
Aber für den meisten Content, mal ne DVD oder ein Imagefilmchen, wenn nich sowieso für ne kurze Youtube-Nummer, hast Du Du Recht. Da reicht auch Fake-Raw.
Und was die Frage angeht, warum die Firmen einen betrügen sollten ?
Warum schreiben sie irgendwo 8K drauf, wenn nicht mal vernünftiges 4K dabei heraus kommt?
Die Antwort ist ganz einfach ... Marketing, weil es immer Kaufvolk gibt, die jeden Mist glauben weil sie nichts hinterfragen.
Nein, ganz im Gegenteil.Aber das BM einen Codec, der das Demosaicing *teilweise* (was immer das heisst) in-Camera erledigt, dann RAW nennt, lässt dich nicht an deinen eigenen Einschätzungen zweifeln?
Wenn man sich die Verzahnung in hochwertigen Schemata der De-mosaicing Verfahren mal ansieht, macht das umso weniger Sinn.
Kann natürlich sein, dass sie bilineare Interpolation machen, das ist einfach zu implementieren und erfordert so gut wie keine Verarbeitungszeit, erzeugt aber sichtbare Artefakte. Die könnte man dann auch gleich und komplett in der Kamera lassen. Denn deren Auslagerung lohnt sich wirklich nicht.
Mich irritieren auch die Aussagen in dem Interview, das Stefan verlinkt hat, die passen irgendwie gar nicht mit RAW zusammen.
Aber das ist alles Glaskugel ... mal sehn, was hinterher dabei herauskommt.
Ich teste BRAW jetzt schon ne ganze Weile, und hab natürlich auch jede Menge 1:1 Vergleiche (selbe Kamera/Licht/Motiv Optik etc.) mit CDNG gemacht.
Weil du ein 16bit lineares Signal vom Sensor gut in 12 bit log (bzw. nicht-linear wie BMD es bei BRAW nennt) packen kannst, ohne wirklich wichtige Informationen zu verlieren, außer in den Highlights, die sowieso viel zu viele Werte haben? Dass sie von 16 bit lin vom ADC auf 12 bit non-lin in BRAW speichern und auf 16 bit lin im SDK gehen, hat BM schon bestätigt.WoWu hat geschrieben: ↑Mo 17 Sep, 2018 23:01 @Cantsin
Auch die 12 Bit geben zu denken ... warum sollte ein Sensor mit der passenden Dynamik bei 12 Bit schluss machen.
Das war nur in den DNGs so der Fall, weil TIFF sich per definition auf 12 Bit beschränkt hat.
Aber auch andere Punkte der Beschreibung waren ziemlich komisch.
Nun ja, lasst uns abwarten.
Vereinfacht gesagt, Debayering ist ein 9stufiger Prozess, der sich gut in zwei generelle Schritte aufteilen lässt.dienstag_01 hat geschrieben: ↑Mo 17 Sep, 2018 22:15
Aber das BM einen Codec, der das Demosaicing *teilweise* (was immer das heisst) in-Camera erledigt, dann RAW nennt, lässt dich nicht an deinen eigenen Einschätzungen zweifeln?
Und ich sehe das nicht mal als schlecht. Vielleicht entsprechen weder BMR noch PRR den Anforderungen mancher Puristen, das mag ja sein. Aber man möge den blöden Praktikern doch die Change geben mit diesem Schei.... glücklich zu werden. Ist deren gutes Recht, finde ich.Frank Glencairn hat geschrieben: ↑Di 18 Sep, 2018 10:22 "Okay, ihr seid mit den Möglichkeiten eines raw workflow genauso völlig überfordert wie eure schwachbrüstigen Rechner, die sich weit jenseits aller unserer Mindestanforderungen bewegen, deshalb nehmen wir euch jetzt am Händchen, und bauen ne Version, mit der jeder Schüler und sein billig Laptop zurecht kommt".
Denke für viele selbstverständlich durch Beobachtungen im Umfeld aber trotzdem ein ganz wichtiger Punkt!!Frank Glencairn hat geschrieben: ↑Di 18 Sep, 2018 11:47 Der Grund warum ich das teilweise kritisch sehe, ist daß die Latte halt für diejenigen, denen immer alles zu viel und zu schwer ist, tiefer gelegt wird, anstatt daß sie versuchen besser zu werden, ihre Fähigkeiten zu schulen, und irgendwann mal auf adequate Hardware aufzurüsten.
Das ist so wie im Kindergarten, wo es keine Herausforderungen und keinen Willen zum Sieg mehr gibt, sondern bereits einen Pokal fürs Mitmachen, auch wenn man völlig versagt hat. Das zieht sich dann durch die Schule weiter durch bist zum Studium, wo manche Studenten massive Schwierigkeiten mit - selbst einfacher - Mathematik und Rechtschreiben haben. Trash in - trash out.
Is vielleicht jetzt etwas überspitzt formuliert, aber ich denke permanent die Anforderungen für alles immer nur zu senken, führt auf lange Sicht halt in eine Sackgasse, weil es überhaupt keine Herausforderung und keinen Ansporn mehr gibt, sich irgendwo zu verbessern.
Wenn man das zu ende denkt, sind wir irgendwann mal wieder auf allen Ebenen bei einem MagicBullet angelangt - und das hatten wir doch seit ein paar Jahren eigentlich schon hinter uns gelassen.
Was die adäquate Hardware betrifft: Der Performancesprung von BRAW ist mir äusserst willkommen. Für die Pocket 4K hatte ich eigentlich schon ein GPU-Upgrade eingeplant, das nochmal ca. die Hälfte des Kamerabodys gekostet hätte. Doch siehe da, das 4,6K-BRAW-Demomaterial läuft auf meinem fast vier Jahre alten Rechner prima.Frank Glencairn hat geschrieben: ↑Di 18 Sep, 2018 11:47 Der Grund warum ich das teilweise kritisch sehe, ist daß die Latte halt für diejenigen, denen immer alles zu viel und zu schwer ist, tiefer gelegt wird, anstatt daß sie versuchen besser zu werden, ihre Fähigkeiten zu schulen, und irgendwann mal auf adequate Hardware aufzurüsten.
den punkt sehe ich genau gegenteilig. die diversen lösungen auf ASICs mögen zwar ihren zweck durchaus erfüllen bzw. verhältnismäßig einfache umsetzungen ausgesprochen effizient abwickeln, aber wo es tatsächlich um qualität, eingriffsmöglichkeiten und flexibilität geht, sind sie natürlich softwarelösungen auf leistungsstarken workstations signifikant unterlegen.Roland Schulz hat geschrieben: ↑Di 18 Sep, 2018 12:12 Gerade den Punkt Debayering und besonders Noise Reduction sehe ich im Post heute noch als sehr komplex und schwierig.
Was Resolve Studio da bietet ist sicherlich schon potent (halbwegs effektiv und schnell), kann in den meisten Fällen aber auch keine Ergbnisse leisten die hochoptimierte SoCs liefern.
ja -- ich würde hybride ansätze auch nicht per se verteufeln wollen. eine derartige herangehensweise kann der praxis oft durchaus gerecht werden.Roland Schulz hat geschrieben: ↑Di 18 Sep, 2018 12:12 Ich denke diese „Hybridlösungen“ bieten Vorteile, nehmen aber auch ein Stück Potential denn eins ist klar, zumindest in der Theorie liefert ein „reines“ RAW Bild das denkbar meiste Potential.
Es immer eine Frage der Definition.
Es gibt diesen Mythos offenbar, dass man Raw ungestraft pushen kann, Stichwort Belichtung in der Post. In gewisser Hinsicht ließe es sich allerdings tatsächlich besser pushen, da komprimiertes Rauschen besonders schlimm ist - Beweis sind Millionen Lowlight-Youtube-Videos. Aber von dieser Sache mal abgesehen ist optimale Belichtung bei, sagen wir, 8-bit LOG und Raw gleich erstrebenswert, und daher unterscheidet sich das in dieser Hinsicht null.
Das wird aber eben auch immer wieder falsch verstanden.
Also ich drehe jetzt seit 2012 fast ausschließlich raw, und möchte es jedenfalls nicht mehr missen - aber natürlich nicht jeder hat diesen Qualitätsanspruch, den meisten reicht halt irgendwas zwischen "gut genug" und "sieht man eh nicht". Mir nicht - warum sollte ich nicht in der besten Qualität aufnehmen, die meine Kamera hergibt?
Warum nutzt du BM-Kameras, wenn dir “gut genug” gar nicht ausreicht? Die UMs sind doch der Inbegriff für “gut genug”.Frank Glencairn hat geschrieben: ↑Mi 19 Sep, 2018 19:25Also ich drehe jetzt seit 2012 fast ausschließlich raw, und möchte es jedenfalls nicht mehr missen - aber natürlich nicht jeder hat diesen Qualitätsanspruch, den meisten reicht halt irgendwas zwischen "gut genug" und "sieht man eh nicht". Mir nicht - warum sollte ich nicht in der besten Qualität aufnehmen, die meine Kamera hergibt?
Frank dreht die „guten“ Sachen mit Miet-REDs!!7nic hat geschrieben: ↑Mi 19 Sep, 2018 19:43Warum nutzt du BM-Kameras, wenn dir “gut genug” gar nicht ausreicht? Die UMs sind doch der Inbegriff für “gut genug”.Frank Glencairn hat geschrieben: ↑Mi 19 Sep, 2018 19:25
Also ich drehe jetzt seit 2012 fast ausschließlich raw, und möchte es jedenfalls nicht mehr missen - aber natürlich nicht jeder hat diesen Qualitätsanspruch, den meisten reicht halt irgendwas zwischen "gut genug" und "sieht man eh nicht". Mir nicht - warum sollte ich nicht in der besten Qualität aufnehmen, die meine Kamera hergibt?
Unser Fachmann wieder… Hauptsache merkbefreites Apple-Bashing. Herrlich. 😄
Du irrst dich. Du scheinst auch nichts über die Vergangenheit beider Firmen zu kennen, oder? Denn dann wüsstest du wie lange du darauf warten kannst. Wenn BMD es ihnen überhaupt lizensieren würde, was ich doch sehr bezweifele, werden die es mit Sicherheit gar nicht erst wollen. Wozu überhaupt? Welchen Sinn sollte das machen und welchen Vorteil hätte AtomOS (oder BMD) davon? Es sollen doch alle in-camera machen, oder nicht? Wozu brauche ich dann ein Inferno etc.? Erst recht sobald AtomOSs Exklusivvertrag ausläuft wird BM raw nicht nur technisch schlechter dastehen wenn du mich fragst. Welcher andere Kamerahersteller wird deiner Meinung nach extra das Codec eines quasi-Konkurrenten implementieren bevor sie nicht einfach bei ihrem eigenen raw bleiben oder eben den höhenwertigen (und echten) eines nicht-Konkurrenten implementieren, von dem sie sowieso schon diverse andere Geschmacksrichtungen bereits unterstützen? Canon? Sony? Arri etwa? Und warum? Ich tippe einfach die Sensordaten über einen Port rauszuschicken (gar über HDMI?) und es tatsächlich AtomOS zu überlassen die weit einfachere Aufgabe ist, wenn auch (vermutlich) weniger profitabel, aber wer weiß… bin kein Kamera/Sensorhersteller.
Ähm, Stolz? Och bitte. Mal abgesehen davon, dass Apple nicht so ein Kindergarten spielt (oder kannst du ein anderes Beispiel nennen?) und es sehr wohl unterstützen würde, wenn sich tatsächlich eine nennenswerte Nachfrage ergibt, müssen die es SELBST doch gar nicht tun! Wenn von mir aus Nikon oder sonst wer BM raw implementiert, dann schreiben eben DIE das Plugin. Ist doch logisch. Oder von mir aus BMD selbst (worauf ich auf lange Sicht eher tippe). Oder musst du z.B. für RED etwa nicht erst selbst den Treiber VON RED runterladen um RED raw verarbeiten zu können? 😏