Newsmeldung von slashCAM:
Blackmagic RAW (BRAW) sollte in der Qualität eigentlich CinemaDNG in nichts nachstehen. Warum der Vergleich jedoch von Anfang an hinkt, zeigt unsere Kurzanalyse...
Hier geht es zum slashCAM Artikel:
Test: Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018
Antwort von WoWu:
Schönen Dank für den Überblick .. das gibt doch schon eine Menge Antworten.
Eines finde ich allerdings gewagt
dass der gesamte Codec einfach grundsätzlich wie analoger Film "aussieht".
Bei analogem Material sind die Kristalle der Informationsträger und damit immer Konturscharf, was wir als Grain verstehen.
Hier aber wird das Vermeiden des Zipper-Effektes mit dem Verlust an hohe Ortsfrequenz bezahlt.
Doch gerade die hohen Frequenzen machen 4/8K erst sinnvoll.
Der Codec wirkt also in gewisser Weise wieder wie das Low-pass-Filter.
Vielleicht würde ich das statt mit analogen Film, eher mit „Soap“ vergleichen.;-)
Antwort von Frank Glencairn:
Ne Menge Leute haben einiges an Geld für einen zusätzlichen OLPF ausgegeben, um genau den Effekt zu erzielen, den man jetzt kostenlos bekommt :-)
Antwort von WoWu:
Ja, das stimmt ... aber hätte man alle De-Bayering filter im Zugriff, könnte man dem Zipper Effekt auch ändert zuliebe Rücken, ohne sich die Bildinformationen zuzuschmieren.
Antwort von Frank Glencairn:
Das spielt beim bewegten, und mindestens noch ein mal (wenn nicht öfter) komprimierten Bild überhaupt keine Rolle mehr - niemand der noch ganz bei Trost ist, stoppt einen Film, und vergleicht dann einzelne Pixel im Standbild bei 800% Vergrößerung mit der Nase am Monitor.
Antwort von -paleface-:
@slashcam
Ein normales Bild von einer Person habt ihr nicht zufällig mit und ohne BRAW.
Ich verstehe was da grob passiert und sehe auch den unterschied.
Aber wenn das ganze Bild einen anderen Look bekommt...das würde mich jetzt doch mal interessieren wie das ausschaut.
Antwort von rudi:
-paleface- hat geschrieben:
@slashcam
Ein normales Bild von einer Person habt ihr nicht zufällig mit und ohne BRAW.
Ich verstehe was da grob passiert und sehe auch den unterschied.
Aber wenn das ganze Bild einen anderen Look bekommt...das würde mich jetzt doch mal interessieren wie das ausschaut.
Weitere Betrachtungen sind geplant, aber nicht mehr vor der Photokina. Ich wollte nur mal schon mit diesen Sachen raus, bevor die wieder 2 Wochen in der Schublade liegen.
Aber einen Kopf filmen kann ja jeder, der die URSA mini Pro 4,6K hat. Nachdem man nur den Codec umschalten muss, ohne die Kamerapostion zu verändern, fallen pixelgenaue Vergleichsbilder nicht schwer. Auch ProRES wäre spannend, jedoch müsste man dann mit einem 4K Downscale vergleichen. Mal sehen, was andere in den nächsten 2 Wochen produzieren ;)
Antwort von cantsin:
Der Test bestätigt zwar eine Vermutung, die ich hier schon früher geäußert hatte - dass es sich bei BRAW eigentlich um 12bit-Log handelt. Aber ich muss ehrlich sagen: In der Praxis hat dieses neue Format eigentlich nur Vorteile ggü. CinemaDNG, gerade wegen des weicheren Renderings und der wegfallenden Moiré-Problems. Dank 4K-Sensormatrix dürfte man damit äußerst ansprechendes 2K-Material 'rausrendern.
Die Frage wäre nur noch, wie die Sache bei extremem Low Light/Extremer Unterbelichtung aussieht, wo CinemaDNG (ohne kamerainterne Rauschfilterung) in Kombination mit Neat wahrscheinlich zu besseren Ergebnissen führt.
Wenn ich richtig rechne, ist die Datenrate von 12:1 BRAW bei der Pocket 4K und 4K DCI ungefähr 24 MB/s (auf der Basis der Angabe, dass bei der 4.6K URSA 32MB/s anfallen). Dann müssten (a) Mittelklasse-SD-Karten völlig ausreichen und (b) eine 256 GB-Karte, die auf der alten Pocket rund 75 Minuten CinemaDNG speichern konnte, jetzt 180 Minuten BRAW 12:1 schaffen.
Das ist doch eine Ansage.
Antwort von WoWu:
"Frank Glencairn" hat geschrieben:
Das spielt beim bewegten, und mindestens noch ein mal (wenn nicht öfter) komprimierten Bild überhaupt keine Rolle mehr - niemand der noch ganz bei Trost ist, stoppt einen Film, und vergleicht dann einzelne Pixel im Standbild bei 800% Vergrößerung mit der Nase am Monitor.
Gerade bei Bewegtbild fallen solche Effekte stören auf.
Und die bisherigen Eingriffmöglichkeiten haben es eben erlaubt, im Demosaicing solche Effekte zu eliminieren, ohne dass es Auflösung gekostet hat.
Hier macht der Codec genau das wieder, von dem wir gehofft hatten, es im Interesse höherer spatiale Auflösung nun endlich los zu sein.
Pustekuchen nun gibt es das optische Lowpassfilter als Codec.
Antwort von mash_gh4:
WoWu hat geschrieben:
Gerade bei Bewegtbild fallen solche Effekte stören auf.
Und die bisherigen Eingriffmöglichkeiten haben es eben erlaubt, im Demosaicing solche Effekte zu eliminieren, ohne dass es Auflösung gekostet hat.
...
Pustekuchen nun gibt es das optische Lowpassfilter als Codec.
naja, so überzeugend und voller eingriffsmöglichkeiten waren die demosaicing lösungen in den video-programmen leider auch bisher nicht. im fotoumfeld gibt es da wesentlich besseres, auf das deine argumenation eher zutreffen dürften. aber ich glaub auch, dass BMD da einige wichtige möglichkeiten ganz grundsätzlich verbaut.
das mag zwar vielleicht keine so große rolle spielen, wenn man das hauptaugenmerk auf die farbverarbeitung legt, aber in anderen dingen wird es hier ziemlich schwierig, den vollzogene aufbreitungschritt rückgängig zu machen. ich könnte mir gut vorstellen, das das auch etwas damit zu tun hat, dass BMD ja keine eigenen optiken baut bzw. über wenig knowhow hinsichtlich der einbeziehung von rechnerischen korrekturen in derartige opto-elektrische gesamtsysteme verfügen dürfte. dort spielt es nämlich schon eine sehr große rolle, auch in diese vollen ursprünglichen auflösung und anordnung in die daten eingreifen zu können.
Antwort von WoWu:
Das ist wohl richtig ... in den $299 NLEs findet sich solche Software sicher nicht in nennenswerter Anteilen.
Antwort von mash_gh4:
WoWu hat geschrieben:
Das ist wohl richtig ... in den $299 NLEs findet sich solche Software sicher nicht in nennenswerter Anteilen.
dafür findet man solche features halt in der €0,- software, die cantsin und ich für die foto-bearbeitung bevorzugen. ;)
Antwort von Roland Schulz:
Danke erstmal an Rudi für den Überblick und die anteilige Aufklärung dieser neuen „Formate“!
Es scheint sich also zu bewahrheiten was ich schon bei PRR zu predebayertem Material vermutet hatte.
Glaube wo wir noch ein bisschen im Nebel stehen ist der Werdegang einer RAW Datei im klassischen Workflow, an dessen Anfang „ich“ immer noch das Demosaicing sehe.
Solange wir da aber keine breiten Entwicklereinblicke erhalten bleibt das wohl soweit verschlossen, bis auf dass BMD dieses im Resolve Manual so auch ganz klar im Blockschaltbild beschreibt.
Es ist aber eigentlich ohnehin egal und die zur Verfügung stehenden Informationen und Korrekturwerte können nach dem Debayering und vor einer eventuellen Kompression noch genau so gut angewendet werden, wenn der Prozess geschlossen und aufeinander optimiert ist, umgekehrt wird‘s eher komplizierter.
Weiter sehe ich bei BRAW derzeit Schwächen in der Ausführung denn die Modulation gegenüber CDNG scheint nach den ersten Vergleichen oben doch ein Stück in den Keller zu gehen.
Wir nähern uns auch dem weiter an, dass es bald kaum noch eine Rolle spielt einen (Pseudo-)RawCodec zu nutzen oder einen hochentwickelten Intra- oder sogar Interframecodec.
Das hochentwickeltes In Camera Processing welches unter Zuhilfenahme von allen in der Kamera verfügbaren Umgebungsdaten (Objektiveigenschaften, gewählte Brennweite für die Entfernung von CAs, Sensortemp. etc. etc.) durchgeführt wird „RAW“ bald nicht mehr nachsteht sehe ich langsam als abzusehenden Trend.
Eine HEVC Ausgabe z.B. mit ähnlicher Bitrate wird so einem PseudoRAW ganz bald überhaupt nicht mehr nachstehen, eher wird durch höherentwickelte Kompression dort mit gleicher Datenrate mehr Qualität möglich sein.
Bei den Encodern sehe ich auch einen Trend des Qualitätszuwachses den BRAW vielleicht erstmal noch entwickeln muss.
Gutes Debayering ist aufwändig und ggf. ist das (noch immer) nicht die Stärke des Herstellers, der verwendeten ASICs bzw. der Algorithmen in den Kameras.
Wenn das im Vergleich die erzielbaren Ergebnisse zwischen BRAW und CDNG sind zeigt BRAW elementare Defizite in der Auflösung.
Wenn wir uns nochmal den kürzlichen a7R3 DPR Fotovergleich ansehen wird man feststellen dass es Hersteller gibt, die besser debayern als z.B. ein langjährig gewachsener ACR Decoder, im Beispiel Sony das aber zugegeben auch nicht erst seit gestern macht.
Da wird eine höhere Auflösung erzielt und trotzdem bleibt Aliasing außen vor.
Wenn wir hier mit entsprechender Quantisierung und Datenrate vorgehen haben wir auch keinen theoretischen Nachteil mehr gegenüber „komprimiertem“ RAW.
Die Frage ist allerdings auch nicht nach C(DNG)/RAW an sich, sondern danach wie der Decoder aussieht und implementiert ist.
Bei BRAW wird dagegen derzeit anscheinend doch eine Menge bereits bei der Aufzeichnung vers..., ähm suboptimal vorbeeinflusst.
@Frank: warum glaubst Du eigentlich immer nur dass jede Aufnahme aus der Hand geführt bei 300km/h schnellen Verfolgungsjachten entsteht?
Antwort von Frank Glencairn:
Weil gefühlten 90% der Leute die hier so schreiben, ein Stativ als eine viel zu komplizierte, schwere und aufwändige Zumutung erscheint, mit der sie auf keinen Fall belästigt werden können. Gimbal oder Schulter, wenn nicht gar Freihand scheint mir - nach jahrelangem lesen hier - der Hauptschwerpunkt ;-)
Jetzt mal im Ernst, wie viele völlig statische Einstellungen macht man denn? Und ich meine jetzt nicht locked down Kamera auf dem Stativ - das mach ich oft, sondern wo sich im Bild absolut nichts und niemand bewegt - wie ein Standbild quasi.
Ansonsten ist der Charakter von Bewegtbild eben genau das - Bewegtbild.
Deshalb halte ich das statische abfilmen von (womöglich noch schwarz/weiß) Charts genauso für Blödsinn, wie das beurteilen der Auflösung ohne das ganze durch den kompletten üblichen Workflow gejagt zu haben - also inklusive Delivery Komprimierung.
Is ja toll wenn mein raw hier so super Auflösung am Schnittplatz hat, aber keiner außer mir bekommt es jemals so zu sehen - was ich hier sehe ist also völlig bedeutungslos. Und was glaubst du, was ein H264 mit der tollen Auflösung und Schärfe macht? Er wirft über 80% aller Bildinformation aus dem Fenster. Welche Aussage haben also solche Charts? Entscheidend ist nur die Gesamt-Anmutung die der Endnutzer zu sehen bekommt, und das ist nicht bei 800% Vergrößerung als Standbild.
Zumal der Test ein bisschen Äpfel und Birnen ist. BRAW und ProRes nutzen den neuen Debayering Algorithmus, DNG noch den alten.
Was das BRAW betrifft, hab ich's schon irgendwo schon mal geschrieben, Debayering ist ein Mehrstufiger Prozess - in der Kamera wird nur die Verlaufsvorhersage, Edge Reconstruction und Noise Management durchgeführt - BRAW kommt immer noch als undebayertes schwarz/weiß Bild in Resolve an.
Alles andere wär ja auch völliger Blödsinn.
Der große Vorteil von raw ist ja die geringe Datenrate, im Vergleich zu einem bereits debayerten Bild. Warum sollte BM diesen Vorteil aus dem Fenster werfen, und das dann durch noch stärkere Kompression wieder ausgleichen? Das wäre nicht nur völlig kontraproduktiv, das ginge völlig gegen die DNA von BM.
Abgesehen von Noise Management (offensichtlich ein nötiger Schritt für effiziente Kompression) hatte man auch vorher mit CDNG keinen Einfluss auf diese Parameter - weder in der Kamera, noch in der Post - da hat sich also mit BRAW nix geändert.
Antwort von iasi:
fein - neben geringer Datenrate bietet der Codec also auch den weichen, fließenden Look von Filmkorn.
BMD ist z.Z. wirklich sehr innovativ.
Bin gespannt, wie BRAW sich in der Pocket 4k schlägt.
Antwort von Frank Glencairn:
Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der Datenrate, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der Datenrate, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.
also das versteh ich nun nicht
Wenn dir die Datenrate nicht wirklich wichtig ist und du also auch unkomprimiertes Raw nutzen könntest, weshalb dann BRAW?
Antwort von Frank Glencairn:
Weil es weicher und gefälliger ist (ich brauch weder einen zusätzlichen OLPF noch einen Diffusion Filter), und mit besserer Farbseperation, was sich beim Einsatz von Qualifiern bemerkbar macht.
Antwort von Roland Schulz:
Also in meinen zwei Generationen HEVC gibt‘s nicht so ne Dämpfung bei der Modulation, und nein, Du sollst auch keine „Fotos“ filmen!!
Das klingt bei Dir immer nur so als würde sich alles mit Lichtgeschwindigkeit bewegen und Motionblur ohne Ende erhalten was solche Auflösungsverluste rechtfertigen würde.
Antwort von Roland Schulz:
"Frank Glencairn" hat geschrieben:
Weil es weicher und gefälliger ist (ich brauch weder einen zusätzlichen OLPF noch einen Diffusion Filter), und mit besserer Farbseperation, was sich beim Einsatz von Qualifiern bemerkbar macht.
Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch „kein“ OLPF!
Keine Artefakte und trotzdem Auflösung.
Antwort von Frank Glencairn:
"Roland Schulz" hat geschrieben:
Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch „kein“ OLPF!
Keine Artefakte und trotzdem Auflösung.
Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?
Antwort von Roland Schulz:
"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:
Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch „kein“ OLPF!
Keine Artefakte und trotzdem Auflösung.
Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?
Wenn Du dir bei DPR doch mal die Samples der a7M3 oder a7R3 ansehen würdest könntest Du feststellen, dass Sony mittlerweile weiß wie‘s auch mit sehr schwachen OLPFs funktioniert, man da IC bereits „bessere“ Ergebnisse als ACR liefert.
Was interessieren mich Bastelbuden und Kleinserienhersteller ;-)!?
Antwort von freezer:
"Frank Glencairn" hat geschrieben:
Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der Datenrate, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.
Hast Du nicht die URSA Mini 4.6k?
Antwort von nic:
"Roland Schulz" hat geschrieben:
"Frank Glencairn" hat geschrieben:
Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?
Wenn Du dir bei DPR doch mal die Samples der a7M3 oder a7R3 ansehen würdest könntest Du feststellen, dass Sony mittlerweile weiß wie‘s auch mit sehr schwachen OLPFs funktioniert, man da IC bereits „bessere“ Ergebnisse als ACR liefert.
Was interessieren mich Bastelbuden und Kleinserienhersteller ;-)!?
Sony verbaut in seinen für Bewegtbild optimierten Kameras allerdings auch OLPFs. Bis hin zur F65 und Venice. Genau wie Canon und Panasonic.
Antwort von Roland Schulz:
Auch die a7 Kameras haben OLPFs, allerdings sehr schwache wie auch die Venice.
Geht ums Ergebnis und das passt in meinen Augen hervorragend.
Antwort von Frank Glencairn:
freezer hat geschrieben:
Hast Du nicht die URSA Mini 4.6k?
Und die Pro
Antwort von bennik88:
Danke für den interessanten Artikel und Vergleich der beiden “RAW” codecs. Ich nehme nun seit zwei Wochen abwechselnd mit beiden Codecs auf um h-roll of, FPN, und subjektive Schärfwarnehmung zu testen und der Artike hat nochmals einiges an interessantem Hintergrundswissen hinzugefügt.
Interessant ist hier auch das mehr und mehr der Unterschied zwischen großen Systemen wie der URSA Pro und der BMPCC4K verschwimmen.
Antwort von Rick SSon:
"Kristian Lam: Less options because beta."
Zitat eines BM Mitarbeiters
Antwort von Frank Glencairn:
Hatte heute mal etwas Zeit für einen Pixel Peeper Test.
Material unbearbeitet, direkt aus der Kamera in die Timeline
BRAW-COMPARSION.jpg
Untitled_1.1.1.jpg
Antwort von Knoppers:
wow cool. unter anderem sieht man auch mal wieder sehr schön, was 8,8 mpix bedeutet. so etwas erdet im allgemeinen pixelwahnschwachfug auf angenehme weise :)
Antwort von Frank Glencairn:
Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..
Antwort von mash_gh4:
naja -- richtig viel sagen die detailvergleiche nicht aus, weil hier offenbar das verwendete objektiv ziemlich an seine grenzen stoßen dürfte. so gesehen schaut ja alles relativ ähnlich glattgebügelt aus.
ich würde allerdings fast behaupten, dass man in den obersten beiden bilder -- also den RAW varianten -- in den schägen konturen des dachfensters und des schneefängers störende nebeneffekte erkennen kann, die in dieser form oft auf unzureichendes debayering zurückzuführen sind. (allerdings zeigt sich ganz ähliches auch bei farbunterabtastung in gebräuchlichen video-formaten.)
es wäre vermutlich interessant, dieses einzelbild bspw. im darktable auch mit anderen debayer-methoden zu entwicklen, um aufzuzeigen, dass sich derartiges mit geeigneten mitteln relativ problemlos vermeiden lässt.
wie weit derartige unterschiede in das praxis tatsächlich eine rolle spielen, ist natürlich eine andere frage? vermutlich dürften alle varianten den meisten realen ansprüchen genügen. trotzdem macht es natürlich einen entscheidenden unterschied aus, dass einem nur im falle von richtigem RAW diese möglichkeit offen steht, das debayering bei bedarf auch noch nachträglich zu korrigieren, während das ja bei den anderen aufzeichnungsvarianten völlig ausgeschlossen ist.
Antwort von Frank Glencairn:
Ich hab die Clips mal spaßhalber nach x264 umgerechnet - als gängiger Delivery Codec, den ja all unser Material irgendwann mal durchlaufen muß, damit es irgendjemand überhaupt sehen kann.
Die minimalen Unterschiede, die vorher noch zu sehen waren (bei 800% crop) sind dann alle weg, und alle Cips sehen danach quasi völlig gleich aus.
Es spielt also in dieser Liga (Auflösung/Sensor) überhaupt keine Rolle ob man Prores, raw oder BRAW aufnimmt, was die Linse oder das Debayering etc. hergeben.
Antwort von Knoppers:
mash_gh4 hat geschrieben:
vermutlich dürften alle varianten den meisten realen ansprüchen genügen.
wenn es nach diesem artikel geht: https://www.docma.info/blog/die-50-mega ... rmat-luege wäre auf mft optisch bei 5 mpix eh nativ schluss. kleinbild und mittelformatobjektive haben aber wohl auch so ihre optischen grenzen ;)
Antwort von mash_gh4:
"Frank Glencairn" hat geschrieben:
Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
nicht deshalb, weil es nicht darauf ankommen würde, was man tatsächlich letzten endes sieht, sonder vielmehr, weil die gängigen kompressionsmethoden natürlich alle div. tricks nutzen, um dort bandbreite einzusparen, wo es dem auge am ehesten entgeht. genau das lässt sich aber natürlich auch sehr leicht gegen sie ausspielen. mit ganz einfachen technischen bildeingriffen sieht man dann plötzlich ein scheinbar völlig ausreichend schönes bild in sich zusammenbrechen. aber auch diese demonstrationen kennen wir ja nun mittlerweile wirklich zur genüge...
Antwort von Knoppers:
mash_gh4 hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
baust du etwa vor jeder betrachtung ein messlabor auf?
Antwort von Frank Glencairn:
Ja, das Prores fällt natürlich schneller auseinander als die beiden raw Varianten, aber das liegt natürlich auch an der geringeren bittiefe.
Antwort von mash_gh4:
Knoppers hat geschrieben:
mash_gh4 hat geschrieben:
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
baust du etwa vor jeder betrachtung ein messlabor auf?
natürlich nicht -- aber beim vergleichen von codecs halte ich die div. dafür gebräuchlichen messmethoden (bspw. die hier: http://www.scikit-video.org/stable/measure.html) für einen ganz guten ausgangspunkt. darüber hinaus kann man dann ja auch noch differenzen sichtbar machen oder ganz spezifische kompressionsbedingte bildveränderungen (blockbildung, banding...) hervorheben.
während das im bezug auf codecs, wie man sie im weiteren workflow verwendet, recht einfach in sauber reproduzierbarer weise durchzuführen ist, stellt sich halt bei kameras immer das problem, wie man an die nötigen vergleichswerte in ihrer rohen und unveränderten form herankommt -- und zwar nicht nur im falle von ganz statischen motiven, sondern am besten auch noch mit richtig viel bewegung im bild, wo die codecs erst so richtig zeigen müssen, was sie können. da wird's dann gleich einmal ziemlich schwierig mit den meisten geräten und ihrem sehr beschränkten zugriff auf die RAW daten. im fall dieser speziellen kamera, kann man aber eben auch diesen aspekt eine wenig besser untersuchen, was das ganze doch recht spannend macht. ;)
Antwort von Knoppers:
mash_gh4 hat geschrieben:
während das im bezug auf codecs, wie man sie im weiteren workflow verwendet, reicht einfach in sauber reproduzierbarer weise durchzuführen ist, stellt sich halt bei kameras immer das problem, wie man an die nötigen vergleichswerte in ihrer rohen und unveränderten form herankommt -- und zwar nicht nur im falle von ganz statischen motiven, sondern am besten auch noch mit richtig viel bewegung im bild, wo die codecs erst so richtig zeigen müssen, was sie können.
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)
Antwort von mash_gh4:
Knoppers hat geschrieben:
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)
bei den leuten, die sich für solche sachen interessieren od. eben auch codecs entwickeln bzw. ständig weiter zu verbessern versuchen, gehört das zum täglichen brot.
siehe z.b.: https://arewecompressedyet.com/ od. https://wyohknott.github.io/image-formats-comparison/
Antwort von Knoppers:
mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)
bei den leuten, die sich für solche sachen interessen od. eben auch codecs entwickeln bzw. ständig weiter zu verbessern versuchen, gehört das zum täglichen brot.
siehe z.b.: https://arewecompressedyet.com/
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.
Antwort von domain:
WoWu hat geschrieben:
Bei analogem Material sind die Kristalle der Informationsträger und damit immer Konturscharf, was wir als Grain verstehen.
Bei Farbfilmen gibte es keine konturenscharfe Kristalle zu beobachten, weil sie im Entwicklungsprozess weggebleicht werden. Stattdessen sind im Mikroskop Farbwölkchen um die ehemaligen Kristalle zu erkennen, die insgesamt ein unschärferes weicheres Bild in den feinsten Details ergeben.
Also insofern bietet BRAW eine wirklich starke Annäherung an analoges Filmmaterial, was besonders im verminderten Hintergrundrauschen sichtbar wird.
Tolle Arbeit von BM.
Antwort von mash_gh4:
Knoppers hat geschrieben:
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.
ja -- wobei sich das vermutlich mit beiträgen in foren bzw. der diskussionskultur mancher kollegen durchaus ähnlich verhalten dürfte. ;)
Antwort von Knoppers:
mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.
ja -- wobei sich das vermutlich mit beiträgen in foren bzw. der diskussionskultur mancher kollegen durchaus ähnlich verhalten dürfte. ;)
die blanke wahrheit, duftet leider nicht immer nach rosen ;)
Antwort von mash_gh4:
Knoppers hat geschrieben:
die blanke wahrheit, duftet leider nicht immer nach rosen ;)
so wie ja auch die wahrheit über codecs den menschen zumutbar sein sollte.
Antwort von Knoppers:
mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
die blanke wahrheit, duftet leider nicht immer nach rosen ;)
so wie ja auch die wahrheit über codecs den menschen zumutbar sein sollte.
wer spass daran entwickelt, diese in seinem labor wissenschaftlich fundiert zu verifizieren, soll das selbstverständlich gerne tun.
Antwort von WoWu:
gKnoppers hat geschrieben:
wenn es nach diesem artikel geht: https://www.docma.info/blog/die-50-mega ... rmat-luege wäre auf mft optisch bei 5 mpix eh nativ schluss. kleinbild und mittelformatobjektive haben aber wohl auch so ihre optischen grenzen ;)
Ich stimme mit dem Link ziemlich überein, obwohl die Überabtastung darin deutlich überbewertet wurde.
Aber das Thema diskutieren wir hier schon seit Jahren
.
Die optischen Signale des Objektivs werden mit einer höheren Abtastrate bearbeitet als für die Darstellung der Signalbandbreite benötigt. Das führt praktisch zu höher auflösenden Bildern, aber bei weitem nicht in dem Maß, wie die höheren Megapixel-Zahlen es uns glauben machen wollen. Und sie werden durch die gesteigerte Oversampling-Auflösung auch nicht zwingend „besser“.
Die Überabtastung führt NICHT zu höher aufgelösten Bildern, weil eine Unschärfe (z.B. vom Objektiv) von sovielen Pixeln aufgenommen werden kann, wie man will.
Es bleibt eine Unschärfe.
Überabtastung sagt lediglich, dass wenigstens die doppelte Abtastfrequenz vorliegen muss, um das Signal überhaupt, brauchbar zu rekonstruieren.
Mit einer einfachen Abtastung wäre das Bild eigentlich gar nicht zu gebrauchen.
Aber selbst höhere Antastungen würden das Bild nicht höher auflösen sondern lediglich den Störabstand verbessern.
ABER ... um den Störabstand signifikant zu verbessern, also etwa um 3db, müsste man die 8-fache Überabtastung vornehmen.
Man sollte also in die Abtastungen nichts hinein interpretieren, was gar nicht drin ist.
Doppelte Abtastfrequenz ist das Minimum. um überhaupt ein Signal zu rekonstruieren und kein Qualitätskriterium „on top“.
Antwort von mash_gh4:
WoWu hat geschrieben:
Aber das Thema diskutieren wir hier schon seit Jahren
ja -- leider!
aber, nur weil du nicht müde wirst, die dinge hier sehr pesimistisch zu "sehen"(?), heist das ja noch lange nicht, dass die dinge auch so sein müssen.
in den aktuellen DXOmessungen, gibt's einige MFT festbrennweiten, die 13 P-Mpix an 20Mpix fotosensoren liefern.
das ist noch immer deutlich mehr als ausreichend für die aktuell genutzten video-auflösungen. klar ist es ein bisserl schlechter als bei den vollformat-spitzenreitern, wo tlw. bis zu 36 P-Mpix an 36.5 Mpix foto-apperaten (nikon) od. 45 P-Mpix an 51 Mpix (canon) gemessen werden, bezogen auf die tatsächliche sensorfläche erscheint der MFT formfaktor im vergleich trotzdem überproportional gut zu funktionieren. aber wie gesagt, selbst den höchst gesteckten anforderungen gegenwärtiger video-praxis genügt diese abbildungsleistung auf alle fälle.
im übrigen kann man ja ohnehin laufend mitverfolgen, wie diese empirisch ermittelten werte ständig mit den kameras bzw. immer noch absurderen sensorauflösungen mitwachsen, weil es eben im gegensatz zu deinen erwartungen nicht so sehr nur die schwächen der objektiven sind, die hier eine klar erkennbare grenze setzten, sondern immer das gesamtsystem die messung nach oben hin begrenzt.
Antwort von WoWu:
Das sind alles subjektive Betrachtungen, die Du da von Dir gibst.
Und schon „Pessimismus“ hat nichts damit zu tun denn festzustellen, dass Objektive nicht die Auflösung für viele Sensoren haben und nur die Hälfte dabei herauskommt, hat nichts mit einer Grundhaltung zu tun.
Ich habe nur versucht, etwas zu objektivieren, anders als Du und so Manchem hier.
Klar, viele halten jedes bunte und kontrastreiche Bild für ein gutes Bild, hauptsache es steht 50MPix auf dem Karton.
Aber ich kann mir schon vorstellen, dass der verlinkte Artikel Dir nicht so in den Kram passt.
Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
Bei Dir dauert es wohl noch einwenig.
Antwort von Jott:
Die neuesten „nicht mal 4“-Produktionen sollte man vielleicht doch mal gesehen haben.
Antwort von Roland Schulz:
Zudem bestimmt aber immer noch die projizierte Ausgabematrix des Sensors die Position der Abtastung und bei einer idealen Kamera auch die Auflösung in der diskreten Bildverarbeitung!
Antwort von Frank Glencairn:
....und wie ich oben schon sagte, spätestens nach der Delivery Komprimierung spielt all das keine Rolle mehr, weil die etwaigen Unterschiede einfach wegkomprimiert werden.
Antwort von Roland Schulz:
"Frank Glencairn" hat geschrieben:
....und wie ich oben schon sagte, spätestens nach der Delivery Komprimierung spielt all das keine Rolle mehr, weil die etwaigen Unterschiede einfach wegkomprimiert werden.
Bei mir beträgt die „Delivery Komprimierung“ aus dem NLE ins Wohnzimmer zwischen 70-150 in HEVCmain10, wäre bei ner UHD-BD in etwa das selbe - ist also doch ÜBERHAUPT KEIN Problem ;-)!
Antwort von Roland Schulz:
Dass Überabtastung bzw. Oversampling auch bei M43 zu Vorteilen UND höherer Auflösung führt erkennt man doch ganz leicht (besonders am rot/blau Chart, am wenigsten Pixel auf dem Sensor) an den 4K Videoscreenshots hier:
Unbenannt.PNG
Quelle: dpreview.com
https://www.dpreview.com/reviews/image- ... 9202483582
Wir hätten bei der 20MP GX9 zum einen eine höhere Farbauflösung (besonders blau/rot) gegenüber der 12MP GH5s die irgendwann auch mal 4:2:0 erreichen könnte, zum anderen gäbe es weniger Artefakte.
Was in "diesem Zusammenhang" ggf. auch noch interessant ist, wie gut sich eine kleine Sony RX100V mit einem noch kleineren 1" Sensor hier schlägt, welcher statt wie die 20MP GX9 aus ~5.5K statt ~5.2K oversampled. Die Darstellung zeigt hier noch weniger Artefakte und je nach Farbzusammenstellung eine noch höhere (Farb-)Auflösung - bei kleinerem Sensor wohlgemerkt, welcher einer höhere Anforderung an die Optik stellt!
Das wir aber auch mit der Oversampling GX9 immer noch keine 4:2:0 erreichen zeigt der Vergleich mit der Sony a6300, welche eine weitere Steigerung an Farbauflösung mit noch weniger Artefakten erkennen lässt und ebenfalls auf max. 4:2:0 begrenzt ist.
...weiterhin zeigt das oben noch einmal welche hohe Qualität Sony mittlerweile beim Debayering erreicht hat ;-)
Antwort von mash_gh4:
wenn es um die tatsächliche auflösung bzw. einschränkungen durch die objektive geht, halte ich es für wesentlich sinnvoller, nur die RAW sensordaten zu vergleichen:
zum Bild
aber natürlich kann es auch sinn machen, tatsächlich die fertig gebackenen video-files zu vergleichen. das ist halt leider eine deutlich schwerer zu deutende gegenüberstellung, weil hier z.b. solche interferenzmuster nicht unbedingt nur vom debayern od der sensorauflösung herstammen müssen, sondern genauso die folge unterschiedlicher filter beim farbsubsamplen und zahlreichen anderen bildaufbereitungsschritten sein können.
Antwort von Onkel Danny:
WoWu hat geschrieben:
Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
Das aus 4K Bayer, gute 2 Komma K rauskommen, ist klar bekannt.
Und Wowu, Du weißt sehr gut, das aus 8K auch 4K rauskommen können.
Aber bei redcodewanneberaw mit 6/8/10 zu 1 Komprimierung etc und billigen Ef Linsen wohl kaum.
Und das übersehen die meisten und schauen nur auf das leuchtende K.
Die Arri Alexa 65 schafft aus 6.5K locker 4K, aber auch nur durch volles Raw und entsprechend großen Sensor.
Oversampling ist leider nicht alles. Das bringt nur dann wirklich etwas, wenn das Processing dahinter auch vernünftig arbeitet und nicht alles verschlimmbessert und wegkomprimiert.
Das enorme denoisen und nachschärfen der Sonys gaukelt da gerne mal mehr vor, als da ist ;-)
greetz
Antwort von Roland Schulz:
...puhh!!!!
Antwort von iasi:
WoWu hat geschrieben:
Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
aha - nun postulieren wir wieder mal eine neue Grenze:
aus 8k bekommt man kein 4k
Nun also her mit dem empirischen Beweis.
Antwort von Roland Schulz:
mash_gh4 hat geschrieben:
wenn es um die tatsächliche auflösung bzw. einschränkungen durch die objektive geht, halte ich es für wesentlich sinnvoller, nur die RAW sensordaten zu vergleichen:
zum Bild
aber natürlich kann es auch sinn machen, tatsächlich die fertig gebackenen video-files zu vergleichen. das ist halt leider eine deutlich schwerer zu deutende gegenüberstellung, weil hier z.b. solche interferenzmuster nicht unbedingt nur vom debayern od der sensorauflösung herstammen müssen, sondern genauso die folge unterschiedlicher filter beim farbsubsamplen und zahlreichen anderen bildaufbereitungsschritten sein können.
Glaube es ging hier a) um Videobilder und b) im Vergleich um eine nativ auslesende Kamera gegen Oversamplingkameras (GH5s (nativ) gegen die anderen, nicht GH5!)).
Zudem konnte man Unterschiede im (Video-)Debayering der verschiedenen Hersteller sehen. Jetzt sehen wir immer nur ACR was zudem u.A. Sony Debayering nachsteht.
Mit Video hat das so auch nichts mehr zu tun.
Auf der anderen Seite sehen wir dass die jetzt noch höher dargestellte Auflösung kein Problem für die Optiken darstellt.
Antwort von mash_gh4:
"Roland Schulz" hat geschrieben:
Glaube es ging hier a) um Videobilder und b) im Vergleich um eine nativ auslesende Kamera gegen Oversamplingkameras (GH5s (nativ) gegen die anderen, nicht GH5!)).
naja -- mir ging's hier hauptsächlich um franks bilder, die ich tatsächlich für eine ziemlich bereichernde quelle halte.
ansonsten hab ich mich mit meiner geringfügigen korrektur der gegenübergestellten kameras nur darum bemüht, einigermaßen ähnliches miteinander zu vergleichen, statt die üblichen taschenspielertricks hier im forum stillschweigend zur kenntnis zu nehmen.
"Roland Schulz" hat geschrieben:
Mit Video hat das so auch nichts mehr zu tun.
an der kritik ist natürlich etwas berechtigtes dran. man kann durchaus einfordern, dass man sich wirklich nur auf das fertig gebackene video-resultat bezieht, weil uns ja viele consumer-kameras, abgesehen von exotischen ausnahmefällen, wie bspw. zeitraffer sequenzen, ohnehin nichts besseres bieten. aber das sollten wir dann wirklich in in anderen threads diskutieren. hier geht's ja schwerpunktmäßig tatsächlich um die relevanz von RAW material.
"Roland Schulz" hat geschrieben:
Zudem konnte man Unterschiede im (Video-)Debayering der verschiedenen Hersteller sehen. Jetzt sehen wir immer nur ACR was zudem u.A. Sony Debayering nachsteht.
in dem punkt würde ich dir wirklich widersprechen. die interferenzmuster, die man in den von dir geposteten kameravergelichen sieht, müssen keineswegs vom debayern stammen! wie ohnehin schon weiter oben angesprochen, wirken sich bspw. auch verschiedene skalierungsmethoden und filter bei der farbunterbatastung auch in genau dieser weise aus. was davon tatsächlich die ursache ist, lasst sich daher in der regel kaum mehr eruieren. das ist mit ein grund, warum ich eigentlich nicht gerne über derartige black boxes diskutiere.
im übrigen gibt es ja auch noch das problem, dass die verschiedenen methoden und schwerpunktsetzung bei der bildaufbereitung immer mit einem abwägen von vor- und nachteilen verbunden sind. deshalb gibt's dann auch immer verschieden tests, in denen sich die einen kameras von den andere scheinbar auffällig positiv hervorheben, während es sich bei anderen tests plötzlich wieder genau umgekehrt verhält.
im resolve forum gibt's dazu seit wochen einen wirklich spannenden thread, wo man unheimlich schwer sagen kann, ob die dort beobachteten eigenheiten des programs im bezug auf das farbsubsampling bzw. dessen ganz auffällig kontraproduktive folgeerscheinungen nicht doch auch ursprünglich einer durchaus lobenswerten absicht entsprungen sein könnten, die eben mit hilfe von filtern genau solche störenden effekte beim downsamplen abzuschwächen versucht. aber auch dort geht das offenbar mit ganz massiv störenden anderen folgen hand in hand. und bei den bildaufbeitungsketten in kameras ist das nicht anders -- außer natürlich, dass sich dort das problem einer generative verschlechterung durch mehrmalige anwendung solcher filter natürlich in der praxis nicht stellt...
"Roland Schulz" hat geschrieben:
Auf der anderen Seite sehen wir, dass die jetzt noch höher dargestellte Auflösung kein Problem für die Optiken darstellt.
dann verstehen wir uns ja wenigstens in diesem einen, durchaus nicht unwichtigen, punkt.
Antwort von roki100:
Auf der Seite 2 wird Rauschen zwischen BRAW und CDNG verglichen. Wie sieht es bei andere RAW Formate aus z.B bei Arri RAW?
Wenn ich CDNG Bild in Affinity Photo oder in Resolve näher zoome, sehe ich diese puzzle von Pixel nicht. Es sieht viel mehr nach BRAW aus. Wie wurde das realisiert? Sieht man das nur bei 4K Bild?
Antwort von roki100:
roki100 hat geschrieben:
Wenn ich CDNG Bild in Affinity Photo oder in Resolve näher zoome, sehe ich diese puzzle von Pixel nicht. Es sieht viel mehr nach BRAW aus. Wie wurde das realisiert? Sieht man das nur bei 4K Bild?
ich habe mich schon öfter gefragt wie man das realisiert und nun habe ich zufällig ähnliche Artefakte entdeckt:
Bildschirmfoto 2019-11-09 um 01.52.37.png
(Zoom)
Und wenn ich nun in Resolve unter Sizing Pan und Tilt auf 0.500 setze, dann ist es weg:
Bildschirmfoto 2019-11-09 um 01.51.31.png
Und hier das ganze Bild (oben rechts sind die Artefakte zu sehen):
Bildschirmfoto 2019-11-09 um 02.36.40.png
(nicht optimal fokussiert, doch das ist die einzige stelle wo die Artefakte zu sehen sind)
...mit Pan und Tilt auf 0.500:
Bildschirmfoto 2019-11-09 um 02.37.09.png
siehe auch hier https://forum.blackmagicdesign.com/view ... =2&t=51936 ..und hier https://forum.blackmagicdesign.com/view ... =2&t=62226 und hier https://forum.blackmagicdesign.com/view ... 32&t=97881 uvm.
Die frage ist nun, handelt es sich hierbei um ein schlechteres CinemaDNG Filmgrain im Vergleich zu BRAW? Ich denke, nein...
Es lässt sich ja nachträglich einfach in DR (14) korrigieren und das sogar ohne Schärfeverlust... ;)
Antwort von Darth Schneider:
Jungs, das ist jetzt aber Pixelpiping in seiner reinsten Form. Der langweiligste Threat seit Jahren....
Wollt ihr nicht lieber mal einen Film drehen ?
Gruss Boris
Antwort von roki100:
@DS. Ich denke hier filmen alle und man kann ja darüber diskutieren. Gerade was WoWu da schreibt, finde ist sehr interessant. Aber auch was Frank schreibt ebenso.... Nur dass das mit OLPF nicht ganz stimmt, denn, BRAW produziert ebenso moiré (zumindest mit der BMPCC4K)....
Der Thread ist alt. Ich habe es nochmal hoch geschoben. Ich betrachte das rangezoomte Beispiel von CinemaDNG, etwas kritisch. Noch kritischer finde ich, dass BMD schon länger darüber bescheid weiß, doch keine Firmware angeboten haben (obwohl die Lösung nicht kompliziert ist, siehe oben). Der Mitarbeiter von BMD namens CaptainHook behauptet stattdessen, dass diese Muster bei CinemaDNG keine echte Bildinformationen sind und fälschlicherweise nimmt man das als schärfe wahr, was aber keine schärfe sei. Und das ist eben nicht richtig. Wenn man Pan und Tilt auf 0.500 verschiebt, wird das korrigiert und die schärfe bleibt. Siehe auch das: https://forum.blackmagicdesign.com/view ... 32&t=97881 und BMD reagiert nicht... komisch.
Gut, dass man es nachträglich in DR korrigieren kann.
Antwort von Frank Glencairn:
Das was du da "korrigierst" spielt beim laufenden Film und 100% sowieso keine Rolle.
Antwort von roki100:
"Frank Glencairn" hat geschrieben:
Das was du da "korrigierst" spielt beim laufenden Film und 100% sowieso keine Rolle.
ist bei 100% für einen Augenblick auch zu sehen (siehe oben ganze Bild).
Ich habe es bis jetzt nur einmal gesehen und das Bild gepostet. Ich bin zwar kein Profi und mich stört das auch nicht wirklich...und wenn man es nachträglich so einfach korrigieren kann, ist es ja in Ordnung. Ich finde es dennoch schade, dass seitens BMD sich da nichts getan hat und etwas später behaupten wird, dass BRAW in diesem Fall besser sei und dass diese CinemaDNG-Muster, keine echte Bildinformationen ist und fälschlicherweise als schärfe wahr genommen wird. Wenn ich bei meinem Vergleich, oben rechts (wo das Muster zu sehen ist), auf das licht schaue, dann sind Aliasing mit der einfache Korrektur auch weg (was aber keine Aliasing sind, sondern wegen das Muster nur so aussieht) :
ohne Pan und Tilt Korrektur:
Bildschirmfoto 2019-11-09 um 18.36.00.png
mit:
Bildschirmfoto 2019-11-09 um 18.36.10.png
Pixelgenaues Bild. Kein Muster, alles sauber.
Antwort von soulbrother:
Servus,
k.A. ob es sinnvoll ist, meine Frage hier anzuhängen...mal sehen...
Ich suche grad nach den Möglichkeiten und Einschränkungen der RAW Video Formate.
Als Nikon Nutzer (noch DSLR) wäre eine Z6 oder 7 interessant, da ich ja immer Foto und Video brauchen werde. Mit Objektiven bin ich mehr als genug eingedeckt, daher ist erstmal Nikon gesetzt.
Also, im Artikel hab ich gelesen, dass BRAW (fast) keine Lichterwiederherstellung erlaubt, sondern nur ISO und Weißabgleich. Ist das so, oder ist das nur in Verbindung mit Premiere so und mit Resolve geht doch etwas mehr?
Ich arbeite nunmal mit Premiere...
Hätte ich mit der Nikon Z und ProRes RAW Vorteile gebenüber dem BRAW, es geht mir dabei hauptsächlich um eine möglichst große "Reserve" bei der Nahcbearbeitung - wenn also die Aufnahmen nicht optimal belichtet sind, sprich WA, Lichter und Tiefenkorrekturen...