Logo Logo
/// 

Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:





Blackmagic RAW (BRAW) sollte in der Qualität eigentlich CinemaDNG in nichts nachstehen. Warum der Vergleich jedoch von Anfang an hinkt, zeigt unsere Kurzanalyse...



Hier geht es zum slashCAM Artikel:
Test: Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018




Antwort von WoWu:

Schönen Dank für den Überblick .. das gibt doch schon eine Menge Antworten.

Eines finde ich allerdings gewagt
dass der gesamte CodecCodec im Glossar erklärt einfach grundsätzlich wie analoger Film "aussieht".
Bei analogem Material sind die Kristalle der Informationsträger und damit immer Konturscharf, was wir als Grain verstehen.
Hier aber wird das Vermeiden des Zipper-Effektes mit dem Verlust an hohe Ortsfrequenz bezahlt.
Doch gerade die hohen Frequenzen machen 4/8K erst sinnvoll.
Der CodecCodec im Glossar erklärt wirkt also in gewisser Weise wieder wie das Low-pass-Filter.

Vielleicht würde ich das statt mit analogen Film, eher mit "Soap" vergleichen.;-)



Antwort von Frank Glencairn:

Ne Menge Leute haben einiges an Geld für einen zusätzlichen OLPF ausgegeben, um genau den Effekt zu erzielen, den man jetzt kostenlos bekommt :-)








Antwort von WoWu:

Ja, das stimmt ... aber hätte man alle De-Bayering filter im Zugriff, könnte man dem Zipper Effekt auch ändert zuliebe Rücken, ohne sich die Bildinformationen zuzuschmieren.



Antwort von Frank Glencairn:

Das spielt beim bewegten, und mindestens noch ein mal (wenn nicht öfter) komprimierten Bild überhaupt keine Rolle mehr - niemand der noch ganz bei Trost ist, stoppt einen Film, und vergleicht dann einzelne PixelPixel im Glossar erklärt im Standbild bei 800% Vergrößerung mit der Nase am Monitor.



Antwort von -paleface-:

@slashcam
Ein normales Bild von einer Person habt ihr nicht zufällig mit und ohne BRAW.
Ich verstehe was da grob passiert und sehe auch den unterschied.
Aber wenn das ganze Bild einen anderen Look bekommt...das würde mich jetzt doch mal interessieren wie das ausschaut.



Antwort von rudi:

-paleface- hat geschrieben:
@slashcam
Ein normales Bild von einer Person habt ihr nicht zufällig mit und ohne BRAW.
Ich verstehe was da grob passiert und sehe auch den unterschied.
Aber wenn das ganze Bild einen anderen Look bekommt...das würde mich jetzt doch mal interessieren wie das ausschaut.
Weitere Betrachtungen sind geplant, aber nicht mehr vor der Photokina. Ich wollte nur mal schon mit diesen Sachen raus, bevor die wieder 2 Wochen in der Schublade liegen.
Aber einen Kopf filmen kann ja jeder, der die URSA mini Pro 4,6K hat. Nachdem man nur den CodecCodec im Glossar erklärt umschalten muss, ohne die Kamerapostion zu verändern, fallen pixelgenaue Vergleichsbilder nicht schwer. Auch ProRES wäre spannend, jedoch müsste man dann mit einem 4K Downscale vergleichen. Mal sehen, was andere in den nächsten 2 Wochen produzieren ;)



Antwort von cantsin:

Der Test bestätigt zwar eine Vermutung, die ich hier schon früher geäußert hatte - dass es sich bei BRAW eigentlich um 12bit-Log handelt. Aber ich muss ehrlich sagen: In der Praxis hat dieses neue FormatFormat im Glossar erklärt eigentlich nur Vorteile ggü. CinemaDNG, gerade wegen des weicheren Renderings und der wegfallenden Moiré-Problems. Dank 4K-Sensormatrix dürfte man damit äußerst ansprechendes 2K-Material 'rausrendern.

Die Frage wäre nur noch, wie die Sache bei extremem Low Light/Extremer Unterbelichtung aussieht, wo CinemaDNG (ohne kamerainterne Rauschfilterung) in Kombination mit Neat wahrscheinlich zu besseren Ergebnissen führt.

Wenn ich richtig rechne, ist die DatenrateDatenrate im Glossar erklärt von 12:1 BRAW bei der Pocket 4K und 4K DCI ungefähr 24 MB/sMB/s im Glossar erklärt (auf der Basis der Angabe, dass bei der 4.6K URSA 32MB/s anfallen). Dann müssten (a) Mittelklasse-SD-Karten völlig ausreichen und (b) eine 256 GB-Karte, die auf der alten Pocket rund 75 Minuten CinemaDNG speichern konnte, jetzt 180 Minuten BRAW 12:1 schaffen.

Das ist doch eine Ansage.



Antwort von WoWu:

"Frank Glencairn" hat geschrieben:
Das spielt beim bewegten, und mindestens noch ein mal (wenn nicht öfter) komprimierten Bild überhaupt keine Rolle mehr - niemand der noch ganz bei Trost ist, stoppt einen Film, und vergleicht dann einzelne PixelPixel im Glossar erklärt im Standbild bei 800% Vergrößerung mit der Nase am Monitor.
Gerade bei Bewegtbild fallen solche Effekte stören auf.
Und die bisherigen Eingriffmöglichkeiten haben es eben erlaubt, im Demosaicing solche Effekte zu eliminieren, ohne dass es Auflösung gekostet hat.
Hier macht der CodecCodec im Glossar erklärt genau das wieder, von dem wir gehofft hatten, es im Interesse höherer spatiale Auflösung nun endlich los zu sein.
Pustekuchen nun gibt es das optische Lowpassfilter als Codec.



Antwort von mash_gh4:

WoWu hat geschrieben:
Gerade bei Bewegtbild fallen solche Effekte stören auf.
Und die bisherigen Eingriffmöglichkeiten haben es eben erlaubt, im Demosaicing solche Effekte zu eliminieren, ohne dass es Auflösung gekostet hat.
...
Pustekuchen nun gibt es das optische Lowpassfilter als Codec.
naja, so überzeugend und voller eingriffsmöglichkeiten waren die demosaicing lösungen in den video-programmen leider auch bisher nicht. im fotoumfeld gibt es da wesentlich besseres, auf das deine argumenation eher zutreffen dürften. aber ich glaub auch, dass BMD da einige wichtige möglichkeiten ganz grundsätzlich verbaut.

das mag zwar vielleicht keine so große rolle spielen, wenn man das hauptaugenmerk auf die farbverarbeitung legt, aber in anderen dingen wird es hier ziemlich schwierig, den vollzogene aufbreitungschritt rückgängig zu machen. ich könnte mir gut vorstellen, das das auch etwas damit zu tun hat, dass BMD ja keine eigenen optiken baut bzw. über wenig knowhow hinsichtlich der einbeziehung von rechnerischen korrekturen in derartige opto-elektrische gesamtsysteme verfügen dürfte. dort spielt es nämlich schon eine sehr große rolle, auch in diese vollen ursprünglichen auflösung und anordnung in die daten eingreifen zu können.



Antwort von WoWu:

Das ist wohl richtig ... in den NLEs findet sich solche Software sicher nicht in nennenswerter Anteilen.



Antwort von mash_gh4:

WoWu hat geschrieben:
Das ist wohl richtig ... in den NLEs findet sich solche Software sicher nicht in nennenswerter Anteilen.
dafür findet man solche features halt in der €0,- software, die cantsin und ich für die foto-bearbeitung bevorzugen. ;)








Antwort von Roland Schulz:

Danke erstmal an Rudi für den Überblick und die anteilige Aufklärung dieser neuen "Formate"!
Es scheint sich also zu bewahrheiten was ich schon bei PRR zu predebayertem Material vermutet hatte.

Glaube wo wir noch ein bisschen im Nebel stehen ist der Werdegang einer RAW Datei im klassischen Workflow, an dessen Anfang "ich" immer noch das Demosaicing sehe.
Solange wir da aber keine breiten Entwicklereinblicke erhalten bleibt das wohl soweit verschlossen, bis auf dass BMD dieses im Resolve Manual so auch ganz klar im Blockschaltbild beschreibt.

Es ist aber eigentlich ohnehin egal und die zur Verfügung stehenden Informationen und Korrekturwerte können nach dem Debayering und vor einer eventuellen KompressionKompression im Glossar erklärt noch genau so gut angewendet werden, wenn der Prozess geschlossen und aufeinander optimiert ist, umgekehrt wird‘s eher komplizierter.

Weiter sehe ich bei BRAW derzeit Schwächen in der Ausführung denn die Modulation gegenüber CDNG scheint nach den ersten Vergleichen oben doch ein Stück in den Keller zu gehen.

Wir nähern uns auch dem weiter an, dass es bald kaum noch eine Rolle spielt einen (Pseudo-)RawCodec zu nutzen oder einen hochentwickelten Intra- oder sogar Interframecodec.
Das hochentwickeltes In Camera Processing welches unter Zuhilfenahme von allen in der Kamera verfügbaren Umgebungsdaten (Objektiveigenschaften, gewählte BrennweiteBrennweite im Glossar erklärt für die Entfernung von CAs, Sensortemp. etc. etc.) durchgeführt wird "RAW" bald nicht mehr nachsteht sehe ich langsam als abzusehenden Trend.
Eine HEVC Ausgabe z.B. mit ähnlicher Bitrate wird so einem PseudoRAW ganz bald überhaupt nicht mehr nachstehen, eher wird durch höherentwickelte KompressionKompression im Glossar erklärt dort mit gleicher DatenrateDatenrate im Glossar erklärt mehr Qualität möglich sein.
Bei den Encodern sehe ich auch einen Trend des Qualitätszuwachses den BRAW vielleicht erstmal noch entwickeln muss.
Gutes Debayering ist aufwändig und ggf. ist das (noch immer) nicht die Stärke des Herstellers, der verwendeten ASICs bzw. der Algorithmen in den Kameras.

Wenn das im Vergleich die erzielbaren Ergebnisse zwischen BRAW und CDNG sind zeigt BRAW elementare Defizite in der Auflösung.
Wenn wir uns nochmal den kürzlichen a7R3 DPR Fotovergleich ansehen wird man feststellen dass es Hersteller gibt, die besser debayern als z.B. ein langjährig gewachsener ACR Decoder, im Beispiel Sony das aber zugegeben auch nicht erst seit gestern macht.
Da wird eine höhere Auflösung erzielt und trotzdem bleibt Aliasing außen vor.
Wenn wir hier mit entsprechender QuantisierungQuantisierung im Glossar erklärt und DatenrateDatenrate im Glossar erklärt vorgehen haben wir auch keinen theoretischen Nachteil mehr gegenüber "komprimiertem" RAW.

Die Frage ist allerdings auch nicht nach C(DNG)/RAW an sich, sondern danach wie der Decoder aussieht und implementiert ist.
Bei BRAW wird dagegen derzeit anscheinend doch eine Menge bereits bei der Aufzeichnung vers..., ähm suboptimal vorbeeinflusst.

@Frank: warum glaubst Du eigentlich immer nur dass jede Aufnahme aus der Hand geführt bei 300km/h schnellen Verfolgungsjachten entsteht?



Antwort von Frank Glencairn:

Weil gefühlten 90% der Leute die hier so schreiben, ein Stativ als eine viel zu komplizierte, schwere und aufwändige Zumutung erscheint, mit der sie auf keinen Fall belästigt werden können. Gimbal oder Schulter, wenn nicht gar Freihand scheint mir - nach jahrelangem lesen hier - der Hauptschwerpunkt ;-)

Jetzt mal im Ernst, wie viele völlig statische Einstellungen macht man denn? Und ich meine jetzt nicht locked down Kamera auf dem Stativ - das mach ich oft, sondern wo sich im Bild absolut nichts und niemand bewegt - wie ein Standbild quasi.

Ansonsten ist der Charakter von Bewegtbild eben genau das - Bewegtbild.

Deshalb halte ich das statische abfilmen von (womöglich noch schwarz/weiß) Charts genauso für Blödsinn, wie das beurteilen der Auflösung ohne das ganze durch den kompletten üblichen Workflow gejagt zu haben - also inklusive Delivery Komprimierung.


Is ja toll wenn mein raw hier so super Auflösung am Schnittplatz hat, aber keiner außer mir bekommt es jemals so zu sehen - was ich hier sehe ist also völlig bedeutungslos. Und was glaubst du, was ein H264 mit der tollen Auflösung und Schärfe macht? Er wirft über 80% aller Bildinformation aus dem Fenster. Welche Aussage haben also solche Charts? Entscheidend ist nur die Gesamt-Anmutung die der Endnutzer zu sehen bekommt, und das ist nicht bei 800% Vergrößerung als Standbild.

Zumal der Test ein bisschen Äpfel und Birnen ist. BRAW und ProResProRes im Glossar erklärt nutzen den neuen Debayering Algorithmus, DNG noch den alten.

Was das BRAW betrifft, hab ich's schon irgendwo schon mal geschrieben, Debayering ist ein Mehrstufiger Prozess - in der Kamera wird nur die Verlaufsvorhersage, Edge Reconstruction und NoiseNoise im Glossar erklärt Management durchgeführt - BRAW kommt immer noch als undebayertes schwarz/weiß Bild in Resolve an.

Alles andere wär ja auch völliger Blödsinn.

Der große Vorteil von raw ist ja die geringe DatenrateDatenrate im Glossar erklärt, im Vergleich zu einem bereits debayerten Bild. Warum sollte BM diesen Vorteil aus dem Fenster werfen, und das dann durch noch stärkere KompressionKompression im Glossar erklärt wieder ausgleichen? Das wäre nicht nur völlig kontraproduktiv, das ginge völlig gegen die DNA von BM.

Abgesehen von NoiseNoise im Glossar erklärt Management (offensichtlich ein nötiger Schritt für effiziente Kompression) hatte man auch vorher mit CDNG keinen Einfluss auf diese Parameter - weder in der Kamera, noch in der Post - da hat sich also mit BRAW nix geändert.



Antwort von iasi:

fein - neben geringer DatenrateDatenrate im Glossar erklärt bietet der CodecCodec im Glossar erklärt also auch den weichen, fließenden Look von Filmkorn.

BMD ist z.Z. wirklich sehr innovativ.

Bin gespannt, wie BRAW sich in der Pocket 4k schlägt.



Antwort von Frank Glencairn:

Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der DatenrateDatenrate im Glossar erklärt, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der DatenrateDatenrate im Glossar erklärt, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.
also das versteh ich nun nicht

Wenn dir die DatenrateDatenrate im Glossar erklärt nicht wirklich wichtig ist und du also auch unkomprimiertes Raw nutzen könntest, weshalb dann BRAW?



Antwort von Frank Glencairn:

Weil es weicher und gefälliger ist (ich brauch weder einen zusätzlichen OLPF noch einen Diffusion Filter), und mit besserer Farbseperation, was sich beim Einsatz von Qualifiern bemerkbar macht.



Antwort von Roland Schulz:

Also in meinen zwei Generationen HEVC gibt‘s nicht so ne Dämpfung bei der Modulation, und nein, Du sollst auch keine "Fotos" filmen!!
Das klingt bei Dir immer nur so als würde sich alles mit Lichtgeschwindigkeit bewegen und Motionblur ohne Ende erhalten was solche Auflösungsverluste rechtfertigen würde.



Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
Weil es weicher und gefälliger ist (ich brauch weder einen zusätzlichen OLPF noch einen Diffusion Filter), und mit besserer Farbseperation, was sich beim Einsatz von Qualifiern bemerkbar macht.
Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch "kein" OLPF!
Keine ArtefakteArtefakte im Glossar erklärt und trotzdem Auflösung.



Antwort von Frank Glencairn:

"Roland Schulz" hat geschrieben:

Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch "kein" OLPF!
Keine ArtefakteArtefakte im Glossar erklärt und trotzdem Auflösung.
Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?








Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
"Roland Schulz" hat geschrieben:

Mit nem vernünftigen Debayering (und idealerweise noch Oversampling) brauchste auch "kein" OLPF!
Keine ArtefakteArtefakte im Glossar erklärt und trotzdem Auflösung.
Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?
Wenn Du dir bei DPR doch mal die Samples der a7M3 oder a7R3 ansehen würdest könntest Du feststellen, dass Sony mittlerweile weiß wie‘s auch mit sehr schwachen OLPFs funktioniert, man da IC bereits "bessere" Ergebnisse als ACR liefert.

Was interessieren mich Bastelbuden und Kleinserienhersteller ;-)!?



Antwort von freezer:

"Frank Glencairn" hat geschrieben:
Ich nutze BRAW jetzt in der Ursa schon ne ganze Weile, und hab einige Produktionen damit gemacht - bin mehr als zufrieden. Abgesehen von der DatenrateDatenrate im Glossar erklärt, und daß es sich etwas schneller kopieren läßt als Einzelbilder (wobei mir beides eigentlich nicht wirklich wichtig ist - aber nice to have), ist das neue Debayering und die bessere Farbseperation für mich der wirkliche Pluspunkt.
Hast Du nicht die URSA Mini 4.6k?



Antwort von nic:

"Roland Schulz" hat geschrieben:
"Frank Glencairn" hat geschrieben:


Also ich a deiner Stelle würde sofort bei BM, RED und ARRI anrufen und denen das sagen.
Wie können die das nur übersehen haben?
Wenn Du dir bei DPR doch mal die Samples der a7M3 oder a7R3 ansehen würdest könntest Du feststellen, dass Sony mittlerweile weiß wie‘s auch mit sehr schwachen OLPFs funktioniert, man da IC bereits "bessere" Ergebnisse als ACR liefert.

Was interessieren mich Bastelbuden und Kleinserienhersteller ;-)!?
Sony verbaut in seinen für Bewegtbild optimierten Kameras allerdings auch OLPFs. Bis hin zur F65 und Venice. Genau wie Canon und Panasonic.



Antwort von Roland Schulz:

Auch die a7 Kameras haben OLPFs, allerdings sehr schwache wie auch die Venice.
Geht ums Ergebnis und das passt in meinen Augen hervorragend.



Antwort von Frank Glencairn:

freezer hat geschrieben:


Hast Du nicht die URSA Mini 4.6k?
Und die Pro



Antwort von bennik88:

Danke für den interessanten Artikel und Vergleich der beiden "RAW" codecs. Ich nehme nun seit zwei Wochen abwechselnd mit beiden Codecs auf um h-roll of, FPN, und subjektive Schärfwarnehmung zu testen und der Artike hat nochmals einiges an interessantem Hintergrundswissen hinzugefügt.

Interessant ist hier auch das mehr und mehr der Unterschied zwischen großen Systemen wie der URSA Pro und der BMPCC4K verschwimmen.



Antwort von Rick SSon:

"Kristian Lam: Less options because beta."

Zitat eines BM Mitarbeiters



Antwort von Frank Glencairn:

Hatte heute mal etwas Zeit für einen PixelPixel im Glossar erklärt Peeper Test.
Material unbearbeitet, direkt aus der Kamera in die Timeline
BRAW-COMPARSION.jpg Untitled_1.1.1.jpg



Antwort von Knoppers:

wow cool. unter anderem sieht man auch mal wieder sehr schön, was 8,8 mpix bedeutet. so etwas erdet im allgemeinen pixelwahnschwachfug auf angenehme weise :)








Antwort von Frank Glencairn:

Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..



Antwort von mash_gh4:

naja -- richtig viel sagen die detailvergleiche nicht aus, weil hier offenbar das verwendete objektiv ziemlich an seine grenzen stoßen dürfte. so gesehen schaut ja alles relativ ähnlich glattgebügelt aus.

ich würde allerdings fast behaupten, dass man in den obersten beiden bilder -- also den RAW varianten -- in den schägen konturen des dachfensters und des schneefängers störende nebeneffekte erkennen kann, die in dieser form oft auf unzureichendes debayering zurückzuführen sind. (allerdings zeigt sich ganz ähliches auch bei farbunterabtastung in gebräuchlichen video-formaten.)

es wäre vermutlich interessant, dieses einzelbild bspw. im darktable auch mit anderen debayer-methoden zu entwicklen, um aufzuzeigen, dass sich derartiges mit geeigneten mitteln relativ problemlos vermeiden lässt.

wie weit derartige unterschiede in das praxis tatsächlich eine rolle spielen, ist natürlich eine andere frage? vermutlich dürften alle varianten den meisten realen ansprüchen genügen. trotzdem macht es natürlich einen entscheidenden unterschied aus, dass einem nur im falle von richtigem RAW diese möglichkeit offen steht, das debayering bei bedarf auch noch nachträglich zu korrigieren, während das ja bei den anderen aufzeichnungsvarianten völlig ausgeschlossen ist.



Antwort von Frank Glencairn:

Ich hab die Clips mal spaßhalber nach x264 umgerechnet - als gängiger Delivery CodecCodec im Glossar erklärt, den ja all unser Material irgendwann mal durchlaufen muß, damit es irgendjemand überhaupt sehen kann.

Die minimalen Unterschiede, die vorher noch zu sehen waren (bei 800% crop) sind dann alle weg, und alle Cips sehen danach quasi völlig gleich aus.

Es spielt also in dieser Liga (Auflösung/Sensor) überhaupt keine Rolle ob man Prores, raw oder BRAW aufnimmt, was die Linse oder das Debayering etc. hergeben.



Antwort von Knoppers:

mash_gh4 hat geschrieben:
vermutlich dürften alle varianten den meisten realen ansprüchen genügen.
wenn es nach diesem artikel geht: https://www.docma.info/blog/die-50-mega ... rmat-luege wäre auf mft optisch bei 5 mpix eh nativ schluss. kleinbild und mittelformatobjektive haben aber wohl auch so ihre optischen grenzen ;)



Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
nicht deshalb, weil es nicht darauf ankommen würde, was man tatsächlich letzten endes sieht, sonder vielmehr, weil die gängigen kompressionsmethoden natürlich alle div. tricks nutzen, um dort bandbreite einzusparen, wo es dem auge am ehesten entgeht. genau das lässt sich aber natürlich auch sehr leicht gegen sie ausspielen. mit ganz einfachen technischen bildeingriffen sieht man dann plötzlich ein scheinbar völlig ausreichend schönes bild in sich zusammenbrechen. aber auch diese demonstrationen kennen wir ja nun mittlerweile wirklich zur genüge...



Antwort von Knoppers:

mash_gh4 hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ja, mann muss schon 800% in ein Standbild rein croppen, um die Unterschiede überhaupt wahrzunehmen.
Bei laufendem Bild, und bei 100% - keine Chance einen Unterschied zwischen raw/Prores/BRAW zu sehen..
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
baust du etwa vor jeder betrachtung ein messlabor auf?



Antwort von Frank Glencairn:

Ja, das Prores fällt natürlich schneller auseinander als die beiden raw Varianten, aber das liegt natürlich auch an der geringeren bittiefe.



Antwort von mash_gh4:

Knoppers hat geschrieben:
mash_gh4 hat geschrieben:
naja -- derartige vergleiche mit freiem auge sind immer ein bisserl mit vorsicht zu genießen.
baust du etwa vor jeder betrachtung ein messlabor auf?
natürlich nicht -- aber beim vergleichen von codecs halte ich die div. dafür gebräuchlichen messmethoden (bspw. die hier: http://www.scikit-video.org/stable/measure.html) für einen ganz guten ausgangspunkt. darüber hinaus kann man dann ja auch noch differenzen sichtbar machen oder ganz spezifische kompressionsbedingte bildveränderungen (blockbildung, banding...) hervorheben.

während das im bezug auf codecs, wie man sie im weiteren workflow verwendet, recht einfach in sauber reproduzierbarer weise durchzuführen ist, stellt sich halt bei kameras immer das problem, wie man an die nötigen vergleichswerte in ihrer rohen und unveränderten form herankommt -- und zwar nicht nur im falle von ganz statischen motiven, sondern am besten auch noch mit richtig viel bewegung im bild, wo die codecs erst so richtig zeigen müssen, was sie können. da wird's dann gleich einmal ziemlich schwierig mit den meisten geräten und ihrem sehr beschränkten zugriff auf die RAW daten. im fall dieser speziellen kamera, kann man aber eben auch diesen aspekt eine wenig besser untersuchen, was das ganze doch recht spannend macht. ;)



Antwort von Knoppers:

mash_gh4 hat geschrieben:
während das im bezug auf codecs, wie man sie im weiteren workflow verwendet, reicht einfach in sauber reproduzierbarer weise durchzuführen ist, stellt sich halt bei kameras immer das problem, wie man an die nötigen vergleichswerte in ihrer rohen und unveränderten form herankommt -- und zwar nicht nur im falle von ganz statischen motiven, sondern am besten auch noch mit richtig viel bewegung im bild, wo die codecs erst so richtig zeigen müssen, was sie können.
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)








Antwort von mash_gh4:

Knoppers hat geschrieben:
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)
bei den leuten, die sich für solche sachen interessieren od. eben auch codecs entwickeln bzw. ständig weiter zu verbessern versuchen, gehört das zum täglichen brot.

siehe z.b.: https://arewecompressedyet.com/ od. https://wyohknott.github.io/image-formats-comparison/



Antwort von Knoppers:

mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
also ich kenne niemanden, der mitten im film auf die pausetaste drückt, um den codec zu checken ;)
bei den leuten, die sich für solche sachen interessen od. eben auch codecs entwickeln bzw. ständig weiter zu verbessern versuchen, gehört das zum täglichen brot.

siehe z.b.: https://arewecompressedyet.com/
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.



Antwort von domain:

WoWu hat geschrieben:
Bei analogem Material sind die Kristalle der Informationsträger und damit immer Konturscharf, was wir als Grain verstehen.
Bei Farbfilmen gibte es keine konturenscharfe Kristalle zu beobachten, weil sie im Entwicklungsprozess weggebleicht werden. Stattdessen sind im Mikroskop Farbwölkchen um die ehemaligen Kristalle zu erkennen, die insgesamt ein unschärferes weicheres Bild in den feinsten Details ergeben.
Also insofern bietet BRAW eine wirklich starke Annäherung an analoges Filmmaterial, was besonders im verminderten Hintergrundrauschen sichtbar wird.
Tolle Arbeit von BM.



Antwort von mash_gh4:

Knoppers hat geschrieben:
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.
ja -- wobei sich das vermutlich mit beiträgen in foren bzw. der diskussionskultur mancher kollegen durchaus ähnlich verhalten dürfte. ;)



Antwort von Knoppers:

mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
wobei das die zielgruppe, also den zuschauer nicht im geringsten interessert. wenn der nämlich abschaltet, liegt es an einem schei.. film, aber sicher nicht am codec.
ja -- wobei sich das vermutlich mit beiträgen in foren bzw. der diskussionskultur mancher kollegen durchaus ähnlich verhalten dürfte. ;)
die blanke wahrheit, duftet leider nicht immer nach rosen ;)



Antwort von mash_gh4:

Knoppers hat geschrieben:
die blanke wahrheit, duftet leider nicht immer nach rosen ;)
so wie ja auch die wahrheit über codecs den menschen zumutbar sein sollte.



Antwort von Knoppers:

mash_gh4 hat geschrieben:
Knoppers hat geschrieben:
die blanke wahrheit, duftet leider nicht immer nach rosen ;)
so wie ja auch die wahrheit über codecs den menschen zumutbar sein sollte.
wer spass daran entwickelt, diese in seinem labor wissenschaftlich fundiert zu verifizieren, soll das selbstverständlich gerne tun.



Antwort von WoWu:

g
Knoppers hat geschrieben:

wenn es nach diesem artikel geht: https://www.docma.info/blog/die-50-mega ... rmat-luege wäre auf mft optisch bei 5 mpix eh nativ schluss. kleinbild und mittelformatobjektive haben aber wohl auch so ihre optischen grenzen ;)
Ich stimme mit dem Link ziemlich überein, obwohl die Überabtastung darin deutlich überbewertet wurde.
Aber das Thema diskutieren wir hier schon seit Jahren

.
Die ­optischen Signale des Objektivs werden mit einer höheren Abtastrate bearbeitet als für die Darstellung der Signalbandbreite benötigt. Das führt praktisch zu höher auflösenden Bildern, aber bei weitem nicht in dem Maß, wie die höheren Megapixel-­Zahlen es uns glauben machen wollen. Und sie werden durch die gesteigerte Oversampling-Auflösung auch nicht zwingend "besser".
Die Überabtastung führt NICHT zu höher aufgelösten Bildern, weil eine Unschärfe (z.B. vom Objektiv) von sovielen Pixeln aufgenommen werden kann, wie man will.
Es bleibt eine Unschärfe.
Überabtastung sagt lediglich, dass wenigstens die doppelte Abtastfrequenz vorliegen muss, um das Signal überhaupt, brauchbar zu rekonstruieren.
Mit einer einfachen AbtastungAbtastung im Glossar erklärt wäre das Bild eigentlich gar nicht zu gebrauchen.
Aber selbst höhere Antastungen würden das Bild nicht höher auflösen sondern lediglich den Störabstand verbessern.
ABER ... um den Störabstand signifikant zu verbessern, also etwa um 3db, müsste man die 8-fache Überabtastung vornehmen.
Man sollte also in die Abtastungen nichts hinein interpretieren, was gar nicht drin ist.
Doppelte Abtastfrequenz ist das Minimum. um überhaupt ein Signal zu rekonstruieren und kein Qualitätskriterium "on top".



Antwort von mash_gh4:

WoWu hat geschrieben:
Aber das Thema diskutieren wir hier schon seit Jahren
ja -- leider!
aber, nur weil du nicht müde wirst, die dinge hier sehr pesimistisch zu "sehen"(?), heist das ja noch lange nicht, dass die dinge auch so sein müssen.

in den aktuellen DXOmessungen, gibt's einige MFT festbrennweiten, die 13 P-Mpix an 20Mpix fotosensoren liefern.
das ist noch immer deutlich mehr als ausreichend für die aktuell genutzten video-auflösungen. klar ist es ein bisserl schlechter als bei den vollformat-spitzenreitern, wo tlw. bis zu 36 P-Mpix an 36.5 Mpix foto-apperaten (nikon) od. 45 P-Mpix an 51 Mpix (canon) gemessen werden, bezogen auf die tatsächliche sensorfläche erscheint der MFT formfaktor im vergleich trotzdem überproportional gut zu funktionieren. aber wie gesagt, selbst den höchst gesteckten anforderungen gegenwärtiger video-praxis genügt diese abbildungsleistung auf alle fälle.

im übrigen kann man ja ohnehin laufend mitverfolgen, wie diese empirisch ermittelten werte ständig mit den kameras bzw. immer noch absurderen sensorauflösungen mitwachsen, weil es eben im gegensatz zu deinen erwartungen nicht so sehr nur die schwächen der objektiven sind, die hier eine klar erkennbare grenze setzten, sondern immer das gesamtsystem die messung nach oben hin begrenzt.








Antwort von WoWu:

Das sind alles subjektive Betrachtungen, die Du da von Dir gibst.

Und schon "Pessimismus" hat nichts damit zu tun denn festzustellen, dass Objektive nicht die Auflösung für viele Sensoren haben und nur die Hälfte dabei herauskommt, hat nichts mit einer Grundhaltung zu tun.
Ich habe nur versucht, etwas zu objektivieren, anders als Du und so Manchem hier.
Klar, viele halten jedes bunte und kontrastreiche Bild für ein gutes Bild, hauptsache es steht 50MPix auf dem Karton.
Aber ich kann mir schon vorstellen, dass der verlinkte Artikel Dir nicht so in den Kram passt.
Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
Bei Dir dauert es wohl noch einwenig.



Antwort von Jott:

Die neuesten "nicht mal 4"-Produktionen sollte man vielleicht doch mal gesehen haben.



Antwort von Roland Schulz:

Zudem bestimmt aber immer noch die projizierte Ausgabematrix des Sensors die Position der AbtastungAbtastung im Glossar erklärt und bei einer idealen Kamera auch die Auflösung in der diskreten Bildverarbeitung!



Antwort von Frank Glencairn:

....und wie ich oben schon sagte, spätestens nach der Delivery Komprimierung spielt all das keine Rolle mehr, weil die etwaigen Unterschiede einfach wegkomprimiert werden.



Antwort von Roland Schulz:

"Frank Glencairn" hat geschrieben:
....und wie ich oben schon sagte, spätestens nach der Delivery Komprimierung spielt all das keine Rolle mehr, weil die etwaigen Unterschiede einfach wegkomprimiert werden.
Bei mir beträgt die "Delivery Komprimierung" aus dem NLE ins Wohnzimmer zwischen 70-150 in HEVCmain10, wäre bei ner UHD-BD in etwa das selbe - ist also doch ÜBERHAUPT KEIN Problem ;-)!



Antwort von Roland Schulz:

Dass Überabtastung bzw. Oversampling auch bei M43 zu Vorteilen UND höherer Auflösung führt erkennt man doch ganz leicht (besonders am rot/blau Chart, am wenigsten PixelPixel im Glossar erklärt auf dem Sensor) an den 4K Videoscreenshots hier:
Unbenannt.PNG Quelle: dpreview.com
https://www.dpreview.com/reviews/image- ... 9202483582

Wir hätten bei der 20MP GX9 zum einen eine höhere Farbauflösung (besonders blau/rot) gegenüber der 12MP GH5s die irgendwann auch mal 4:2:04:2:0 im Glossar erklärt erreichen könnte, zum anderen gäbe es weniger Artefakte.

Was in "diesem Zusammenhang" ggf. auch noch interessant ist, wie gut sich eine kleine Sony RX100V mit einem noch kleineren 1" Sensor hier schlägt, welcher statt wie die 20MP GX9 aus ~5.5K statt ~5.2K oversampled. Die Darstellung zeigt hier noch weniger ArtefakteArtefakte im Glossar erklärt und je nach Farbzusammenstellung eine noch höhere (Farb-)Auflösung - bei kleinerem Sensor wohlgemerkt, welcher einer höhere Anforderung an die Optik stellt!

Das wir aber auch mit der Oversampling GX9 immer noch keine 4:2:04:2:0 im Glossar erklärt erreichen zeigt der Vergleich mit der Sony a6300, welche eine weitere Steigerung an Farbauflösung mit noch weniger Artefakten erkennen lässt und ebenfalls auf max. 4:2:04:2:0 im Glossar erklärt begrenzt ist.


...weiterhin zeigt das oben noch einmal welche hohe Qualität Sony mittlerweile beim Debayering erreicht hat ;-)



Antwort von mash_gh4:

wenn es um die tatsächliche auflösung bzw. einschränkungen durch die objektive geht, halte ich es für wesentlich sinnvoller, nur die RAW sensordaten zu vergleichen:


zum Bild


aber natürlich kann es auch sinn machen, tatsächlich die fertig gebackenen video-files zu vergleichen. das ist halt leider eine deutlich schwerer zu deutende gegenüberstellung, weil hier z.b. solche interferenzmuster nicht unbedingt nur vom debayern od der sensorauflösung herstammen müssen, sondern genauso die folge unterschiedlicher filter beim farbsubsamplen und zahlreichen anderen bildaufbereitungsschritten sein können.



Antwort von Onkel Danny:

WoWu hat geschrieben:
Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
Das aus 4K Bayer, gute 2 Komma K rauskommen, ist klar bekannt.

Und Wowu, Du weißt sehr gut, das aus 8K auch 4K rauskommen können.

Aber bei redcodewanneberaw mit 6/8/10 zu 1 Komprimierung etc und billigen Ef Linsen wohl kaum.
Und das übersehen die meisten und schauen nur auf das leuchtende K.

Die Arri Alexa 65 schafft aus 6.5K locker 4K, aber auch nur durch volles Raw und entsprechend großen Sensor.

Oversampling ist leider nicht alles. Das bringt nur dann wirklich etwas, wenn das Processing dahinter auch vernünftig arbeitet und nicht alles verschlimmbessert und wegkomprimiert.

Das enorme denoisen und nachschärfen der Sonys gaukelt da gerne mal mehr vor, als da ist ;-)

greetz



Antwort von Roland Schulz:

...puhh!!!!








Antwort von iasi:

WoWu hat geschrieben:

Aber mittlerweile erkennen ja immer mehr, dass es so ist und dass man aus 4k in den meisten Fällen nur sauberes 2k machen kann und aus 8 nicht mal 4.
aha - nun postulieren wir wieder mal eine neue Grenze:
aus 8k bekommt man kein 4k

Nun also her mit dem empirischen Beweis.



Antwort von Roland Schulz:

mash_gh4 hat geschrieben:
wenn es um die tatsächliche auflösung bzw. einschränkungen durch die objektive geht, halte ich es für wesentlich sinnvoller, nur die RAW sensordaten zu vergleichen:


zum Bild


aber natürlich kann es auch sinn machen, tatsächlich die fertig gebackenen video-files zu vergleichen. das ist halt leider eine deutlich schwerer zu deutende gegenüberstellung, weil hier z.b. solche interferenzmuster nicht unbedingt nur vom debayern od der sensorauflösung herstammen müssen, sondern genauso die folge unterschiedlicher filter beim farbsubsamplen und zahlreichen anderen bildaufbereitungsschritten sein können.
Glaube es ging hier a) um Videobilder und b) im Vergleich um eine nativ auslesende Kamera gegen Oversamplingkameras (GH5s (nativ) gegen die anderen, nicht GH5!)).
Zudem konnte man Unterschiede im (Video-)Debayering der verschiedenen Hersteller sehen. Jetzt sehen wir immer nur ACR was zudem u.A. Sony Debayering nachsteht.
Mit Video hat das so auch nichts mehr zu tun.
Auf der anderen Seite sehen wir dass die jetzt noch höher dargestellte Auflösung kein Problem für die Optiken darstellt.



Antwort von mash_gh4:

"Roland Schulz" hat geschrieben:
Glaube es ging hier a) um Videobilder und b) im Vergleich um eine nativ auslesende Kamera gegen Oversamplingkameras (GH5s (nativ) gegen die anderen, nicht GH5!)).
naja -- mir ging's hier hauptsächlich um franks bilder, die ich tatsächlich für eine ziemlich bereichernde quelle halte.

ansonsten hab ich mich mit meiner geringfügigen korrektur der gegenübergestellten kameras nur darum bemüht, einigermaßen ähnliches miteinander zu vergleichen, statt die üblichen taschenspielertricks hier im forum stillschweigend zur kenntnis zu nehmen.
"Roland Schulz" hat geschrieben:
Mit Video hat das so auch nichts mehr zu tun.
an der kritik ist natürlich etwas berechtigtes dran. man kann durchaus einfordern, dass man sich wirklich nur auf das fertig gebackene video-resultat bezieht, weil uns ja viele consumer-kameras, abgesehen von exotischen ausnahmefällen, wie bspw. zeitraffer sequenzen, ohnehin nichts besseres bieten. aber das sollten wir dann wirklich in in anderen threads diskutieren. hier geht's ja schwerpunktmäßig tatsächlich um die relevanz von RAW material.
"Roland Schulz" hat geschrieben:
Zudem konnte man Unterschiede im (Video-)Debayering der verschiedenen Hersteller sehen. Jetzt sehen wir immer nur ACR was zudem u.A. Sony Debayering nachsteht.
in dem punkt würde ich dir wirklich widersprechen. die interferenzmuster, die man in den von dir geposteten kameravergelichen sieht, müssen keineswegs vom debayern stammen! wie ohnehin schon weiter oben angesprochen, wirken sich bspw. auch verschiedene skalierungsmethoden und filter bei der farbunterbatastung auch in genau dieser weise aus. was davon tatsächlich die ursache ist, lasst sich daher in der regel kaum mehr eruieren. das ist mit ein grund, warum ich eigentlich nicht gerne über derartige black boxes diskutiere.

im übrigen gibt es ja auch noch das problem, dass die verschiedenen methoden und schwerpunktsetzung bei der bildaufbereitung immer mit einem abwägen von vor- und nachteilen verbunden sind. deshalb gibt's dann auch immer verschieden tests, in denen sich die einen kameras von den andere scheinbar auffällig positiv hervorheben, während es sich bei anderen tests plötzlich wieder genau umgekehrt verhält.

im resolve forum gibt's dazu seit wochen einen wirklich spannenden thread, wo man unheimlich schwer sagen kann, ob die dort beobachteten eigenheiten des programs im bezug auf das farbsubsampling bzw. dessen ganz auffällig kontraproduktive folgeerscheinungen nicht doch auch ursprünglich einer durchaus lobenswerten absicht entsprungen sein könnten, die eben mit hilfe von filtern genau solche störenden effekte beim downsamplen abzuschwächen versucht. aber auch dort geht das offenbar mit ganz massiv störenden anderen folgen hand in hand. und bei den bildaufbeitungsketten in kameras ist das nicht anders -- außer natürlich, dass sich dort das problem einer generative verschlechterung durch mehrmalige anwendung solcher filter natürlich in der praxis nicht stellt...
"Roland Schulz" hat geschrieben:
Auf der anderen Seite sehen wir, dass die jetzt noch höher dargestellte Auflösung kein Problem für die Optiken darstellt.
dann verstehen wir uns ja wenigstens in diesem einen, durchaus nicht unwichtigen, punkt.



Antwort von roki100:

Auf der Seite 2 wird Rauschen zwischen BRAW und CDNG verglichen. Wie sieht es bei andere RAW Formate aus z.B bei Arri RAW?

Wenn ich CDNG Bild in Affinity Photo oder in Resolve näher zoome, sehe ich diese puzzle von PixelPixel im Glossar erklärt nicht. Es sieht viel mehr nach BRAW aus. Wie wurde das realisiert? Sieht man das nur bei 4K Bild?



Antwort von roki100:

roki100 hat geschrieben:
Wenn ich CDNG Bild in Affinity Photo oder in Resolve näher zoome, sehe ich diese puzzle von PixelPixel im Glossar erklärt nicht. Es sieht viel mehr nach BRAW aus. Wie wurde das realisiert? Sieht man das nur bei 4K Bild?
ich habe mich schon öfter gefragt wie man das realisiert und nun habe ich zufällig ähnliche ArtefakteArtefakte im Glossar erklärt entdeckt:
Bildschirmfoto 2019-11-09 um 01.52.37.png (Zoom)

Und wenn ich nun in Resolve unter Sizing Pan und Tilt auf 0.500 setze, dann ist es weg: Bildschirmfoto 2019-11-09 um 01.51.31.png Und hier das ganze Bild (oben rechts sind die ArtefakteArtefakte im Glossar erklärt zu sehen):
Bildschirmfoto 2019-11-09 um 02.36.40.png (nicht optimal fokussiert, doch das ist die einzige stelle wo die ArtefakteArtefakte im Glossar erklärt zu sehen sind)


...mit Pan und Tilt auf 0.500: Bildschirmfoto 2019-11-09 um 02.37.09.png

siehe auch hier https://forum.blackmagicdesign.com/view ... =2&t=51936 ..und hier https://forum.blackmagicdesign.com/view ... =2&t=62226 und hier https://forum.blackmagicdesign.com/view ... 32&t=97881 uvm.

Die frage ist nun, handelt es sich hierbei um ein schlechteres CinemaDNG Filmgrain im Vergleich zu BRAW? Ich denke, nein...
Es lässt sich ja nachträglich einfach in DR (14) korrigieren und das sogar ohne Schärfeverlust... ;)



Antwort von Darth Schneider:

Jungs, das ist jetzt aber Pixelpiping in seiner reinsten Form. Der langweiligste Threat seit Jahren....
Wollt ihr nicht lieber mal einen Film drehen ?
Gruss Boris



Antwort von roki100:

@DS. Ich denke hier filmen alle und man kann ja darüber diskutieren. Gerade was WoWu da schreibt, finde ist sehr interessant. Aber auch was Frank schreibt ebenso.... Nur dass das mit OLPF nicht ganz stimmt, denn, BRAW produziert ebenso moiré (zumindest mit der BMPCC4K)....

Der Thread ist alt. Ich habe es nochmal hoch geschoben. Ich betrachte das rangezoomte Beispiel von CinemaDNG, etwas kritisch. Noch kritischer finde ich, dass BMD schon länger darüber bescheid weiß, doch keine Firmware angeboten haben (obwohl die Lösung nicht kompliziert ist, siehe oben). Der Mitarbeiter von BMD namens CaptainHook behauptet stattdessen, dass diese Muster bei CinemaDNG keine echte Bildinformationen sind und fälschlicherweise nimmt man das als schärfe wahr, was aber keine schärfe sei. Und das ist eben nicht richtig. Wenn man Pan und Tilt auf 0.500 verschiebt, wird das korrigiert und die schärfe bleibt. Siehe auch das: https://forum.blackmagicdesign.com/view ... 32&t=97881 und BMD reagiert nicht... komisch.

Gut, dass man es nachträglich in DR korrigieren kann.



Antwort von Frank Glencairn:

Das was du da "korrigierst" spielt beim laufenden Film und 100% sowieso keine Rolle.



Antwort von roki100:

"Frank Glencairn" hat geschrieben:
Das was du da "korrigierst" spielt beim laufenden Film und 100% sowieso keine Rolle.
ist bei 100% für einen Augenblick auch zu sehen (siehe oben ganze Bild).
Ich habe es bis jetzt nur einmal gesehen und das Bild gepostet. Ich bin zwar kein Profi und mich stört das auch nicht wirklich...und wenn man es nachträglich so einfach korrigieren kann, ist es ja in Ordnung. Ich finde es dennoch schade, dass seitens BMD sich da nichts getan hat und etwas später behaupten wird, dass BRAW in diesem Fall besser sei und dass diese CinemaDNG-Muster, keine echte Bildinformationen ist und fälschlicherweise als schärfe wahr genommen wird. Wenn ich bei meinem Vergleich, oben rechts (wo das Muster zu sehen ist), auf das licht schaue, dann sind Aliasing mit der einfache Korrektur auch weg (was aber keine Aliasing sind, sondern wegen das Muster nur so aussieht) :

ohne Pan und Tilt Korrektur: Bildschirmfoto 2019-11-09 um 18.36.00.png mit: Bildschirmfoto 2019-11-09 um 18.36.10.png Pixelgenaues Bild. Kein Muster, alles sauber.









Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018
DaVinci Resolve Update 15.1 bringt Blackmagic RAW Support // IBC 2018
DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018
Nachgelegt - Tabelle zum Blackmagic RAW CPU/GPU Vergleich
Blackmagic RAW im CPU / GPU Vergleich -- Resolve Performance-Verhalten auf verschiedenen Systemen
RAW Wars - ProRes RAW gegen CinemaDNG
BMPCC4K + CinemaDNG Debayer Qualität schlecht?
BMD Pocket Cinema Kamera 4K: RAW, Dual Native ISO, Bedienung, Verfügbarkeit // IBC 2018
Log und RAW - Codec-Qualität von Blackmagic, Panasonic und Sony
Messevideo: Shape: Blackmagic Pocket 4K Cage inkl. Metabones u. SSD-Support // IBC 2018
Messevideo: Blackmagic Pocket Cinema Camera 4K: Ergonomie, Speedbooster, (ProRes) RAW uvm. // NAB 2018
Blackmagic RAW 1.5 bringt kostenlose Plugins für Adobe Premiere Pro und Avid Media Composer // IBC 2019
Messevideo: Blackmagic Design Video Assist 12G HDR: BMD RAW-Aufnahme, 2500 Nits, L-Akkus // IBC 2019
Fast CinemaDNG - GPU RAW Processing ala Lightroom
RawTherapee und CinemaDNG / RAW einfach nur Top!
Workflow zum trimmen von CinemaDNG Raw mit integriertem Audio
Messevideo: Premiere Pro CC 2018 - neue Curve-Tools, Performance-Gewinn, Hall-Removal uvm. // IBC 2018
Dynamikumfang: Blackmagic Ursa Mini Pro 4.6K G2 vs Pocket Cinema Camera 4K in Blackmagic Raw
Messevideo: Blackmagic RAW - warum besser als CDNG RAW? Inkl. Sidecarfile, unterstütze Kameras uvm. // IBC2018
Blackmagic URSA Broadcast bekommt Blackmagic RAW
RAW Format Vergleich - Ein tabellarischer Funktions-Überblick
unterschiedliche Streaming Qualität von Blackmagic
ProRes RAW: EVA1 u. Shogun Inferno (inkl. Vergleich zu Canon C200 und Ursa Mini 4.6K)
Messevideo: Neues Adobe Pro CC - Vergleich zur Konkurrenz u. Fragen zur Stabilität // IBC 2017
Messevideo: Neues Adobe Premiere Pro CC - Vergleich zur Konkurrenz u. Fragen zur Stabilität // IBC 2017
AJA HDR Image Analyzer // IBC 2018

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom