Logo Logo
/// 

RawTherapee und CinemaDNG / RAW einfach nur Top!



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von roki100:


In einem anderen Thread gab es bereits Diskussion über demosaic Prozess in Natron und LMMSE. Nun habe ich erfahren, dass auch RawTherapee das selbe kann und (zumindest bei mir) schneller beim Rendern ist. In RawTherapee gibt es noch "LMMSE Verbesserungstufen".

CinemaDNG Videofiles lassen sich ganz schön in RawTherapee bearbeiten, in 16Bit tiff exportieren und dann in Davinci weiter bearbeiten... Über das Ergebnis bin ich einfach nur begeistert! :)

Es gibt auch ein toller YouTube Kanal von Andy Astbury. Er zeigt die stärke von RawTherapee und all das lässt sich auf CinemaDNG anwenden.



Antwort von cantsin:

Hab diesen Workflow auch bei diesem, mit einer gehackten EOS-M und einem alten Angenieux Super 8-Zoomobjektiv gedrehten Video verwendet, weil Rawtherapee erheblich mehr aus dem Material herausgeholt hat als Resolve, vor allem bei Low Light/starkem Sensorrauschen:

https://vimeo.com/381597697

Angenehmer Nebeneffekt war, dass ich das komplette Raw-Processing unterwegs auf einem Alt-Laptop mit Linux erledigen konnte.



Antwort von Mediamind:

Geht das auch mit Prores Raw? Auf der Seite von RawTherapee habe ich dazu nichts gefunden.








Antwort von cantsin:

Mediamind hat geschrieben:
Geht das auch mit Prores Raw? Auf der Seite von RawTherapee habe ich dazu nichts gefunden.
Nein. Rawtherapee bearbeitet nur Einzelbilder, CinemaDNG wird als Serie von DNG-Einzelbildern gespeichert.

ProRes RAW ist ein proprietäres Format, das in Open Source-Software gar nicht und selbst in kommerzieller Software nur sehr begrenzt unterstützt wird.



Antwort von cantsin:

roki100 hat geschrieben:
In einem anderen Thread gab es bereits Diskussion über demosaic Prozess in Natron und LMMSE. Nun habe ich erfahren, dass auch RawTherapee das selbe kann und (zumindest bei mir) schneller beim Rendern ist. In RawTherapee gibt es noch "LMMSE Verbesserungstufen".
Da Du ja ein Anhänger von Highlight Recovery bist - auch die kann RawTherapee erheblich besser als Resolve. Genauso, wie RT beim Debayering verschiedene Verfahren zur Auswahl bietet, hat es auch vier verschiedene Verfahren für Highlight Reconstruction (Luminance Recovery, Color Propagation, CIELab, Blended), die je nach Motiv/Bild besser funktionieren.

Wie in allen Raw Convertern kann man diese Einstellungen in Profile sichern. Ausserdem kann man in den Voreinstellungen des Programms dynamische Regeln definieren, dass bei bestimmten Kameratypen und EXIF-Werten automatisch bestimmte Profile angewandt werden; also z.B. für alles CinemaDNG-Material mit ISO1600 und darunter AmaZE-Debayering, und für alles über ISO1600 LMMSE.



Antwort von roki100:

cantsin hat geschrieben:
weil Rawtherapee erheblich mehr aus dem Material herausgeholt hat als Resolve, vor allem bei Low Light/starkem Sensorrauschen
Definitiv besser als das was Resolve aus CinemaDNG macht, gemeint ist vor allem, dass mit LMMSE die meisten Artefakte quasi weg sind. Ich frage mich bei jeder Umwandlung aus RawTherapee, wieso ich schon vorher davon nichts erfahren habe. Und ich sehe, Du wusstest alles bescheid und hast mir nichts davon erzählt!? ;)

Ich exportiere das Ganze in (Standard) sRGB und wenn ich in Resolve dann FilmConverter drauf anwende, sieht es besser aus, als mit original CinemaDNG (Film)....

Nach Export aus RawTherapee, mache ich noch folgendes unter Curves in Resolve: Bildschirmfoto 2021-03-14 um 15.10.06.png NR benutze ich ebenfalls in Resolve: Temporal NR (Better, Large und nur Luma auf: 5.00) und Spital Threshold nur Chroma 10.2

Man kann aber alles in RawTherapee machen und Resolve (oder andere Schnittprogramme) nur für Cut und Ton einsetzen. :)



Antwort von rush:

Und wie nutzbar ist der ganze Workflow in der Praxis bei langen Sequenzen?
Einmal ein Bild anpassen und dann via Batch auf die folgenden Bilder der Sequenz anwenden und per Stapel abarbeiten lassen oder wie läuft das?



Antwort von roki100:

rush hat geschrieben:
Und wie nutzbar ist der ganze Workflow in der Praxis bei langen Sequenzen?
Einmal ein Bild anpassen und dann via Batch auf die folgenden Bilder der Sequenz anwenden und per Stapel abarbeiten lassen oder wie läuft das?
Wenn Du in RawTherapee unter Dateiverwaltung einen Ordner mit CDNG Files öffnest, werden Dir alle CDNGs angezeigt, dann einfach mit STRG+A alles markieren und im rechten Bereich unter "Batchberarbeitung" alles was Du tust (z.B. demosaic auf LMMSE ändern) wird auf alle Files angewendet...wenn alles angepasst ist, auf alle ausgewählte CDNGs mit der rechten Maustaste --> Zur Warteschlange hinzufügen.... :)

Siehe "Sync" https://rawpedia.rawtherapee.com/Batch_ ... nts_-_Sync

Vll. gibt es aber auch ein anderen Workflow?



Antwort von cantsin:

rush hat geschrieben:
Einmal ein Bild anpassen und dann via Batch auf die folgenden Bilder der Sequenz anwenden und per Stapel abarbeiten lassen
Das geht auch. Und dann als 16bit TIFF-Sequenz exportieren, und die dann anschließend in NLEs importieren.



Antwort von roki100:

https://rawpedia.rawtherapee.com/Command-Line_Options



Antwort von dienstag_01:

Mich würde ja mal interessieren, mit welchen farbliche Unterschieden das Material in Resolve und RawTherapee angezeigt wird.
Ist das signifikant anders?
(Würde auch ein originales CDNG nehmen, hab keins)



Antwort von cantsin:

Zu den Farbunterschieden sind diese beiden Bilder nicht aussagekräftig (da jeweils unterschiedlich gegradet), wohl aber zu den Debayering-Algorithmen.

Hier war das Augangsmaterial ziemlich hoffnungslos, aus einer alten EOS-M mit MagicLantern und MLV-zu-CinemaDNG-Raw-Videoaufnahme, bei schlechtem Licht und hoher ISO, und daraus resultierenden deutlichen sichtbaren dead pixels.

Hier das Material direkt aus Resolve: resolve_1.1.2.png 1:1-Ausschnittsvergrößerung mit (schwarzen) dead pixels: crop-resolve_1.1.2.png
Hier das Material debayert in RT, mit getunten Debayering-Parametern, und danach als 16bit-TiFF importiert in Resolve: rt_1.2.1.png 1:1-Ausschnittsvergrößerung: crop-rt_1.2.1.png
In beiden Fällen wurde das Material per Neat Video Pro in Resolve noch temporal entrauscht.








Antwort von roki100:

@pillepalle BMPCC_1_2021-03-08_0245_C0104_000000.dng.zip
Und hier ein Vergleich. Ich habe extra Baum ausgesucht, weil da die Artefakte am Besten zu sehen sind...

cDNG in Davinci (CST, BMD Film zu Rec709...), Zoom 163%: Bildschirmfoto 2021-03-14 um 18.05.17.png (man sieht all die bunten Artefakte)

RawTherapee LMMSE, 16Bit tiff export, und in Davinci die Curve angepasst: Bildschirmfoto 2021-03-14 um 18.07.24.png (keine Artefakte)

Vollbild

cDNG Davinci Bildschirmfoto 2021-03-14 um 18.09.43.png RawTherapee Bildschirmfoto 2021-03-14 um 18.09.30.png Also m.M. besser als ca. 400 Euro teuere RAWLITE OLPF ;)



Antwort von dienstag_01:

Ich habe mir das File mal runtergeladen. Schade, dass da etwas die Farben fehlen, aber danke.



Antwort von roki100:

Farben fehlen? Alles CDNG/RAW normal... Farben kommen nachher - bei der Umwandlung von BMD Film in Rec709. Oder automatisch, beim öffnen in RawTherapee (oder auch z.B. in Affinity Photo).



Antwort von dienstag_01:

roki100 hat geschrieben:
Farben fehlen? Alles CDNG/RAW normal... Farben kommen nachher - bei der Umwandlung von BMD Film in Rec709. Oder automatisch, beim öffnen in RawTherapee (oder auch z.B. in Affinity Photo).
Ich meinte natürlich ein etwas farbenfroheres Bild ;)

Ist es normal, dass man im RAW Tab nichts außer Decode Quality und Using einstellen kann oder liegt es an fehlenden Metadaten für dieses einzelne DNG?



Antwort von roki100:

Hier hast Du ein paar farbige: 1_Sirui_A133X.zip 2_Sirui_A133X.zip normal.zip

Also in Davinci, Camera Raw TAB, da sieht es so aus:
Bildschirmfoto 2021-03-14 um 22.27.35.png Und in RawTherapee findest Du rechts "Batchbearbeitung" Tab und oben drüber weitere Tabs: Bildschirmfoto 2021-03-14 um 22.29.17.png Also wenn man sich manche Beiträge von mash_gh4 nochmal durchliest, wo er auch CinemaDNG erwähnt und er seine Verständnis von RAW usw. verdeutlicht, wird einem (zumindest mir) erst jetzt klar, was er da überhaupt meinte... ;))



Antwort von roki100:

Übrigens, auch die *.RW2 (RAW) Dateien von G9/GH5 kann man in RawTherapee laden, bearbeiten und tiff (Sequenz) für Davinci&Co erstellen...

https://www.youtube.com/watch?v=Yh9QNODKAOs

aber nur für ein paar Sekunden (zumindest bei mir, wahrscheinlich wegen UHS1 SD Karte...), ohne Ton usw. :)



Antwort von Darth Schneider:

@roki
Also wenn ich so ein Aufwand betreiben müsste bis mir das RAW dann auch gefällt, würde ich nicht mit zusätzlichen Apps lösen, umwandeln in TIFF, weiss Gott noch was, sondern mir ganz einfach eine neue Kamera kaufen...;)))
Dafür hätte ich echt nicht mal für eine einzige Szene die Nerven...

Arbeitest du eigentlich mit der neusten Resolve Studio Version 17 ?
Wenn nicht, könnte das durchaus eine Fehlerquelle sein...
Gruss Boris



Antwort von roki100:

@Boris, das im Video ist wirklich aufwendig, mit RawTherapee aber nicht wirklich.

ich weiß aber was Du meinst....
Manche finden es wiederum besser, wenn sie die Möglichkeit haben, RAW als RAW zu bearbeiten bzw. selbst über die Schärfe, demosaic Methode usw. zu bestimmen... CinemaDNG und nicht so tolle demosaic Methode in Davinci, ist ein gutes Beispiel dafür... Man hat die Möglichkeit dann einfach andere Tools zu benutzen, in diesem Fall: RawTherapee.

Ich mache das auch nur deswegen, weil CDNG mit LMMSE demosaic Methode quasi frei von Artefakte ist (siehe Bilder oben)...

Es liegt nicht an Davinci Version, sondern an eine ältere demosaic Methode. Andere Softwarehersteller haben weiter (in OpenSource Welt) an eine Verbesserung für demosaic gearbeitet. BMD leider nicht... Die haben stattdessen eigenes (B)RAW und ich denke BMD hat damit bessere Unterstützung in Davinci für CinemaDNG völlig aufgegeben....Die haben BRAW nicht von heute auf morgen entwickelt, sondern wahrscheinlich über Jahren da die Zeit investiert, statt sich um CDNG und demosaic Probleme zu kümmern....Dazu kommt auch noch RED Patent usw.



Antwort von roki100:

Übrigens, für diejenigen die das ganze interessant finden und kein OLPF haben aber dennoch etwas moirés und aliasing (dank bessere demosaic Method LMMSE oder DCB) reduzieren möchten, gibt es viel schnellere Alternative als über RawTherapee&Co.: "LibRaw"
Das musst ja natürlich selbst kompilieren...danach findet ihr (bei Linux und macOS) unter bin/simple_dcraw, unprocessed_raw...und dcraw_emu.
dcraw_emu -6 -q 4 -dcbe -T -a /<DNG VERZEICHNIS>/*.dng wandelt z.B. alle dngs in 16bit tiffs um, mit demosaic Method DCB....

"-q 4" ist DCB, "-q 9" ist LMMSE usw. siehe dcraw_emu und weitere Parameter:
-c float-num Set adjust maximum threshold (default 0.75) -v Verbose: print progress messages (repeated -v will add verbosity) -w Use camera white balance, if possible -a Average the whole image for white balance -A <x y w h> Average a grey box for white balance -r <r g b g> Set custom white balance +M/-M Use/don't use an embedded color matrix -C <r b> Correct chromatic aberration -P <file> Fix the dead pixels listed in this file -K <file> Subtract dark frame (16-bit raw PGM) -k <num> Set the darkness level -S <num> Set the saturation level -R <num> Set raw processing options to num -n <num> Set threshold for wavelet denoising -H Highlight mode (0=clip, 1=unclip, 2=blend, 3+=rebuild) -t Flip image (0=none, 3=180, 5=90CCW, 6=90CW) -o Output colorspace (raw,sRGB,Adobe,Wide,ProPhoto,XYZ,ACES) -o file Output ICC profile -p file Camera input profile (use 'embed' for embedded profile) -j Don't stretch or rotate raw pixels -W Don't automatically brighten the image -b <num> Adjust brightness (default = 1.0) -q N Set the interpolation quality: 0 - linear, 1 - VNG, 2 - PPG, 3 - AHD, 4 - DCB 11 - DHT, 12 - AAHD -h Half-size color image (twice as fast as "-q 0") -f Interpolate RGGB as four colors -m <num> Apply a 3x3 median filter to R-G and B-G -s Select one raw image from input file -4 Linear 16-bit, same as "-6 -W -g 1 1 -6 Write 16-bit output -g pow ts Set gamma curve to gamma pow and toe slope ts (default = 2.222 4.5) -T Write TIFF instead of PPM -G Use green_matching() filter -B <x y w h> use cropbox -F Use FILE I/O instead of streambuf API -Z <suf> Output filename generation rules .suf => append .suf to input name, keeping existing suffix too suf => replace input filename last extension - => output to stdout filename.suf => output to filename.suf -timing Detailed timing report -fbdd N 0 - disable FBDD noise reduction (default), 1 - light FBDD, 2 - full -dcbi N Number of extra DCD iterations (default - 0) -dcbe DCB color enhance -aexpo <e p> exposure correction -apentax4shot enables merge of 4-shot pentax files -apentax4shotorder 3102 sets pentax 4-shot alignment order -mmap Use memory mmaped buffer instead of plain FILE I/O -mem Use memory buffer instead of FILE I/O -disars Do not use RawSpeed library -disinterp Do not run interpolation step -dsrawrgb1 Disable YCbCr to RGB conversion for sRAW (Cb/Cr interpolation enabled) -dsrawrgb2 Disable YCbCr to RGB conversion for sRAW (Cb/Cr interpolation disabled)








Antwort von Darth Schneider:

Also jetzt musst du auch noch die Software umprogrammieren damit du mit den CDng Aufnahmen der Pocket dann am Schluss wirklich zufrieden bist..;)))
Ich würde das RAW noch durch einen Quantencomputer pressen, der dann mir jedem Pixel ein wenig den Tango tanzt.
Das gibt dem CDng Material dann den ultimativen Grrr Look..;)
Gruss Boris



Antwort von roki100:

ist doch tolle Sache :)



Antwort von mash_gh4:

roki100 hat geschrieben:
Übrigens, für diejenigen die das ganze interessant finden und kein OLPF haben aber dennoch etwas moirés und aliasing (dank bessere demosaic Method LMMSE oder DCB) reduzieren möchten, gibt es viel schnellere Alternative als über RawTherapee&Co.: "LibRaw"
man kann auch einfach die entsprechenden import-nodes im Natron nutzen. damit sollte man einerseits die ganze funktionalität von libraw zu verfügung haben, aber eben auch einstell- und vorschaumöglichkeit via GUI und die möglichkeit eine verkettung mit weiteren nachfolgenden bildaufbereitungsschritten und vielen exportformaten.

wenn man allerdings ohnehin bereits passende einstellungen gefunden hat bzw. komplexere korrekturketten auf diese weise einfach nur headless per kommandozeilenaufruf abarbeiten lassen will, geht das damit natürlich auch: https://natron.readthedocs.io/en/python ... ution.html

im mistika stehen all diese verschieden nutzungsmöglichkeiten übrigens auch in ganz ähnlicher weise zur verfügung.



Antwort von mash_gh4:


Ich würde das RAW noch durch einen Quantencomputer pressen, der dann mir jedem Pixel ein wenig den Tango tanzt. dazu hab ich erst unlängst einen ganz tollen vortrag gefunden, wo teilchenphysiker tatsächlich ihre mächtigen werkzeuge nutzen, um probleme der bildkompression weiter zu optimieren:

https://www.youtube.com/watch?v=QAw81qk3kG0



Antwort von roki100:

mash_gh4 hat geschrieben:

im mistika stehen all diese verschieden nutzungsmöglichkeiten übrigens auch in ganz ähnlicher weise zur verfügung.
Mistika ist toll, aber der Preis naja... ;)
Es gibt auch rawtherapee-cli...
Das andere wäre noch über librtprocess...



Antwort von klusterdegenerierung:

Meiner Meinung nach liefert RT keine professionellen Ergebnisse.



Antwort von mash_gh4:

roki100 hat geschrieben:
Mistika ist toll, aber der Preis naja... ;)
ja -- natürlich ist es in der kommerziellen ausgabe eher an den preisvorstellungen orientiert, wie sie fast nur die große studios zu stemmen vermögen -- ganz ähnlich wie bei nuke.

in beiden fällen gibt's aber ziemlich tolle 'non-commercial' bzw. 'educational' ausgaben, mit denen man durchaus vernünftig arbeiten kann.
sie haben zwar jeweils einige gravierende einschränkungen, aber in summe sind diese beschränkungen z.t. weniger bedeutsam als in der freien ausgabe von resolve, die ja gerne mit einer uneingeschränkten gratis software verwechselt wird.

https://www.sgo.es/free-education-edition/
https://www.foundry.com/products/nuke-f ... commercial

von beiden programmen kann man derart viel lernen bzw. sich von ihrer vorbildlichkeit abschauen, dass es durchaus sinn macht, sich damit praktisch zu beschäftigen, um vor allem auch die schwächen anderer populärer lösungen deutlicher zu erkennen.



Antwort von mash_gh4:

klusterdegenerierung hat geschrieben:
Meiner Meinung nach liefert RT keine professionellen Ergebnisse.
das könnte evtl. auch etwas mit der herangehensweise der jeweiligen benutzer zu tun haben...

ich verwende allerdings auch noch immer darktable lieber als rawtherapee, obwohl das weniger mit technischen vorteilen als geschmacklichen vorlieben im hinblick auf die GUI-ästhetik od. vielleicht auch einfach nur "gewohnheit" zu tun hat.



Antwort von roki100:

mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Mistika ist toll, aber der Preis naja... ;)
ja -- natürlich ist es in der kommerziellen ausgabe eher an den preisvorstellungen orientiert, wie sie fast nur die große studios zu stemmen vermögen -- ganz ähnlich wie bei nuke.

in beiden fällen gibt's aber ziemlich tolle 'non-commercial' bzw. 'educational' ausgaben, mit denen man durchaus vernünftig arbeiten kann.
sie haben zwar jeweils einige gravierende einschränkungen, aber in summe sind diese beschränkungen z.t. weniger bedeutsam als in der freien ausgabe von resolve, die ja gerne mit einer uneingeschränkten gratis software verwechselt wird.

https://www.sgo.es/free-education-edition/
ja, das erste was ich nach komplizierte Installation&Activation und das starten des Programms gelernt habe ist, dass CinemaDNG nicht unterstützt wird... ;)








Antwort von mash_gh4:

roki100 hat geschrieben:
ja, das erste was ich nach komplizierte Installation&Activation und das starten des Programms gelernt habe ist, dass CinemaDNG nicht unterstützt wird... ;)
betr. nuke, mistika od. natron?

zusätzlich gibt's auch noch das problem das komprimiertes cDNG aus den alten BMD kameras oft nicht unterstützt wird, weil es intern propietäre bzw. in der DNG-spezifikation nicht vorgesehene komprimierungsformate nutzt.



Antwort von roki100:

mistika

das habe ich wohl falsch verstanden:
im mistika stehen all diese verschieden nutzungsmöglichkeiten übrigens auch in ganz ähnlicher weise zur verfügung.
ich dachte Du meinst damit verschiedene demosaic Method für cinemaDNG...



Antwort von mash_gh4:

roki100 hat geschrieben:
mistika

das habe ich wohl falsch verstanden:
im mistika stehen all diese verschieden nutzungsmöglichkeiten übrigens auch in ganz ähnlicher weise zur verfügung.
ich dachte Du meinst damit verschiedene demosaic Method für cinemaDNG...
sorry -- damit hab ich mich mehr darauf bezogen, dass mistika auch headless z.b. in render farmen und scripts genutzt werden kann.

um die raw-features hab ich mich dort nie so sehr gekümmert, kann mir aber gut vorstellen, dass auch da in wahrheit freie mittel genutzt werden, so wie ja auch ffmpeg und OpenFX für vieles andere genutzt wird:

https://support.sgo.es/support/solution ... er-codecs-

https://support.sgo.es/support/solution ... mpilation-



Antwort von roki100:

da steht :

"DNG (improved support since Mistika 8.7 version )
Realtime"


Und auch hier steht: http://www.cenilux.com/workflow/
SGO supports CinemaDNG in the Mistika product range....

wird aber nicht unterstützt. Die DNGs können nur als Bilder/Sequenzen importiert werden. Es gibt kein RAW Parameter für ISO, WB, Sharpness...wie z.B. CameraRAW in DaVinci....habe ich zumindest nichts gefunden, dann im netz gesucht und folgendes herausgefunden: "I"m affraid DNG Raw is not supported in Mistika Workflows...." https://forums.sgo.es/forums/index.php? ... e-folders/

Nichtmal Adobe Premiere bietet Unterstützung (oder funktioniert es mit ältere Versionen? CS6?). Zum Glück lässt sich cdng noch mit DaVinci bearbeiten und auch mit ...libraw, rawtherapee usw. :)



Antwort von mash_gh4:

mistika worflows ist wieder eine andere baustelle, aber das wichtigste bzgl. DNG-processing sollte über die "DNGParams" in ähnlicher weise wir z.b. bei RED od. arri RAW handhabbar sein -- wobei einfache dinge, wie exposure control, WB u.ä., hier ohnehein auch im nachfolgenden farbaufbreitungsprozess sauber korrigiert werden können:

https://www.youtube.com/watch?v=T8YTNUShW5I
https://www.youtube.com/watch?v=Ms6JmUKimHQ


bildsequenzen müssen nur richtig importiert werden, können aber ansonsten ganz gleich wie sequenzielle formate verwendet werden...

https://www.youtube.com/watch?v=n7vUrJ6bt5A
https://www.youtube.com/watch?v=awHZQtiDv24



Antwort von roki100:

Super! Das geht! :)

Okay, da gibt es zwar kein LMMSE usw. aber dafür auch eine Möglichkeit um moirés rauszufiltern!
Bildschirmfoto 2021-12-18 um 14.35.35.png Filter P-C auf 0.000 und schon sind die moirés weg... :)



Antwort von mash_gh4:

roki100 hat geschrieben:
Super! Das geht! :)
Filter P-C auf 0.000 und schon sind die moirés weg... :)
ich muss zugeben, dass ich keine ahnung habe, was dieser einstellungsänderung tatsächlich bewirkt, aber ich vermute, dass sie mit folgendem parameter aus der adobe DNG-spezifikation bzw. der entsprechenden aufbereitungslibrary zu tun haben könnte, wobei hier ja offenbar getrennte einstellungen für chroma- und luma-filter vorhanden sind:

Bildschirmfoto_2021-12-18_15-18-55.png



Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Meiner Meinung nach liefert RT keine professionellen Ergebnisse.
Worauf basierst Du diese Meinung?



Antwort von klusterdegenerierung:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Meiner Meinung nach liefert RT keine professionellen Ergebnisse.
Worauf basierst Du diese Meinung?
Aus meiner eigenen Erfahrung, die dahingehend ist, das bei bestimmten Einstellungen wie Schatten aufhellen etc. das Bild nicht konsistent verarbeitet wurde und es zu komischen Fehlern kam, die es in ACR bei gleicher Anwendung überhaupt garnicht gab.

Ich habe dann noch so einiges hin und her probiert, aber mein empfinden war, das es am Ende eher was experimentelles war, statt ein seriöses Ergebnis, welches man auch einem Kunden in die Hand geben kann. Aber das ist einfach nur mein Eindruck und sehen viele andere User sicherlich ganz anders.








Antwort von Darth Schneider:

Guten Abend zusammen
Worum geht es hier eigentlich in dem Threat wirklich ?
Wofür steht RT ?
So einfach wie möglich erläutert, für uns normalsterblichen Leute ?;))
Gruss Boris



Antwort von srone:

russia today...;-)

lg

srone



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Wofür steht RT ?
So einfach wie möglich erläutert, für uns normalsterblichen Leute ?;))
Guck mal in den Titel dieses Threads (RawTherapee)...



Antwort von Darth Schneider:

Das grundsätzliche denke ich hab ich schon geschnallt.
So dämlich bin ich jetzt auch nicht.
Es geht um Bearbeitung von CDng Filmmaterial in RAW Therapee.
Aber deine sicher nett gemeinte Antwort beantwortet trotzdem leider nicht meine zwei Fragen da oben.

Also sowie ich das jetzt als absoluter Laie in diesem Bezug jetzt sehe, ist dieses teure Mistika einfach nur Top !
Und darum wahrscheinlich auch teuer.
Und die Variante mit Raw Therapee zwar sehr günstig, auch zielführend aber sonst eher sehr mühsam…
Gruss Boris



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Aber deine sicher nett gemeinte Antwort beantwortet trotzdem leider nicht meine zwei Fragen da oben.

Also sowie ich das jetzt als absoluter Laie in diesem Bezug jetzt sehe, ist dieses teure Mistika einfach nur Top !
Und darum wahrscheinlich auch teuer.
Und die Variante mit Raw Therapee zwar sehr günstig, auch zielführend aber sonst eher sehr mühsam…
Rawtherapee ist einfach ein Open Source-Foto-Rawkonverter. Er bietet im Gegensatz zu Resolve ziemlich viel Einstellparameter für das Debayering, wie z.B. verschiedene Debayer-Algorithmen, -Optimierungen und -Fehlerkorrekturen sowie verschiedene Highlight-Recovery-Algorithmen, die in der Summe ggfs. einen bildqualitativen Unterschied machen können, wenn man z.B. in hohen ISOs aufnimmt, defekte Sensorpixel auf der Kamera hat oder mit einer Kamera mit altem Sensor gedreht hat (wie z.B. einer Canon mit MagicLantern). Weil RawTherapee (wie die meisten Foto-Rawkonverter) auch DNGs schluckt, kann man damit auch CinemaDNGs prozessieren und 16bit TIFFs rausrendern, die man dann in Resolve & Co. als Videosequenzen importieren und schneiden/weiterbearbeiten kann.



Antwort von Darth Schneider:

Danke, so ergibt das natürlich schon viel Sinn, wenn man das braucht oder gern möchte.
Und dieses Mistika wäre dann die professionelle Version davon spezifisch nur für Film ?
Gruss Boris



Antwort von Jost:

roki100 hat geschrieben:
ist doch tolle Sache :)
Kommt darauf an. Hatte hilfsweise RT genutzt, um CDNG-Einzelfotos aus einem BM 4.6/60p zu lösen. Ein 30-Sek-Clip hat dann bereits 1800 Einzelfotos.
Zudem muss man wissen: Wenn Bewegung im Clip ist, welches Bild ist scharf und taugt als Basis für eine Bearbeitung? Das Material kommt von einer M2, es werkelt ein 3950x. Es dauert dennoch ewig, die 1800 Einzelfotos überhaupt zur Auswahl sichtbar zu machen.

Außerdem bleiben bei mir die RT-Ergebnisse weit hinter Lightroom-Ergebnissen zurück. Das mag an meiner RT-Unbeholfenheit liegen.

Wenn ich dann noch alles in Tiff wandeln würde, wird der Datenstrom für die DR-Bearbeitung so groß, dass wohl zwingend die M2 mit vier Lanes angebunden sein muss.

Es ist ein alter Wunsch, dass Lightroom-Ergebnisse per Click in DR übernommen werden. Offenbar wurde aber noch keine Lösung gefunden.

Wobei ich nicht ausschließen will, dass meine DR-Unbeholfenheit dafür sorgt, dass ich noch nicht zu vergleichbaren Ergebnissen gekommen bin.



Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Also sowie ich das jetzt als absoluter Laie in diesem Bezug jetzt sehe, ist dieses teure Mistika einfach nur Top !
ja -- mistika ist in vielen dingen wirklich unglaublich toll, aber halt z.t. auch verdammt kompliziert, altmodisch und umständlich zu bedienen... ;)

die ausgabe für mac und windows ("mistika boutique"), ist ohnehin nur eine abgespeckte variante für kleinere studios und endanwender, während das richtige teuere "mistika ultima" weiterhin linux nutzt und normalerweise eher nur als größeres gesamtpaket mit sehr leistungsfähiger hardware und abgestimmt auf die tatsächlichen erfordernisse eines kunden ausgeliefert wird. derartiges wird dann sehr oft in kino-produktionen genutzt, die zum jeweiligen zeitpunkt mit kaum einer anderen software bewältigbar wären.

die gratis educuational-version ist selbstverständlich noch weiter eingeschränkt, aber trotzdem interessant, weil sie im wesentlichen ganz ähnliches leistet wie resolve -- in manchen dingen sogar ein bisserl mehr, in andern wieder weniger --, nur halt eben unabhängig von einem konkreten hardwarehersteller und den oft recht undurchsichtig gestalteten eigenheiten seiner produkte.

unter anderem unterstützt mistika tatsächlich fast alle gegenwärtig gebräuchlichen RAW-video-formate -- darunter auch einige, die man sonst kaum gleichzeitig in der selben anwendung nutzen kann.

bei manchen dieser RAW-formate müssen ohnehin die herstellereigenen SDKs genutzt werden, um überhaupt darauf zugreifen zu können od. die besonderheiten des jeweiligen formats voll ausschöpfen zu können. im falle von DNG ist das ein wenig anders, weil es ja von verschiedensten herstellern genutzt wird, aber eben auch ein klein wenig allgemeiner gehalten ist.

trotzdem kann man auch bei verwendung von DNG im mistika ein paar dinge nachträglich korrigieren bzw. bei der entwicklung der RAW daten möglichst optimal einstellen, die nur im vorfeld od. beim demosaicing selbst durchgeführt werden können, als wirklich nur in derartigen RAW-workflows beeinflussbar sind bzw. den vorzug und das tatsächliche alleinstellungsmerkmal einer solchen aufzeichnung ausmachen.

ganz konkret kann man damit bspw. die moire-neigung u.ä. artefakte mancher sensoren auch nachträglich noch ein klein wenig kompensieren, was zwar bei fast allen foto-raw-entwicklern in ähnlicher weise mögliche ist, leider aber kaum bei ihren entsprechungen im video-umfeld.

ein grund dafür ist natürlich auch in der tatsache zu sehen, dass diese komplizierteren formen des debayerings meist deutlich rechenintensiver sind, und daher auch auf leistungsfähigen rechnern kaum in echtzeit zu bewältigen sind.

das verarbeiten der DNGs in rawtherapee, darktable, dcraw, libraw, natron usw. ist zwar vermutlich eher nur als eine notlösung zu sehen, aber eben doch eine möglichkeit, ein maximum aus den raw daten herauszuholen bzw. korrekturen vornehmen zu können, die in anderen werkzeugen gar nicht erst zur verfügung stehen. es schadet also sicher nicht, möglichst viel verschiedenen ansätze und ihre vor- und nachteile zu kennen bzw. ausprobiert zu haben, um jeweils das geeignetste zur hand zu haben, um im fall der fälle doch noch kompliziertere eingriffe an derartigem ausgangsmaterial vornehmen zu können.



Antwort von cantsin:

Hier mal ein konkretes Beispiel: CinemaDNG aus der alten Blackmagic Production Camera 4K (der mit dem CMOSIS-Global-Shutter s35-Sensor, der auch in der allerersten Ursa verwendet wurde), Straße unterbelichtet, Laterne überbelichtet/clippend, und dann in Resolve per Kurve hochgezogen.


Hier das DNG-Debayering von Resolve: resolve-1.1_1.1.1.jpg 1:1-Ausschnitt: resolve-1.1_1.1.1-crop-2.png

Und hier das DNG-Debayering von RawTherapee, mit LMMSE-Debayering und maximaler Anzahl LMMSE-Optimierungsstufen sowie WB-Korrektur entsprechend dem obigen Bild, ohne weitere Korrekturen exportiert nach 32bit-TIFF, importiert in Resolve und mit denselben Korrekturen wie das obige Bild versehen + leichter Gammakorrektur zur Angleichung der Farben: rt-1.2_1.2.1.jpg 1:1-Ausschnitt: rt-1.2_1.2.1-crop-2.png
In beiden Fällen wurden keine Rauschfilter verwendet.








Antwort von Jost:

Stell doch bitte mal das DNG ein. Ich würde das gern mal mit Lightroom versuchen.



Antwort von cantsin:

Jost hat geschrieben:
Stell doch bitte mal das DNG ein. Ich würde das gern mal mit Lightroom versuchen.
Die Datei ist leider auch gezippt zu groß fürs Forum, daher hier:
http://data.pleintekst.nl/2000-01-01_12 ... 000111.dng



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Also sowie ich das jetzt als absoluter Laie in diesem Bezug jetzt sehe, ist dieses teure Mistika einfach nur Top !
Und darum wahrscheinlich auch teuer.
Es unterstützt auch BRAW..... Gibt es kostenlos: https://www.sgo.es/free-education-edition/

"With constant requests coming from educational facilities to include Mistika Boutique in their learning curriculum along with an increasing number of creatives around the world wanting to adopt it as their system of choice, the introduction of the Education Edition of Mistika Boutique was a natural step forward for us," said Geoff Mills, Managing Director at SGO. "This fully featured training platform combined with significant online learning resources is completely free of charge and open to everyone who wants to learn Mistika Boutique, take their creative skills to the next level and stand out of the crowd."

Mistika Boutique Education Edition offers all the functionality and feature architecture as the Professional Immersive Edition of Mistika Boutique, including professional color grading, conform, VFX, online edit, S3D and VR toolsets, together with support for Tangent and Precision color control surfaces.

This special Educational Edition renders to compressed formats, including H.264, ProRes Proxy and LT and projects created in this version cannot be opened in other editions of Mistika Boutique.



Antwort von roki100:

Jost hat geschrieben:
roki100 hat geschrieben:
ist doch tolle Sache :)
Kommt darauf an. Hatte hilfsweise RT genutzt, um CDNG-Einzelfotos aus einem BM 4.6/60p zu lösen. Ein 30-Sek-Clip hat dann bereits 1800 Einzelfotos.
Zudem muss man wissen: Wenn Bewegung im Clip ist, welches Bild ist scharf und taugt als Basis für eine Bearbeitung? Das Material kommt von einer M2, es werkelt ein 3950x. Es dauert dennoch ewig, die 1800 Einzelfotos überhaupt zur Auswahl sichtbar zu machen.
Ja ist etwas träge... RT macht nur Sinn wenn man z.B, die bessere demosaic Methode nutzen möchte und dementsprechend auch besser um RAW Artefakte zu reduzieren. Für Windows und Linux User gibt es noch Fast cinemaDNG , was ja mit Cuda läuft (schneller) aber auch verschiedene demosaic Methode kann.



Antwort von Jost:

cantsin hat geschrieben:
Jost hat geschrieben:
Stell doch bitte mal das DNG ein. Ich würde das gern mal mit Lightroom versuchen.
Die Datei ist leider auch gezippt zu groß fürs Forum, daher hier:
http://data.pleintekst.nl/2000-01-01_12 ... 000111.dng
Komme ich nicht ran. Danke dennoch für Deine Bemühungen. RT und ich werden aber keine Freunde. Habe gerade noch einmal einen Test RT vs LR mit einem 4.6/60p DNG gefahren. Ja, es stimmt: Selbst bei Morgenlicht weniger Rauschen mit RT. Aber nichts, was man in DR nicht mit NR 0,6 beheben könnte.

Aber es passt alles nicht. Mit LT muss ich etwa ~2,5 Blenden zurücknehmen. Fertig. Dann kann man noch etwas rumspielen für Details.
Bei RT passt grundsätzlich ISO nicht. Keine Spur vom warmen Morgenlicht. Die Hauttöne stimmen nicht. Da kann ich rumfummeln wie ich will - wird nichts. "Auto" kommt der Sache dann schon sehr nahe. Highlights clippen dann aber unerträglich. Zurücknehmen. Weiß der Geier, warum? In der BM lasse ich mich bei 80 % warnen. Da clippt im Original nichts.

Ich vermute, ob der vielen Einstellungsmöglichkeiten, kommt man mit RT tatsächlich an LR und DR vorbei. Wenn man es kann.

Das größte Problem wird aber in der Praxis auftauchen. Beispiel Dein Nachtbild: Fährt im Clip für 2 Sekunden ein Krankenwagen mit Blaulicht vorbei, wird man 60 Bilder händisch korrigieren müssen. Dann muss man schon Enthusiast sein oder für die Zeit bezahlt werden.



Antwort von roki100:

Hier ein Hardcore Beispiel

Mistika Mistika.png DaVinci Resolve Davinvi.png LMMSE (RT/LibRaw...) RT_LMMSE.png RT_DCB (RT/LibRaw...) RT_DCB.png
DNG File von hier https://www.libraw.org/articles/bayer-moire.html



Antwort von cantsin:

Jost hat geschrieben:
Komme ich nicht ran. Danke dennoch für Deine Bemühungen.
Probier's nochmal hiermit:
http://data.pleintekst.nl/2000-01-01_12 ... 11.dng.zip

Ich vermute, dass Deine Probleme mit RT mit dem Colormanagement zusammenhängen.

Mach mal folgendes: Nimm als Ausgangspunkt das RT-Preset bzw. Processing Profile "Neutral". Dann hast Du bis aufs Debayering ein 100% ungefiltertes Bild. Wenn das zu flach ist, klick dann im ersten (+/-)-Tab auf "Auto-Matched Tone Curve", oder gehe alternativ ins dritte Tab (Farbkreise), da in "Color Management" und kontrolliere, ob da als "Input Profile" "Camera Standard" eingestellt ist. Bei Fotokameras kannst bei installiertem Photoshop/LightRoom oder auch (dem kostenlosen) Adobe DNG Converter alternativ auf "Custom" klicken und dann Adobes kameraspezifischen DCP-Dateien als Input-Profil verwenden. Das "working profile" sollte auf "ProPhoto" (oder alternativ Rec2020 oder Aces) stehen, das Output-Profil auf "sRGB" oder was immer Du im NLE brauchst (Rec2020, Cineon, Aces - glaube nicht, dass viele andere Foto-Raw-Konverter diese Farbräume bieten...).



Antwort von roki100:

mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Super! Das geht! :)
Filter P-C auf 0.000 und schon sind die moirés weg... :)
ich muss zugeben, dass ich keine ahnung habe, was dieser einstellungsänderung tatsächlich bewirkt, aber ich vermute, dass sie mit folgendem parameter aus der adobe DNG-spezifikation bzw. der entsprechenden aufbereitungslibrary zu tun haben könnte, wobei hier ja offenbar getrennte einstellungen für chroma- und luma-filter vorhanden sind:


Bildschirmfoto_2021-12-18_15-18-55.png

Ah okay,
"Filter P-C" bei DNGParams in Mistika ist das selbe wie der Trick in Davinci z.B. mit Node (gleich am Anfang) "ColorSpace" > Y'UV oder Lab(CIE) und dann unter Blur Radius nur den Blau und Grüne Farbkanal hochzieht bzw. die Farben so verschmiert - die Farbige-Moiré-Artefakte können somit reduzieren werden.

Dennoch, Mistika DNG Debayer ist definitiv besser (bisher scheint es das beste zu sein) und wird/wurde auch öfter verbessert. Um in dein "mecker-mecker"-BMD-Club als Kamerad beizutreten: ;)) Diese ganzen Weiterentwicklung von Debayer Methoden zeigen, wie schlecht BMD in all den Jahren cinemaDNG unterstützt hat. Aktuell sowieso nicht, weil nur braw braw braw...;) Und PRRAW ...oder ZRAW, geschweige denn ChikoRAW....da wird höchstwahrscheinlich nichts davon in DaVinci implementiert werden.
Eines ist also klar, Artefakte bei den älteren BMD Kameras+cinemaDNG, hängt also nicht nur damit zusammen weil kein OLPF vor dem sensor verbaut ist, sondern teilweise (in den feinen Details) an schlechte Debayer-Methode in Davinci selbst.

Das einzige was man bei BMD über LMMSE findet, ist ein (allein gelassene) Beitrag im Forum eines User, der scheinbar das selbe erkannt hat: https://forum.blackmagicdesign.com/view ... 3&t=146722



Antwort von mash_gh4:

cantsin hat geschrieben:
... gehe alternativ ins dritte Tab (Farbkreise), da in "Color Management" und kontrolliere, ob da als "Input Profile" "Camera Standard" eingestellt ist. Bei Fotokameras kannst bei installiertem Photoshop/LightRoom oder auch (dem kostenlosen) Adobe DNG Converter alternativ auf "Custom" klicken und dann Adobes kameraspezifischen DCP-Dateien als Input-Profil verwenden.
eigentlich sollte man gerade bei cDNGs derartige externe profilangaben benutzten, da sie dort zur vermeidung unnötiger redundanz nicht in die eizlenen bilder eingebettet sind.

allerdings hab ich als nicht-BMD-kamera-nutzer natürlich keine ahnung, wo man brauchbare profile für diese kameras herbekommt. notfalls müsste man sich die selbst machen.








Antwort von mash_gh4:

roki100 hat geschrieben:
Ah okay,
"Filter P-C" bei DNGParams in Mistika ist das selbe wie der Trick in Davinci z.B. mit Node (gleich am Anfang) "ColorSpace" > Y'UV oder Lab(CIE) und dann unter Blur Radius nur den Blau und Grüne Farbkanal hochzieht bzw. die Farben so verschmiert - die Farbige-Moiré-Artefakte können somit reduzieren werden.
ich denke eher, dass in dem fall noch vor dem debayern unschärfe eingebracht wird od. eben gleichwertige veränderungen am demosaicing-process selbst vorgenommen werden.

allerdings tu ich mir ein bisserl schwer, die trennung zw. croma und luma im gedanken nachzuvollziehen bzw. auf solche CFA-ausgangsdaten anzuwenden.



Antwort von roki100:

mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Ah okay,
"Filter P-C" bei DNGParams in Mistika ist das selbe wie der Trick in Davinci z.B. mit Node (gleich am Anfang) "ColorSpace" > Y'UV oder Lab(CIE) und dann unter Blur Radius nur den Blau und Grüne Farbkanal hochzieht bzw. die Farben so verschmiert - die Farbige-Moiré-Artefakte können somit reduzieren werden.
ich denke eher, dass in dem fall noch vor dem debayern unschärfe eingebracht wird od. eben gleichwertige veränderungen am demosaicing-process selbst vorgenommen werden.
Habe ich gerade getestet bzw. mit "Filter P-C" in mastika und mit dem Trick in DR. Es macht kein großen unterschied.



Antwort von Jost:

roki100 hat geschrieben:
Hier ein Hardcore Beispiel

Mistika
Mistika.png

DaVinci Resolve
Davinvi.png

LMMSE (RT/LibRaw...)
RT_LMMSE.png

RT_DCB (RT/LibRaw...)
RT_DCB.png


DNG File von hier https://www.libraw.org/articles/bayer-moire.html
Was sehe ich? Beschreib bitte.



Antwort von roki100:

Hier wird dazu eigentlich alles ganz gut beschrieben: https://www.libraw.org/articles/bayer-moire.html
...As is seen, all these demosaicing methods generate abundant color aliasing (no wonder for such a target), including half (binning of 4 pixels into 1). None of the methods has led to a satisfactory picture. However, three out of 11 methods produced a significantly better result than others: AMaZE, LMMSE and AHD (listed in the order of quality deterioration) yielded the least marked moire....



Antwort von Frank Glencairn:

roki100 hat geschrieben:


Dennoch, Mistika DNG Debayer ist definitiv besser (bisher scheint es das beste zu sein) und wird/wurde auch öfter verbessert. Um in dein "mecker-mecker"-BMD-Club als Kamerad beizutreten: ;)) Diese ganzen Weiterentwicklung von Debayer Methoden zeigen, wie schlecht BMD in all den Jahren cinemaDNG unterstützt hat. Aktuell sowieso nicht...
Natürlich nicht, warum sollte BM Ressourcen in ein totes Format investieren, das - außer für Fotos - längst keine Zukunft mehr hat? Da gibt's glaub ich echt wichtigere Baustellen.

Zumal aufwändigeres Debayering halt nicht so richtig in Echtzeit geht, was die meisten nicht als Workflow akzeptieren würden, und die Ergebnisse zwar weitgehend Artefakt und Moirefrei sind, aber dafür bezahlt man mit entsprechendem Schärfeverlust, und einem Look der eher nach Diffusion Filter aussieht.

Und all das für ein Problem, das eigentlich nur bei der original Pocket relevant ist, und da auch hauptsächlich in Verbindung mit nem Speedbooster.



Antwort von roki100:

Natürlich nicht, warum sollte BM Ressourcen in ein totes Format investieren, das - außer für Fotos - längst keine Zukunft mehr hat? Da gibt's glaub ich echt wichtigere Baustellen.
Das stimmt. Die alte Baustelle haben die zwar fertig, aber mit etwas Macken an ecken und kanten... ;) Kann man irgendwie verkraften.

Perfektes RAW gibt es (denke ich) sowieso nicht bzw. RAW Demosaic scheint in Verbindung mit verschiedene Sensoren sowieso nicht einheitlich/gleich gut zu funktionieren, nicht umsonst gibt es verschiedene deberyering Algorithmen. Bei der neuen Baustelle BRAW wird intern ein wenig entrauscht (pre-denoiser), das hat sicherlich gründe.



Antwort von Darth Schneider:

Frank bringt es wieder einmal mit einem einzigen Satz auf den Punkt.
Ich würde in dem Fall einfach den doofen Speedboster zum Fenster hinaus werfen, dann erübrigt sich dieser ganze Aufwand.
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Frank bringt es wieder einmal mit einem einzigen Satz auf den Punkt.
Ich würde in dem Fall einfach den doofen Speedboster zum Fenster hinaus werfen, dann erübrigt sich dieser ganze Aufwand.
Gruss Boris
stimmt aber nicht ganz. Die Artefakte sind zwar mit speedboster stärker, aber auch mit MFT Linsen + RAW sieht man es trotzdem...
Wem das schlechte debayerin nicht gefällt, kann man entweder RT, LibRaw etc. benutzen oder auf RAW verzichtet und ProRes benutzt.

Bei CDNG hat man zumindest die Möglichkeit RT, LibRaw etc. zu benutzen, anders mit ProRes RAW usw.

Ich bin mit dem OLPF sehr zufrieden und kann seitdem ich es habe auf RT, LibRaw... ganz verzichten . :)



Antwort von mash_gh4:

roki100 hat geschrieben:
"Darth Schneider" hat geschrieben:
Frank bringt es wieder einmal mit einem einzigen Satz auf den Punkt.
Ich würde in dem Fall einfach den doofen Speedboster zum Fenster hinaus werfen, dann erübrigt sich dieser ganze Aufwand.
Gruss Boris
stimmt aber nicht ganz. Die Artefakte sind zwar mit speedboster stärker, aber auch mit MFT Linsen + RAW sieht man es trotzdem...
mit speedbooster hat das ganze ursachlich überhaupt nichts tun!

im gegenteil, mit schlechten optiken und unschärfe, die durch die verschiedenen optischen adapter in system einfließen, verschwindet das problem viel eher, weil das ja alles indirekt wie ein low pass filter wirkt.








Antwort von roki100:

mash_gh4 hat geschrieben:
roki100 hat geschrieben:


stimmt aber nicht ganz. Die Artefakte sind zwar mit speedboster stärker, aber auch mit MFT Linsen + RAW sieht man es trotzdem...
mit speedbooster hat das ganze ursachlich überhaupt nichts tun!
Bei BMPCC, BMCC, BMMCC, macht Speedbooster die Artefakte (moiré) deutlicher sichtbar. Das stimmt schon.



Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Frank bringt es wieder einmal mit einem einzigen Satz auf den Punkt.
das wirklich problematische an franks zynischer verbreitung fragwürdiger "wahrheiten" besteht ja gar nicht darin, dass man sie mit ein bisserl nachdenken und hinterfragen nicht als unhaltbar bzw. völligen unsinn entlarven könnte -- ja, ich gesteh ihm sogar gar gerne zu, sie als "meinung" offen unter die leute zu trage, obwohl ich oft stark dran zweifle, dass er die propagierten dinge tatsächlich so sieht, statt einfach nur seiner rolle als käuflicher influencer möglichst publikumswirksam gerecht zu werden --, jedenfalls besteht das größere problem sicher darin, dass sich leider ganz offenbar immer wieder irgendwelche idioten finden, die ihm das alles abkaufen und unhinterfragt glauben, es unkritisch übernehmen, auswalzen und in ihrer bildheit als glaubensbekenntnis vor sich her tragen.



Antwort von Darth Schneider:

Du magst recht haben, aber auch zynisch und womöglich mit Halbwahrheiten bringt Frank es eigentlich trotzdem auf den Punkt..
Welche von den führenden Consumer Kamera Herstellern setzen heute noch auf CDng ? Wie viele setzten auf ProRes RAW, BRaw und Co. ?
Noch Fragen ? ;)
Wie sieht es mit Software aus ?
Nicht anders, nicht mal Resolve Studio ist scheinbar noch gut genug für CDng.
Wenn man da schon auf gratis Foto Software zurückgreifen muss, nur weil man nen öden Speeboster benutzt…
Dann wird da nicht mehr gross für CDng entwickelt beziehungsweise daran was verbessert, oder nur angepasst.
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Wenn man da schon auf gratis Foto Software zurückgreifen muss, nur weil man nen öden Speeboster benutzt…
Wie bereits erwähnt, das genannte debayering Problem hat nichts mit Speedbooster zu tun, die sind auch ohne da...;) Mit Speedbooster werden nur die Artefakte/Moiré größer oder sichtbarer.

Bei BMPCC/BMMCC ist besonders sichtbar, da kleiner Super16 Sensor, aber die Pixel groß (6.5 µm). Wenn man nen Speedbooster aufsetzt und dann auf den Sensor durch das Speedbooster-Glas schaut, ist der Sensor größer, dementsprechend auch die Sensel/Pixel samt moirés/Artefakte... ;)



Antwort von Darth Schneider:

Also wenn das Problem sichtbarer wird mit dem Speedboster finde ich hat das grundsätzlich schon sehr viel auch mit dem zu tun…
Was auch immer dir Spass macht, roki, ich finds irgendwie für mein Verständnis sinnlos…
Meinen Standpunkt und meine Meinung darüber hab ich schon erläutert, und vom Gegenteil hat mich bisher noch gar niemand überzeugt.

Wenn ich jetzt deine Pocket hätte, dann würde ich entweder einen anderen Speedboster verwenden, bei dem das Problem nicht auftritt. Oder ich würde ihn einfach weglassen und mir das MFT Anamorphic 24mm Siuri holen oder ein anderes schönes natives MFT Weitwinkel.
Und die Cdngs ganz bequem in Resolve bearbeiten und Mastern, und dann mit Handbreak heraus kopieren, und nicht den Spagat machen über zig andere Tools…;)))
Und ich würde mich bestimmt freuen über das Ergebnis…
Gruss Boris



Antwort von pillepalle:

Ich kann mich über solche Posts auch nur wundern.

Ich erinnere mich noch, wie man es als 'total umständlich' bezeichnet hat, Pro Res RAW über Scratch in Resolve zu importieren und jetzt soll cDNG über einen Fotokonverter eine tolle Lösung sein? Wie sich die Zeiten ändern 😂

VG



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Was auch immer dir Spass macht, roki, ich finds irgendwie für mein Verständnis sinnlos…
Besseres IQ ist für mich nicht sinnlos.... Das hat man nicht automatisch indem man einfach auf neue Pockets + BRAW umsteigt ;) Denn auch das hat ecken und kanten.... ;)

Es handelt sich nämlich um zwei Probleme:
1. schlechte Debayering Method in DR
2. Artefakte bei BMD Kameras aufgrund des fehlenden OLPF vor dem sensor...

Nun benutzt man sowas wie RT, um ein wenig die IQ zu Verbesser. Nutzt man ein OLPF, der von einem Blackmagic Nutzer entwickelt wurde (zuerst nur für seine Bad Kameras, weil er auch damit nicht zufrieden war), kann man auf RT verzichten. Denn das OLPF Glas ist auf DR Debayering method bestens angepasst. Besser als kann wieder RT noch sonst welche Algorithmen...denn was in CDNG eingebacken ist, ist eingebacken, anders aber wenn vor einbacken die lichter Pixel passend gespaltet werden ;)



Antwort von roki100:

pillepalle hat geschrieben:
Pro Res RAW über Scratch in Resolve zu importieren und jetzt soll cDNG über einen Fotokonverter eine tolle Lösung sein? Wie sich die Zeiten ändern 😂
Auf jeden Fall besser als nur eine Möglichkeit wie z.B. bei ProRes RAW, mit Chroma NR um ein wenig Artefakte verschwinden zu lassen, indem man die Farben verschmiert... ;) Die andere Möglichkeit wäre, Umwandlung zu CDNG, um danach besser zu demosaicen... ;)



Antwort von Darth Schneider:

Ich sehe rein gar nix schlechtes an BRaw oder an meiner Pocket, oder an dem was dann mit Resolve Studio mit oder ohne Hanbreak am Schluss heraus kommt.
Die Bildqualität so finde ich ist einfach nur Toll…
Wenn meine Pocket in zwei Jahren oder wann auch immer, den Geist aufgibt, bestell ich mir am selben Tag gleich die nächstes Blackmagic, hoffentlich dann immer noch mit BRaw.
Ich wüsste wirklich nicht warum nicht
(zum fotografieren und als zweite Film Kamera wird es dann sehr wahrscheinlich wieder eine Sony…
Wüsste auch nicht warum nicht..;)
Gruss Boris








Antwort von pillepalle:

@ roki

Besser zu demosaicen ist ja so eine Sache. Anders auf jeden Fall. Ich persönlich halte es ohnehin für besser Moire partiell zu entfernen, als deshalb das komplette Bild anders zu debayern. Alle besseren Fotokonverter bieten mittlerweile diese Option. Und auch in Resolve kann man das natürlich händisch auf parzielle Bildteile anwenden. Da braucht man nicht so einen Konvertierungs-Budenzauber zu veranstalten. Und die Fälle wo es damit mal wirklich nicht gut funktioniert sind extrem selten. Am allerbesten ist es sogar Moire bereits bei der Aufnahme zu vermeiden ;)

Bei Scratch hat man übrigens auch bei einigen Formaten die Option verschiedene Debayering-Methoden anzuwenden (bei PRR jedoch nicht). Bei Arri RAW z.B. wo standardmäßig (um eine flüssigere Playbackwiedergabe zu gewährleisten) ein schnellerer Deabayeringmodus eingestellt ist. Den kann man zum Rendern dann auch ändern.

VG



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Ich sehe nix schlechtes an BRaw oder an meiner Pocket
Du nicht, aber andere schon. Nicht umsonst gibt es OLPF auch für BRAW Kameras... ;) mMn Nicht unbedingt notwendig, aber manche schauen eben genau hin und es stört sie bzw. sie wollen einfach ein perfekteres Bild usw.
Wenn meine Pocket in zwei Jahren oder so den Geist aufgibt, bestell ich mir am selben Tag gleich die nächstes Blackmagic.
Ich nicht mehr (zumindest nicht die neuere, wenn dann vll. die alte Ursula, aber auch das hat ecken und kanten... ;) ). Aber das hat andere Gründe bzw. hat was mit dem ganzem Alibaba Sensor zu tun ;) Vielleicht die C70, oder S1H. Momentan bin ich (noch) sehr zufrieden.



Antwort von roki100:

pillepalle hat geschrieben:
@ roki

Besser zu demosaicen ist ja so eine Sache. Anders auf jeden Fall. Ich persönlich halte es ohnehin für besser Moire partiell zu entfernen, als deshalb das komplette Bild anders zu debayern. Alle besseren Fotokonverter bieten mittlerweile diese Option. Und auch in Resolve kann man das natürlich händisch auf parzielle Bildteile anwenden. Da braucht man nicht so einen Konvertierungs-Budenzauber zu veranstalten. Und die Fälle wo es damit mal wirklich nicht gut funktioniert sind extrem selten. Am allerbesten ist es sogar Moire bereits bei der Aufnahme zu vermeiden ;)
Sehe ich ähnlich. Wie bereits erwähnt, manche stören sich daran, sie schauen genauer hin...und ärgern sich dann. Schließlich haben die ja viel Geld für RAW investiert (Ninja, SSD, Kamera usw. usf.), und nun stellen die schnell fest, dass das nicht automatisch besser bedeutet (trotzt mehr Bit) ;) Dann lieber weniger Bit aber ausreichend für unbegrenzte Möglichkeiten an Looks und dafür aber weniger Artefakte auf den gefilmte Dächer, Zäune, Rolltreppen, Äste usw. usf. ;)

Sie schauen genau hin ist etwas, was manche einfach nicht loslassen können, die zoomen hinein (siehe CDNG vs BRAW) und sagen sich dann "aha, pre-denoising" und verlangen CDNG zurück samt - nicht durch Kameraintern pre-denoising - weggebügelten Artefakte...;)



Antwort von Darth Schneider:

@roki
Ich denke der Flaschenhals liegt nicht mehr bei den Kameras, ganz sicher nicht auf dem Level von allen Pockets, voll egal mit welchem RAW Gewürzen gekocht wird.

Der liegt doch viel eher an dem komprimierten Zeugs was nachher auf YouTube und Co. Auf den Speicherstcks und ähnlichen Medien beim Zuschauer, auf was auch immer für skurrilen Abspiel Geräten und ebensolchen Screens landet.
Da gehen die meisten von den Problemchen die du da analysierst doch so oder so unter.

Keine einzige Pocket hat einen Albaba Sensor, meine hat einen Sony, genau so wie deine G9 ja auch. Wobei das ist nicht der selbe, meiner ist ein wenig grösser und hat weniger MP…;))
Gruss Boris



Antwort von pillepalle:

@ roki

Die Farbtiefe (10 oder 12Bit) hat aber kaum etwas mit Moire zu tun. Das kannst Du Dir mit praktisch jeder Kamera fangen. ProRes Raw ist dafür auch nicht anfälliger als cDNG. Bei cDNG hat man aber auch andere Optionen sie zu entfernen.

Solange die Leute sich Framegrabs bei 400% anschauen müssen, um irgendwelche Unterschiede in CODECs auszumachen, bin ich jedenfalls völlig tiefenentspannt. Pixelpeeping ist ein schönes Hobby, aber Geld verdient man damit nicht. Wenn man in der Praxis keine Probleme damit hat, warum sollte man sich dann einen Kopf machen? Erst wenn es wirklich stört und im Film wahrgenommen wird, muss man sich Gedanken zu einem Problem machen.

VG



Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Ich denke der Flaschenhals liegt nicht mehr bei den Kameras, ganz sicher nicht auf dem Level von allen Pockets, voll egal mit welchem RAW Gewürzen gekocht wird.
Man muss auch nicht unbedingt RAW haben, auch ganze Pockets nicht... nur wegen +2Bit verzichten manche auf viel nützlichere Sachen (z.B interne IS/IBIS etc.), Formfaktor, Sucher usw. usf. Aber die +2Bit ist für sie mehr Wert, obwohl sie fast nur Farbkorrektur machen, statt irgendwelche besondere cinematische Looks (wie ich *haha* ;) ), obwohl die unterschiede kaum oder garnicht sichtbar sind...wie z.B.

https://www.youtube.com/watch?v=eqMyhqRNgLE

Die lassen sich trotzdem nicht überzeugen und kommen mit "Workflow BRAW amazing" usw. ;))



Antwort von Darth Schneider:

Ja lachen über andere oder ihre Workflows können wir gut.
Aber der Typ hat womöglich doch besser lachen, mit 41000 Abonnenten..
Womöglich kann er was…
Gruss Boris



Antwort von roki100:

pillepalle hat geschrieben:
Die Farbtiefe (10 oder 12Bit) hat aber kaum etwas mit Moire zu tun.
Farbtiefe nicht, aber RAW und kamerainterne Prozesse vor einbacken des Bildes... Bei ältere BMD Kameras ist das zumindest der Fall.
Solange die Leute sich Framegrabs bei 400% anschauen müssen, um irgendwelche Unterschiede in CODECs auszumachen, bin ich jedenfalls völlig tiefenentspannt. Pixelpeeping ist ein schönes Hobby, aber Geld verdient man damit nicht.

Es gibt eben Hobbyisten die auch versuchen Dinge zu perfektionieren... Es gibt Menschen die versuchen auch ständig Staub wegzuwischen....



Antwort von Darth Schneider:

Genau das ständige Pixel perfektionieren, so viel das man gar nicht zum filmen kommt nennt man dann Pixelfucking…
Staub wegwischen kann man auch übertreiben, wie alles andere halt auch..;)
Gruss Boris








Antwort von roki100:

"Darth Schneider" hat geschrieben:
Genau das ständige Pixel perfektionieren, so viel das man gar nicht zum filmen kommt nennt man dann Pixelfucking…
Gruss Boris
.LOL ;)) Muss man sich doch darüber nicht aufregen... Einfach respektieren und akzeptieren. Solange das kein Hobby ist wie das von AfDler und FPÖler & Co. die ständig mit unzählige Accounts bzw. als Bots unterwegs und Kommentare im Netz schreiben, das als eine Art Selbstbefriedigung-Hobby betreiben und sich selbst belügen indem sie immer wieder erwähnen "ich habe nichts gegen, aber..." usw. usf. ist m.M. doch alles gut und jedem das seine, leben und leben lassen....



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Genau das ständige Pixel perfektionieren, so viel das man gar nicht zum filmen kommt nennt man dann Pixelfucking…
Staub wegwischen kann man auch übertreiben, wie alles andere halt auch..;)
Ja - allerdings ist bei mir die Motivation genau umgekehrt. Wenn ich Raw drehe, dann u.a. auch um ein rauheres/schmutzigeres (d.h. nicht durch kamerainterne Rauschfilterung und ggfs. Nachschärfung geglättetes) Bild zu erhalten. Daneben ist noch der verstellbare Weißabgleich ein Argument, wenn man in Mischlicht-Umgebungen dreht.

Ansonsten haben sich viele frühere Argumente für Raw - wie z.B. höherer Dynamikumfang, bessere Farben, keine Blockartefakte, bessere Möglichkeiten, das Material in höhere ISOs zu pushen und hochqualitativ zu entrauschen - erledigt, seitdem es Prosumer-Full Frame-Kameras mit sehr guten 10bit-Log-Profilen, erweiterten Farbräumen und leistungsfähigen Codecs gibt.



Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:

.. verbreitung fragwürdiger "wahrheiten" besteht ja gar nicht darin, dass man sie mit ein bisserl nachdenken und hinterfragen nicht als unhaltbar bzw. völligen unsinn entlarven könnte --
Du meinst sowas wie:
mash_gh4 hat geschrieben:

mit speedbooster hat das ganze ursachlich überhaupt nichts tun!

im gegenteil, mit schlechten optiken und unschärfe, die durch die verschiedenen optischen adapter in system einfließen, verschwindet das problem viel eher, weil das ja alles indirekt wie ein low pass filter wirkt.
Nicht nur daß du hier Äpfel und Orangen (schlechte Optiken und Speedbooster) zusammenwürfelst, dein Verständnis für Speedbooster scheint auch nicht wirklich das beste zu sein.
mash_gh4 hat geschrieben:
...statt einfach nur seiner rolle als käuflicher influencer
Ich ein Influencer? - Bwahahaha :DD



Antwort von roki100:

bald ist Weihnachten, lieb und freundlich sein ist aber eigentlich immer gut.... ;)

Vll. ein Missverständnis, denn es gibt auch schlechte Speedbooster, oder welche die das Bild bei F2 oderso noch weicher machen... Oder die Speedbooster Linse ist nicht passend kalibriert.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
RAW Wars - ProRes RAW gegen CinemaDNG
DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018
Prores RAW zu CinemaDNG
ProRes Raw zu CinemaDNG-Konverter
Neuer PC - wenn es doch nur so einfach wäre
CinemaDNG Raw-Videoaufnahme jetzt mit Android-Smartphones
Blackmagic RAW - Qualität im Vergleich zu CinemaDNG // IBC 2018
CinemaDNG und FCPX/Motion?
Schnell und einfach zum eigenen 3D-Charakter
Welche TV-Tuner Karte ist einfach und funktioniert?
8Kp30, 4Kp120 und 720p960 - Qualcomm verrät Features der Top-Smartphones 2020
Hands-On: DJI Quadrocopter Inspire 2 + X7 und Interview mit Top-Pilot Ferdinand Wolf
Neue Trigger Griffe von Zacuto und Top Handles 2.0 von Wooden Camera
Bitte um Hinweise zu CinemaDNG Workflow
BMPCC4K + CinemaDNG Debayer Qualität schlecht?
DJI Mavic Mini Drohne: 2.7K Video und nur 249g: Führerschein- und registrierfrei
GH4R Zeitraffer nur begrenzte Aufnahezahl, statt 1500 nur 120 Aufnahmen
BRAW-Update für Pocket 4K fertig - CinemaDNG entfernt
Resolve Studio 15.3 - Absturz bei Import von 4K CinemaDNG
Fast CinemaDNG Processor jetzt mit Magic Lantern Unterstützung
Sigma kündigt Full Frame L-Mount-Kamera mit CinemaDNG an
Firmware 2.0 für Sigma fp Kamera bringt CinemaDNG mit 120fps
Top 12 Movie Songs
TOP 10 Photoshop 2021 Funktionen
Gimbal Doppelgriff an top handle!
Top 10 der Titelsequenzen 2018

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom