Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Atomos - CDNG Update und neues Master Caddy



Newsmeldung von slashCAM:


Nach langer Ankündigung soll es ab nächster Woche nun wirklich das kostenlose CDNG-Update für Shogun, Shogun Flame & Shogun Inferno Recorder geben. Dieses soll die direkt...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Atomos - CDNG Update und neues Master Caddy


Space


Antwort von -paleface-:

Inzwischen hat sich meine Handhabung mit dem Shogun geändert.
Nutze den nur noch als Vorschaumonitor ohne SSD und nur Akku über V-Mount.

Recording gar nicht mehr.
Wenn man SSD und Akku abnimmt wird der auch endlich schön leicht.
Wenn man nämlich wirklich länger als 20min Aufnehmen wollte brauchte man immer diese mega dicken Akkus. Das hat das ganze System sehr unhandlich gemacht.

Space


Antwort von klusterdegenerierung:

Oder man errinert sich mal an das Netzteil! Man dreht ja nicht immer nur draussen!
Oder man schließt es mit an einen großen AB Akku mit an.

Space


Antwort von klusterdegenerierung:

Na endlich geben sie einem mal was an die Hand und so ist ja der von Frank damals beschriebene Workflow für Resolve genau richtig, aber es gibt noch ein paar kleine Raffinessen dazu! :-)

Auf Premiere wird garnicht erst eingegangen und ich habe so die Vorahnung, das der Grünstich in der finalen Version, vielleicht sogar bleibt!



Space


Antwort von klusterdegenerierung:

Vielleicht meinten sie ja auch den 27th March of nächstes Jahr,
oder der Praktikant der das update hochlädt ist gerade im PC An und Verkauf und holt nen neuen Rechner für die Supportabteilung!

Space


Antwort von WoWu:

Und somit ein Debayering in der Kamera oder im Shogun umgehen. Irgendwie verschließt sich mir der Vorteil, den ADOBE "Schätzalgorithmen", die zur Anwendung kommen, haben sollen- sofern das Kamera RAW nicht durch die entsprechenden Metadaten unterstützt-.
Und dass man hinterher eine JPEG Kodierung in einem TIFF Format statt eines Kamera RAWs vorliegen hat, dürfte auch nicht unbedingt als Vorteil zu werten sein.

Space


Antwort von klusterdegenerierung:

Aber das Thema hatten wir doch schon!
Wenn Du Dir ein 14Bit Canon Raw Foto im Mediainfo ansiehst, ist es doch auch nur ein Tiff, das sagt doch garnix.

Space


Antwort von WoWu:

Und wo ist dann der Vorteil ?
Ich sehe darin eher einen Nachteil, mit einem Fremdalgorithmus an die Wandlung zu gehen (in dem Fall ADOBE).
Und wenn sie das Canon RAW (sofern es ein TIFF ist, nur nochmal verpacken, ... wo ist dann der Vorteil ?

Space


Antwort von mash_gh4:

...wo ist dann der Vorteil ? dass man nicht auf proprietäre softwarelösungen des jeweiligen herstellers angewiesen ist, sondern tatsäch die besten verfügbaren mittel in der nachbearbeitung nutzen kann.

man nimmt zwar damit in kauf, dass man in manchen details einschränkungen der möglichkeiten in kauf nehmen muss (bspw. gibts mittlerweile bessere kompressionsmöglichkeiten als sie in DNG zur auswahl stehen), trotzdem ist ein ganz akzeptabler kleinster gemeinsamer nenner in puncto herstellerübergreifender RAW daten kompatibilität.

Space



Space


Antwort von WoWu:

Na ja, wenn man. in einer ADOBE eigenen Farbinterpretation mehr Vorteile sieht, als in einer Farbinterpretation des Kameraherstellers, der die Details seiner verwendeten Farbmaske sehr viel besser kennt und daraus resultierend eine deutlich bessere Farbrekonstruktion erzeugt, dann könnte man das als Vorteil bezeichnen, darf sich aber dann auch nicht großartig wundern, wenn die Kamera eine andere Farbanmutung bekommt.
Wer z.B. die typischen Canon Farben mag, könnte leicht enttäuscht sein.
(nur als ein Beispiel).
Es gibt schon ziemlich viele Gründe, das zu verwenden, was der Kamerahersteller vorgibt und eigentlich keine vernünftigen Gründe, auf das ersatzweise zurückzugreifen, was ADOBE sich so vorstellt.
Das weicht ziemlich oft, von dem ab, was die Kamera eigentlich drauf hat und ist selten (bis nie) besser.

Space


Antwort von klusterdegenerierung:

ABer hier geht es doch nicht um irgendwelche Farbabweichungen, die man schnell wieder im Griff hat, sondern um den Unterschied zwischen 10Bit 4:2:2 ProRes & 12Bit 4:4:4 Cinema DNG und dessen unterschiedliche bzw. höhere Reserven in der post.

Space


Antwort von Valentino:

Wie willst du den diese Farbabweichungen in den Griff bekommen, wenn du diese gar nicht einschätzen kannst?
Wie Wolfgang schon versucht hat zu erklären, das bei Adobe durch ein Reengineering versucht wird das beste Ergebnis zu erzielen, leider liegen zwischen dem "Versuch" und der vom Hersteller wirklich eingesetzten Methode Welten!

Dazu geht es um CDNG-RAW und da gibt es doch eigentlich kein 4:4:4 bei Sensoren mit Bayer-Muster oder?

Space


Antwort von klusterdegenerierung:

Ihr seit schon eine komische Komune hier! :-)
Auf der einen Seite wird hier ständig davon gesprochen wie toll Raw ist, weil man da quasi keinen WB mehr braucht, so zitiert Atomos auch die neue Firmware und auf der anderen Seite sagt ihr dann, das es Farbabweichungen gibt, die man wohlmöglich nicht mehr in den Griff bekommt!

Schon lustig oder?
Und die andere Sache ist doch die, wer will denn unbedingt immer die Farbwiedergabe haben, die der Hersteller ausgibt? ;-) Ich sag nur Sony! :-)

Die 4:4:4 Nummer erwähnt Atomos in ihrem Press Release PDF.
https://s3.amazonaws.com/atomos-web-upl ... nferno.pdf

Space


Antwort von WoWu:

Also nochmal... selbst wenn JPEG92, also die vermeintlich "lossless" Version zum Einsatz kommt, greift der Algorithmus auf ein bereits de-bayertes Bild der Kamera zurück und fängt dann an zu "werkeln".
Wie Valentino schon sagt ... wo soll denn da das 4:4:4 herkommen, es sei denn, dass die Enthusiasten die Pixelverdopplung im Algorithmus, die zur Schätzung des realen Wertes erforderlich ist, als die zweite 2 angesehen wird, es sich also nicht um einen, vom Sensor gelieferten Wert handelt.
Aber da sind wir dann wieder bei der alten Diskussion.
Was ist RAW und was nicht mehr und ist ein 4:2:2 nach Pixelverdopplung und aufgesetzter Unterabtastungen dann ein echtes 4:4:4.

Mein Tipp: schau Dir genau an, was gemacht wird, verlass Dich nicht auf Sprechblasen und Buzzworte.
Hersteller wollen in erster Linie verkaufen und sind froh darüber, wenn ihre unvollständigen Beschreibungen vom Verbraucher so interpretiert werden, wie sie es sich wünschen würden.
Also .. schau, was sie wie machen. Du weißt dann, womit Du es zu tun hast, egal was draufsteht.

Space


Antwort von mash_gh4:

Wie willst du den diese Farbabweichungen in den Griff bekommen, wenn du diese gar nicht einschätzen kannst? das erledigt man mit profilen, die man für die einzelnen kameras an hand von testmustern errechnet -- ganz ähnlich wie beim bildschirmkalibrieren.

wobei das gar nicht immer unbedingt auf eine objektiv richtige farbwiedergabe abzielen muss, sondern durchaus auch einfach den firmenspezifischen look nachahmen kann, wenn einem das am herzen lieget.
Wie Wolfgang schon versucht hat zu erklären, das bei Adobe durch ein Reengineering versucht wird das beste Ergebnis zu erzielen, leider liegen zwischen dem "Versuch" und der vom Hersteller wirklich eingesetzten Methode Welten! was das debayering angeht, greift man gewöhnlich ohnehin zu den bekannten methoden. hier ist es eher der rechenaufwand, der tatsächlich grenzen setzt -- allerdings kann man es ausserhalb der kamera fast immer besser machen als mit den beschränkten mitteln dort.

Space


Antwort von mash_gh4:

Also nochmal... selbst wenn JPEG92, also die vermeintlich "lossless" Version zum Einsatz kommt, greift der Algorithmus auf ein bereits de-bayertes Bild der Kamera zurück und fängt dann an zu "werkeln". wie kommst auf die idee, dass DNGs schon debayerd sind!
das ist doch völliger schwachsinn!

Space


Antwort von Valentino:

DNGs gibt es auch als RGB-Datei oder täusche ich mich da, genauso wie es z. B. JPEG2000 ein Bild mit RGB, XYZ oder halt nur eine S/W RAW-Bild abspeichern kann.

@Mash-GH4
Auch mit einem komplexen 3D LUT wirst du niemals auf das Bild kommen, wenn dir der Hersteller nicht 1:1 auflistet, was und wie wirklich bei der RAW zu RGB Aufbereitung/Debayering passiert.

Ein LUT ändert nämlich nur die Farben und somit fallen so Sachen wie Kantenaufsteilung wieder weg, den die kannst du nachbasteln aber beim besten Willen nicht 1:1 nachbauen, da dir eben nicht bekannt ist wie es der Hersteller macht!

Da kannst du hier noch so viel dagegen argumentieren, ohne Entsprechendes Wissen über die tatsächlichen Vorgänge, bleibt es ein wildes Raten und die Sache auf dem Level des Reengineerings.

Space


Antwort von mash_gh4:

DNGs gibt es auch als RGB-Datei oder täusche ich mich da, ... normales kenzeichnet man die raw daten vom sensor als R'G'B', damit man sie nihct mit normalem debayertem RGB verwechselt.

es müssen aber nicht unbedingt nur drei verschiedenfarbige sensel sein. es gibt auch sensoren mit vier...
Auch mit einem komplexen 3D LUT wirst du niemals auf das Bild kommen, wenn dir der Hersteller nicht 1:1 auflistet, was und wie wirklich bei der RAW zu RGB Aufbereitung/Debayering passiert. wie gesagt, das ist ganz eine ziemlich einfache geschichte.
ich sprech da wirklich aus erfahrung, weil ich ja z.b. die entsprechenden profile für die GH4 darktabe-unterstützung selbst beigetragen habe ;)
Ein LUT ändert nämlich nur die Farben und somit fallen so Sachen wie Kantenaufsteilung wieder weg, den die kannst du nachbasteln aber beim besten Willen nicht 1:1 nachbauen, da dir eben nicht bekannt ist wie es der Hersteller macht! ja, natürlich macht man nicht einfach nur nach, was in der kamera passiert.
z.t. versucht man es ja einffach auch besser bzw. genauer zu machen.
ein gutes bsp. dafür ist etwa die behandlung des rauschens, das bspw. im darktable und auch allen anderen raw-entwicklern gewöhnlich völlig anders als in der kamera gehandhabt wird.

Space



Space


Antwort von Frank Glencairn:

DNGs gibt es auch als RGB-Datei oder täusche ich mich da, genauso wie es z. B. JPEG2000 ein Bild mit RGB, XYZ oder halt nur eine S/W RAW-Bild abspeichern kann.
Das einzige "RGB raw", das mir einfällt, ist das vom Foveon Sensor, das muss zwar nicht mehr Debayert werden, aber trotzdem noch Processed.

Space


Antwort von WoWu:

normales kenzeichnet man die raw daten vom sensor als R'G'B', damit man sie nihct mit normalem debayertem RGB verwechselt. Seit wann sind Sensorsignale bereits gammakorrigierte?

Im übrigen, was das de-bayering und Lj92 angeht, solltest Du vielleicht auch mal die Artikel lesen, die Du selbst verlinkt.

Space


Antwort von mash_gh4:

Seit wann sind Sensorsignale bereits gammakorrigierte? wo wurde das behauptet?
Im übrigen, was das de-bayering und Lj92 angeht, solltest Du vielleicht auch mal die Artikel lesen, die Du selbst verlinkt. auf welche diskrepanz beziehst du dich da konkret?

Space


Antwort von klusterdegenerierung:

Atomos hat Daten im Press Release PDF korrigiert!
Sie schrieben, das der Shogun nach dem update in der Lage ist 120fps in ProRes und in Raw aufzunehmen, diese konnte und wird er nie können, schade :-[

Space


Antwort von WoWu:

normales kenzeichnet man die raw daten vom sensor als R'G'B', damit man sie nihct mit normalem debayertem RGB verwechselt Unfug.
R'G'B' ist gammakorrigierte RGB und hat nichts mit RAW Sensordaten zu tun.
Ausnahme, man nimmt direkt am Übergang Sensor zur Weiterverarbeitung eine Gammakorrektur vor. Aber dann hat es nichts mehr mit den RAW Daten zu tun, weil die bereits bearbeitet wurden.
Dann ist die einzige Stelle, wo RGB zutrifft (wie von Valentino richtig dargestellt) nämlich genau der Sensor und der gesamte restliche Signalweg ist R'G'B'.
Also genau anders herum, als von Dir falsch korrigiert.
welche diskrepanz beziehst du dich da konkret? Auf die, wie LJ92 erzeugt wird.

Space


Antwort von mash_gh4:

Unfug. ganz so einfach ist es nicht -- hab jetzt aber selber nocheinmal nachschauen müssen...
R'G'B' ist gammakorrigierte RGB und hat nichts mit RAW Sensordaten zu tun. dafür wird diese notation manchmal auch verwendet -- in manchen darstellungen auch, um log und lin darstellung zu unterscheiden... ;)
Dann ist die einzige Stelle, wo RGB zutrifft (wie von Valentino richtig dargestellt) nämlich genau der Sensor und der gesamte restliche Signalweg ist R'G'B'.
Also genau anders herum, als von Dir falsch korrigiert. damit sind wir dann endlich wieder beim konkreten anwendusfall.

ich gebe zu, dass meine aussage tatsächlich zu kritisieren war, weil es in der fachliteratur nämlich beide verwendungsweisen gibt.

die von dir favorisierte, dürfte sogar tatsächlich öfter zu finden sein. das hat aber wohl eher damit zu tun, dass man in derartigen darstellungen normalererweise eben an der quelle beginnt, und dann halt irgendwann gezwungen ist, diese andere verwendungsweise durch derartige stricherl zu unterscheiden.

ich hab die umgekehrte verwendungsweise deshalb im kopf behalten bzw. für sinnfälliger gehalten, weil ja wohl keiner von uns in zukunft jedesmal, wenn er von ganz gewöhnlichem RGB schreibt, ab sofort drei stricherl zusätzlich tippen wollen wird!
in dem sinne habe ich es als wesentlich ansperechender empfunden, diese eher ungewöhnliche andere verwendungsweise, also bezogen auf die sensordaten, derart umständlich zu kennzeichnen.

aber, wie gesagt, in der literatur finden sich beide verwendungsweisen -- und noch mehr!
wichtig ist halt, dass die stricherl gerne benutzt werden, um die beiden sachen voneinander zu trennen.
welche diskrepanz beziehst du dich da konkret? Auf die, wie LJ92 erzeugt wird. und was hab ich da jetzt wieder, deiner meinung nach, falsch gemacht od. nicht verstanden, herr i-tüpferl-reiter?

Space


Antwort von WoWu:

Aha, alles klar ... R'G'B' alles Geschmacksache ... ich lach mir tot.
Aber Valentino korrigieren ... , der dazu noch völlig richtig lag.
Wenn Du das, was Du hier schreibst wirklich denken würdest, hättest Du ihn nämlich nicht korrigiert.

Aber "Ahnung" fühlt sich eben anders an.
Von "Wissen" ganz zu schweigen.
Wie ich schon mal sagte ... Deine Beiträge gehören ins Feueton.

Space


Antwort von mash_gh4:

Aha, alles klar ... R'G'B' alles Geschmacksache ... ich lach mir tot.
Aber Valentino korrigieren ... , der dazu noch völlig richtig lag.
Wenn Du das, was Du hier schreibst wirklich denken würdest, hättest Du ihn nämlich nicht korrigiert. wenn ich es richtig im kopf hab -- aber mann kann es ohnehin weiter oben nachlesen -- habe ich ihn nur dahingehend "korrigiert", dass man eben diese unterscheidung machen sollte... ob man das nun durch stricherl od. andere mittel der formalen darstellung macht, ist ohnehin jedem weitestgehend frei gestellt...

ich glaub, das "verstehen wollen" ist machmal fast wichtiger als das gar zu selbstbewusste "korrigieren".

Space


Antwort von klusterdegenerierung:

So, Firmware sind jetzt online!
Mal sehen was sie bringen, immerhin soll jetzt beim ollen Shogun eine framerate von 60p bei 2K in Raw erreicht werden, das ist jetzt nicht die Welt, aber mit ProRes ging das nie!

Space



Space


Antwort von klusterdegenerierung:

Leider funktioniert das mit den 60p wie erwartet nicht!
Nach Rücksprache mit Atomos soll noch mal ein update nachgelegt werden, mit dem dann angeblich auch 120p möglich sein soll!

Ob das was wird?

Space


Antwort von WoWu:

ich glaub, das "verstehen wollen" ist machmal fast wichtiger als das gar zu selbstbewusste "korrigieren". Ja, das schreib' Dir mal hinter die Ohren.
Aber "verstehen wollen" setzt natürlich "verstehen können" voraus, insofern bringt das bei Dir wahrscheinlich nix.

Space


Antwort von klusterdegenerierung:

Habe einen klasse Workflow gefunden, der besser ist als der von Atomos.
Die Logs kann man bei convergent downloaden und laufen auch für den Shogun sehr gut.



Space


Antwort von Valentino:

Achtung, im Video werden die falschen RAW-Einstellungen benutzt. Es wird mit dem Farbraum und Gama der BM-Kameras gearbeitet. Genau solche Probleme entstehen, wenn man sich auf solche Experimente einlässt.

Dann besser gleich das Videosignal als DNxHD oder ProRes aufzeichnen und Sonys S-Log benutzten und im Grading die entsprechenden Output-Luts von Sony verwenden.

Auch die Sache mit der Reel-ID ist nicht ganz ideal. Hier sollte man es bei "*/%R" belassen, den so ist die Reel-ID gleich der Clipnamen und es macht das onlinen deutlich einfacher.

Habe die Empfehlung von einem größeren Posthaus bekommen, die so um die 50 Filme im Jahr mastern.

Space


Antwort von klusterdegenerierung:

Achtung, im Video werden die falschen RAW-Einstellungen benutzt. Es wird mit dem Farbraum und Gama der BM-Kameras gearbeitet. Genau solche Probleme entstehen, wenn man sich auf solche Experimente einlässt.

Dann besser gleich das Videosignal als DNxHD oder ProRes aufzeichnen und Sonys S-Log benutzten und im Grading die entsprechenden Output-Luts von Sony verwenden.

Auch die Sache mit der Reel-ID ist nicht ganz ideal. Hier sollte man es bei "*/%R" belassen, den so ist die Reel-ID gleich der Clipnamen und es macht das onlinen deutlich einfacher.

Habe die Empfehlung von einem größeren Posthaus bekommen, die so um die 50 Filme im Jahr mastern. Ne ne, das ist richtig so, kannst Du nur sehen, wenn Du es selber Ausprobierst, denn es gibt in dem Reiter ja nur 3 optionen und BMD ist richtig, alles andre ist schrott.
So gibt es ja Atomos selbst in ihrem CDNG Tuto Video an! :-)

Space


Antwort von klusterdegenerierung:

Hey Valentino, hier auch noch mal ein Screenshot vom Sony Log Workflow mit dem Odyssey, da beschreibt es Convergent selbst auch noch mal.

Space


Antwort von Valentino:

Noch schlimmer das sogar Convergent so weitergibt, den es ist und bleibt eine falsche Entwicklung.

Wette um ein Kasten Bier das Sony-RAW mit der RAW-Entwicklung von Sony zu ganz anderen Ergebnisse führt. Sogar die HDCAM-SR und XAVC-Intra Aufnahmen werden näher am Sony-RAW liegen wie.

Wenn BM jetzt ausdrücklich die CDNG Entwicklung mit Hilfe von Sony an S-Log3, REC709 angleicht ist man auf dem selben Level.

Space


Antwort von klusterdegenerierung:

Noch schlimmer das sogar Convergent so weitergibt, den es ist und bleibt eine falsche Entwicklung.

Wette um ein Kasten Bier das Sony-RAW mit der RAW-Entwicklung von Sony zu ganz anderen Ergebnisse führt. Sogar die HDCAM-SR und XAVC-Intra Aufnahmen werden näher am Sony-RAW liegen wie.

Wenn BM jetzt ausdrücklich die CDNG Entwicklung mit Hilfe von Sony an S-Log3, REC709 angleicht ist man auf dem selben Level. Moinsen, ich glaube ich weiß was Du meinst, deswegen glaube ich auch das Du Dich vertust, denn Du meinst glaube ich mit BMD ein BMD Log Profil wie das SLog von Sony, aber so ist das ja nicht gemeint.

Vielleicht hast Du ja vergessen, das Resolve von "BMD" ist? Damit ist also Resolve gemeint und das was Dich verunsichert, kommt erst später, wenn man zb. das BMD Camera Log wählt, wie in dem YT VIdeo, das muß man aber nicht, man kann ja SLog nehmen, aber um den ersten Raw Step mit BMD kommst Du nicht herrum,
wenn Du Resolve nutzt, aber das kann Dir der Frank G viel besser erklären :-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Neues kompaktes Sony G Master FE 35mm F1.4 Objektiv für Nutzer der A7-Kameras ua.
Sony stellt neues Vollformat G Master 50mm F1.4 vor: Leichter, reaktiver und optimiert für Video
Z Cam ZRAW - Hacker stellt CDNG Konverter in Aussicht
CinePI - CDNG RAW Kamera auf Raspberry Pi 4 Basis
N-RAW, BRAW, cDNG in FCP without transcoding
iPhone 5 Pro und Max - cDNG Raw
Atomos Ninja V/V+ Frimware-Update AtomOS 10.73
Atomos Ninja V/V+ Frimware-Update AtomOS 10.74
Verbessertes Sony G Master Zoomobjektiv FE 70-200mm F2.8 GM OSS II vorgestellt
Master Match Tool: Looks verschiedener Kameras aneinander anpassen
50mm F1.4 Video-Shootout: Sony G Master versus Zeiss Planar an der Sony A1
Sony stellt mit G Master FE 300 mm F2.8 GM OSS leichte Tele-Festbrennweite für Pros vor
Accsoon CineView Master: Drahtlose 4K60p-Videoübertragung mit minimaler Latenz
Fusion Motion Graphics Master Class
Atomos Atomos 10.55 Firmware
Atomos und Nextorage kündigen Nextorage AtomX SSDmini für Atomos-Rekorder an
Atomos AtomOS 10.83: ProRes RAW für Sony FX30, Sony FR7 und Fujifilm X-H2
Atomos Edit angekündigt: Bald auch Videoschnitt im Atomos Cloud Studio




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash