Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) 4.6K und 12K uä.-Forum

Infoseite // Blackmagic Design 4K ProRes aufwändiger als RAW



Frage von iasi:


Da wird immer davon geredet, Raw sei so aufwändig.

Eine Red schaufelt in 36 Minuten keine 240GB-SSD bei 4k voll - die BM-4k schafft dies selbst mit ProRes.

Bei der BM-4k wird das Datenhandling somit auch in ProRes sehr aufwändig.

880 Mbps using Apple ProRes 422 - zu den Datenraten bei visually lossless compressed CinemaDNG RAW gibt es noch gar keine Info.

Jedenfalls ist die Datenrate bei ProRes mehr als doppelt so hoch als z.B. bei der Red Scarlet.

Space


Antwort von Predator:

Stimmt. Das ist dahingehend blöd, dass man bei RAW gewöhnt ist Proxys zu erstellen, aber Prores dafür bekannt ist direkt bearbeitet werden zu können, was bei 4 k Pores nicht gehen dürfte

Space


Antwort von Frank Glencairn:

Soweit ich weiß, ist die Datenrate bei lossles comprimiertem4k raw, ähnlich wie die von unkomprimiertem 2.5 raw, und das ist ja nun relativ angenehm zu handhaben.

Space


Antwort von j.t.jefferson:

Und ich war schon mit dem Teil am liebäugeln...dann hol ich mir lieber das Proxy Modul und den neuen Lüfter für die Scarlet/Epic.

Space


Antwort von iasi:

Stimmt. Das ist dahingehend blöd, dass man bei RAW gewöhnt ist Proxys zu erstellen, aber Prores dafür bekannt ist direkt bearbeitet werden zu können, was bei 4 k Pores nicht gehen dürfte Zumal man bei RedRAW keine Proxy erstellen muss. Viele Programme schlucken es direkt.
RedRaw läuft oft gar schneller als so mancher Group-Codec.

Space


Antwort von Valentino:

Was soll den dieses BM Bashing, ist dir wieder langweilig iasi?

Ein kurzer Blick in ProRes Whitepaper von 2012 auf Seite 19 hätte dir gezeigt, wie hoch die Datenraten sind.
http://images.apple.com/finalcutpro/doc ... r_2012.pdf

Bei QuadHD und 25fps sind das halt 332 Gigybyte/Stunde und bei 4k eben 354 Gig/h. So sollte man für die flüssige Wiedergabe ein Raid5 mit ca. 200Mb/Sekunde im Rechner haben.
Mit vier 4TB Festplatten und dem neuem Haswell Chipsatz sollte das Problemlos machbar sein und mit netto knapp 12TB für über 37 Stunden genug Speicher vorhanden sein.
Bitte auch nicht vergessen, das die BMCC4k auch ProRes, wie auch DNxHD auch als FullHD abspeichern kann.

Bevor jetzt jemand gleich aufschreit; "das wird aber sehr teuer", der sollte bitte nicht vergessen, das man für einen flüssigen REDRaw Workflow auch seine 5k Euro für die RedRocket hinblättern muss.
In beiden Fällen ist natürlich noch ein 4k Monitor und 4k I/O Karte von nöten.

Die ganze Sache zeigt auch noch mal ganz deutlich, wie stark RedRAW komprimiert und auch ProRes in Vergleich zu XAVC oder AVCUltra für die heutige Zeit völlig ineffizient arbeiten.
Ich hoffe, das hier Avid bald mit einem neuen AVC-I Proxy Codec und 4k Unterstützung im nächsten MC8 kommen wird.

Space


Antwort von iasi:

Soweit ich weiß, ist die Datenrate bei lossles comprimiertem4k raw, ähnlich wie die von unkomprimiertem 2.5 raw, und das ist ja nun relativ angenehm zu handhaben. Ist zwar immer noch mehr als bei RedRaw, aber eben auch nicht schwieriger zu handhaben, als ProRes.
Jedenfalls ist es doch ein Mär, dass Raw aufwändiger sei.

RedRaw ist hierbei besonders angenehm - selbst bei 5k.
Dagegen sind z.B. die ML-Raw-Files regelrecht sperrig zu handhaben.

Ich hoffe doch mal, dass BM bald mal etwas konkretere Infos zu Raw bei der 4k und der Pocket liefert (die schließlich diesen Monat in den Verkauf kommen sollen).

Space


Antwort von Valentino:

Wer behauptet das RedRAW ohne Rocket nativ läuft, der hat einfach keinen Ahnung von der Materie. Alle NLEs zeigen meist nur die Hälfte oder gar nur 1/4 der eigentlichen Auflösung bei der Wiedergabe.
Dazu rendern ein paar Programme im Hintergrund das RedRaw in ihren Proxy-Codec um, das merkt man nur nicht.
So bald es über die übliche Farbkorrektur hinaus geht, muss zwangsläufig in ein Proxy Codec gewandelt werden. Das wäre z.B. bei Titeln, Retusche, Keying, Timewarp uvm. der Fall.

Red ist nur so angenehm, weil sie mit Wavelet komprimieren und die entstehen Artefakte nicht so deutlich sind wie bei H264 oder gar MPEG2, sie sind aber da!!!
Zu dem Thema einfach mal in die Materie JPEG vs. JPEG2000 einlesen.

Space


Antwort von iasi:

Was soll den dieses BM Bashing, ist dir wieder langweilig iasi?
Was hat das mit Bashing zu tun?

Ich stelle nur fest, dass das ständige (auch von dir verbreitete) "Raw ist so aufwändig" nicht zutrifft.

Mit ProRes fallen bei QuadHD-Auflösung fast 4 mal so viele Daten an, wie bei der höheren 4k-RedRaw-Auflösung.
Was das dann letztlich bedeutet, dürfte wohl klar sein.
Ich brauche dann eben z.B. 4 mal so lang fürs simple Kopieren.

Space



Space


Antwort von Valentino:

Hilfe, du vergleichst hier Äpfel mit Birnen.

Du kannst deine RAW Dateien in der Post nur so lange mitnehmen, so lange es nur um LUTs geht. Alles darüber hinaus muss jedes NLE rendern und das machen die dann auch, aber dann meisten nur in HD oder 2k.
Beim Compositing greift man meist auf Tiff, DPX oder ProRes als Format zurück, wenn es um 4k geht.
Jeder RAW Codec ist von diesem Problem betroffen.

Spätestens beim endgültigen Rendern für ein DCP landest du wieder bei JPEG2000 mit 12bit und XYZ Farbraum.

Man kann auch gerne im nativen RAW Codec bleiben, dann darf aber nichts dem Bild hinzugefügt werden.

Hatte erst vor kurzem ein Dreh mit der EPIC und nach fünf Drehtagen auch schon knappe 1,2TB. Wir drehen nur wenn nötig über der 7:1 Komprimierung. Zeitraffer und VFX Shots meist sogar in 3:1 und da wird es so langsam auch happig.
Wenn wir das Geld gehabt hätten, dann wäre uns die Alexa lieber gewesen und wir hätten nur knapp die Hälfte an Daten produziert.
Würde bei Red die niedrigere Auflösung nicht mit einem Sensorcrop mit einher gehen, so würden die meisten doch lieber in echtem 2-3k drehen.

Space


Antwort von Frank Glencairn:

Man kann das Material ja zuerst nach Cineform wandeln bevor man anfängt zu daran arbeiten, verhält sich dann wie R3D - am schnellsten geht's wenn man das gleich von der SSD runter transcodiert statt die raw Daten erst auf den Rechner zu kopieren. So spart man ungefähr 50% Zeit und jede Menge Plattenplatz.

Irgendwie hab ich den Eindruck ihr macht euch Probleme wo keine sind.

Space


Antwort von iasi:

Wer behauptet das RedRAW ohne Rocket nativ läuft, der hat einfach keinen Ahnung von der Materie. Alle NLEs zeigen meist nur die Hälfte oder gar nur 1/4 der eigentlichen Auflösung bei der Wiedergabe.
Dazu rendern ein paar Programme im Hintergrund das RedRaw in ihren Proxy-Codec um, das merkt man nur nicht.
So bald es über die übliche Farbkorrektur hinaus geht, muss zwangsläufig in ein Proxy Codec gewandelt werden. Das wäre z.B. bei Titeln, Retusche, Keying, Timewarp uvm. der Fall.

Red ist nur so angenehm, weil sie mit Wavelet komprimieren und die entstehen Artefakte nicht so deutlich sind wie bei H264 oder gar MPEG2, sie sind aber da!!!
Zu dem Thema einfach mal in die Materie JPEG vs. JPEG2000 einlesen. Blablabla ... dieses Gerede zeugt doch nur davon, dass du "keinen Ahnung von der Materie" hast.
Die Hälfte der Auflösung ist schon mehr als Full-HD - weshalb sollte das wohl nicht für die Vorschauwiedergabe ausreichen?!
Du jammerst einerseits über diese geringere Wiedergabeauflösung, willst dann aber in Proxys umwandeln - als ob die dann bei voller Auflösung schneller laufen würden.

Wie komprimieren zudem wohl die anderen ihr Raw-Material - z.B. Sony? Unkomprimiertes Raw bei 4k und mehr ist schlicht nicht praktikabel.

Was soll zudem dieser Vergleich zwischen komprimiertem Raw und H264?

Artefakte können auftreten - das bestreitet doch niemand. Aber wo hast du die denn am Ende der Kette nicht?

Space


Antwort von iasi:

Wenn wir das Geld gehabt hätten, dann wäre uns die Alexa lieber gewesen und wir hätten nur knapp die Hälfte an Daten produziert.
Würde bei Red die niedrigere Auflösung nicht mit einem Sensorcrop mit einher gehen, so würden die meisten doch lieber in echtem 2-3k drehen. Also wegen der Datenmenge wird wohl niemand zur Alexa greifen. Da gäbe es wahrlich besser Gründe.

Warum sollte ich denn mit niedrigerer Auflösung drehen wollen?
Da verschenke ich doch einen der großen Vorteile der Red.

Ich sehe auch nicht ganz, wie du bei der Alexa auf die Hälfte der Datenmenge im Vergleich zu R3D mit 7:1 kommen willst.

Space


Antwort von iasi:

Man kann das Material ja zuerst nach Cineform wandeln bevor man anfängt zu daran arbeiten, verhält sich dann wie R3D - am schnellsten geht's wenn man das gleich von der SSD runter transcodiert statt die raw Daten erst auf den Rechner zu kopieren. So spart man ungefähr 50% Zeit und jede Menge Plattenplatz.

Irgendwie hab ich den Eindruck ihr macht euch Probleme wo keine sind. Kein Problem - das meine ich ja - RAW ist nicht aufwändiger als ProRes usw.

Space


Antwort von Valentino:

@Frank
Cineform gibt es als RAW und als normalen RGB Codec. Bist du dir sicher in welches du das Red Material umwandelst?

@Iasi
Komm mal wieder runter ;-)
Ich habe nix gegen den R3D Workflow, man sollte nur wissen wo seine Grenzen sind.
Rohdateien werden immer gerne mit dem guten alten Kameranegativ verglichen und mit diesem wurde auch nie wirklich geschnitten.
Erst nach dem Picturelook, machte sich ein Negativ-Cutter an sein Werk
und die Luts für die Vorführkopie waren Damals die RGB Werte für die Kopiermaschine.

Titel sind meistens schon am Set als SFX(Westside Story) oder später am Tricktisch entstanden. Diese Teile sind dann später in die Kopie mit eingeführt worden.

Das Problem von RAW ist einfach, das jegliche Art von VFX(außer simpler Farbkorrektur durch LUTs) immer das Finale Rendern und De-Bayering in ein Nicht-RAW Format mit sich zieht.

Space


Antwort von Frank Glencairn:

@Frank
Cineform gibt es als RAW und als normalen RGB Codec. Bist du dir sicher in welches du das Red Material umwandelst?
Ich wandle doch kein Red Material in Cineform um,

Ich meine das BM raw nach Cineform raw, was je nach kompressionseinstellung 5:1 oder mehr Platz spart.

Space


Antwort von iasi:

Rohdateien werden immer gerne mit dem guten alten Kameranegativ verglichen und mit diesem wurde auch nie wirklich geschnitten.
Erst nach dem Picturelook, machte sich ein Negativ-Cutter an sein Werk
und die Luts für die Vorführkopie waren Damals die RGB Werte für die Kopiermaschine.
Ich würde Raw nicht mit Kameranegativ vergleichen. Die Arbeitsweise beim Dreh mag ähnlich sein, aber ansonsten ...
Während der Aufnahme orientiert man sich an der "Grundempfindlichkeit" und kann dann später das Bild "ausentwickeln".
Bei Raw hat man die Möglichkeit diese Ausentwicklung partiell zu steuern.
Ein Negativ kann (im Normalfall) nur im Ganzen bei der Entwicklung angepasst werden.

Weshalb 4k?
Die sich von Bild zu Bild änderende Kornstuktur beim Negativ stellt wohl den größten Unterschied zwischen analog und digital dar.
1. Der Übergang zwischen scharfen und unscharfen Bildteilen ist durch das Filmkorn "fließender" und "weicher"
2. Der Auflösungseindruck ist höher - man kann z.B. nicht nur die Auflösung von Einzelbildern vergleichen und sagen: Schau, ein Filmbild hat auch nur eine Auflösung von 2k.
Solange sich die Kamera bewegt und auch beim Digitalbild jeder Pixel sich laufend verändert, mag das nicht so deutlich sein, aber bei unbewegten Totalen kann digitales 2k nicht mehr mit Filmmaterial mithalten.

Space


Antwort von iasi:

@Frank
Cineform gibt es als RAW und als normalen RGB Codec. Bist du dir sicher in welches du das Red Material umwandelst?
Ich wandle doch kein Red Material in Cineform um,

Ich meine das BM raw nach Cineform raw, was je nach kompressionseinstellung 5:1 oder mehr Platz spart. Hast du schon mal einen direkten Vergleich gemacht?
Unkomprimiertes Raw aus der BMCC und Cineform-Raw?

Bei RedRaw hatte sich die Komprimierung im Extremfall bemerkbar gemacht: dichte Schneeflocken vor feinen Strukturen im unteren Tonwertbereich und insgesamt am Histogramm eher am linken Eck orientiert (also knapp belichtet) - da war kam dann Unruhe in den Hintergrund.

Space



Space


Antwort von Ab-gedreht:

Euch ist schon klar, dass redraw nicht debayerd ist?

Ein MB Retina mit rocket rendert 25fps nicht mal mit halfdebayering! Abgesehen von der Auflösung!

Kein Mensch zieht das Raw durch den Workflow! Das legt man sich schön ab, und holt es sich erst dann, wenn man es braucht!

Wer kleinere Daten bei BM haben will, zeichnet halt extern auf! Oder überlegt sich, ob es dir richtige Kamera für ihn ist.

Space


Antwort von Valentino:

..und wiedereinmal liegst du der Mär auf, das du aus dem 4k Bayer Sensor deiner Scarlet mit Wavelet Komprimierung auch echtes 4k in voller RGB Auflösung zu gewinnen ist.
Einer der Gründe, warum von den 4k RAW nur reale 2k RGB übrig bleiben ist unter anderem auch die starke Komprimierung, die das Bild "weich" macht und zum "verschlucken von Details führt.

Wäre das Raw bei Red, wie bei der Alexa und BMCC nur mathematisch Verlustfrei, so wäre dieses auch deutlich detailreicher.

Ich kann mir gut vorstellen, das BM in Zukunft auch eine höhere Komprimierung anbieten wird und man dann irgendwo bei 2 bis 3 Gigabyte pro Minute laden wird.

Bei großen Produktionen stört sich auch keiner an den hohen RAW-Datenraten einer Alexa, F65 oder Phantom, das sind meistens nur der Personenkreis, der sich vorher keine Gedanken zu dem Thema 4k gemacht haben und sich auf einmal darüber empören, bei vierfacher Auflösung auch die vierfache Datenrate benötigt wird.

@ab-gedreht
Mir ist das durchaus klar, versuch das aber mal iasi klar zu machen, der glaubt ja immer noch daran das er nativ mit RAW arbeitet.

Space


Antwort von iasi:

Euch ist schon klar, dass redraw nicht debayerd ist?

Ein MB Retina mit rocket rendert 25fps nicht mal mit halfdebayering! Abgesehen von der Auflösung!

Kein Mensch zieht das Raw durch den Workflow! Das legt man sich schön ab, und holt es sich erst dann, wenn man es braucht! "Kein Mensch"?
Ich schon.
Und zwar ohne Probleme.
Wer kleinere Daten bei BM haben will, zeichnet halt extern auf! Oder überlegt sich, ob es dir richtige Kamera für ihn ist. Na - wer extern aufzeichnet, hat wirklich nicht richtig überlegt.

Es hat ja auch nichts mit den BM-Kameras zu tun - bei 4k bekommt man es nun mal mit vielen Daten zu tun - RedRaw dampft sie effektiv ein, während z.B. BM bei der CC-Version 2,5k unkomprimiert auf die SSD schiebt.

Space


Antwort von iasi:

@Valentino
Auch wenn du es noch 100mal wiederholst, gewinnt dieses "ist kein 4k" nicht an Bedeutung.

Die Red löst nun mal höher auf als die Alexa - dazu gibt es auch Tests.
Und dennoch behaupte ich nicht, dass die Epic die bessere Kamera sei. Sie ist aber eben auch nicht schlechter - so grobschlächtig würde ja wohl niemand urteilen, der die geeignetste Kamera zu einem Projekt auswählen muss.

Und über die Datenflut einer F65 zerbrechen sich auch Leute bei Produktionen durchaus den Kopf - auch wenn ausreichend Geld vorhanden ist.

Die Datenmenge ist eben eines der Kriterien, die man bei der Wahl einer Kamera bedenken sollte.

Bei der BMCC kommt dann eben z.B. noch hinzu, ob man ProRes oder unkomprimiertes Raw nutzt.

Ich dachte bei der Scarlet zunächst auch an externe Aufzeichnung, hab dann aber schnell bemerkt, dass dies höchstens als Backup etwas bringen würde.
OK - bei der Scarlet könnte ich dann auch die 5k-Sensorgröße für die HD-Aufnahmen nutzen, aber das wär"s dann auch schon.
Vor allem müsste ich dann die Arbeitsweise während des Drehs ändern - hier liegt für mich nämlich ein großer und wichtiger Unterschied zwischen Raw und ProRed&Co.

Space


Antwort von j.t.jefferson:

Also wegen dem Worflow---ich versuche auch solange wie möglich im RAW zu bleiben. Premiere, AE alles in RAW und das läuft alles easy mit der RedRocket (die ich battle tested für 2500,-EUR bekommen hab). Auflösung auch auf voll. Allerdings sollte man die Daten auf einem RAID 0 hben. Bei USB 3.0 bekomme ich oft Probleme.

@iasi: Auf was gradest du eigentlich ?
Ich verwende normal immer RedLog, mache ein erstes Grading und anschließend geh ich in DaVinci. Ab hier muss ich aber zugeben, dass ich in DPX weiterarbeite, weil ich zuviele Dynamic Link Clips in Premiere habe.

Erst dann fängts mit dem Datenmüll von den DPX Dateien an.

R3D-Raw ist eigentlich einer der Gründe gewesen, weshalb ich mich ins Red-System eingekauft hab. Ich oute mich mal und hab mal Bilder vorher und nachher reingemacht. Alles im Raw gegradet ohne Davinci oder sonst was. Nur in der Quelleinstellung von Premiere.

Bei der Black Magic weiss ich nicht so recht...auch wenn ich se vorbestellt hab. Der noch größere Datenmüll schreckt mich wirklich ab.

Space


Antwort von iasi:

Ich sichte und stimme erst mal grob in RedcineX ab.
Dann platziere ich die R3D-Clips in Premiere und mach nochmal in Redcine ein wenig Feinabstimmung. Ich mag RedcineX - die Quelleinstellung von Premiere sind mir zu grob.
Das geht ganz gut - RedcineX läuft bei mir immer parallel - das sind dann nur 2 Klicks mehr.

Ab hier hatte ich eigentlich auf Lumetri gehofft - das funktioniert eigentlich sehr gut - aber leider nur mit Speedgrade - und mit Speedgrade kann ich mich nicht recht anfreunden ... eine bittere Pille.
Könnte man doch in Resolve nur auch Looks abspeichern.

Die BM-Cams sehe ich nur als Ergänzung.
Die Pocket ist klein und fein.
Die 4k hat Global Shutter.
Leider ist noch nichts über deren Raw-Komprimierung bekannt.

Space


Antwort von Valentino:

Bevor du dir eine Scarlet gekauft hast, hast du schon Gedanken darüber gemacht ob das echtes 4k RGB ist oder nicht.
Jetzt nach dem dich die Sache über 10k Euro gekostet hast, willst du von der Thematik nichts mehr wissen.
Es scheint fast so als ob mit der Kamera noch eine rote Pille ausgeliefert wird ;-)
Nein mal in Ernst, sogar Red selber hat mal zugegeben, das nicht mehr als 3,2k ans S/W Auflösung mit einer Red One möglich sind, wie soll das dann mit deiner 4k Scarlet mit identischen Sensor möglich sein?

Leider löscht Red solche Beiträge im eigenen Forum gerne wieder, aber dafür gibt es z.B. den Zacuto Shootut, bei dem das Problem bei der Farbauflösung sehr deutlich wird.
Darauf hin war der Red Häuptling so empört, das er erst gar nicht mehr teilnehmen wollte.

Warum du dann auch immer wieder mit dem Alexa Vergleich kommst verstehe ich irgendwie nicht, da ich nie behauptet haben, das die Alexa höher auflöst als eine Scarlet oder gar EPIC.
Aber Auflösung ist ja bekanntlich auch nicht alles ;-)

@j.t.jefferson
Dein Workflow muss man jetzt nicht wirklich verstehen oder?
Eine DPX-Sequenz macht ja nur dann Sinn, wenn etwas über die Übliche Farbkorrektur hinaus gerendert werden muss.
Bei AE kann ich dein Vorgehen noch nachvollziehen.
Alles nur wegen diesem "Dynamic Link"? Habe schon von ein paar Adobe Usern gehört, das sie wegen diesem Feature einige Probleme bekommen haben. Als Avid User kann ich da aber nicht mitreden.
Es ist halt aber schon komisch, wenn man erst vorher alles in Debayer RAW macht und dann später diesen Vorteil gerade beim Colorgrading wieder durch das Rendern in DPX verspielt.
Dazu sollte dein System mit einer RedRocket und genug GPU Power haben, das RAW Material in Echtzeit debayern können. Bei uns geht das schon mit den Proxys in Davinci.

Das mit dem Raid0 ist halt so eine Sache, dann doch besser ein Raid10 oder Raid5 mit zwei zusätzlichen HDDs, den hier hat sich der Preis auch endlich wieder normalisiert.

Space


Antwort von iasi:

Bevor du dir eine Scarlet gekauft hast, hast du schon Gedanken darüber gemacht ob das echtes 4k RGB ist oder nicht.
nein - die Auflösung war für mich zweitrangig.

Ich mag zwar die Reserven, die auch die Scarlet in dieser Hinsicht bietet.
Und ich stimme z.B. auch dem Red-Oberboss darin zu, dass hohe Auflösung auch ein gutes Mittel gegen Rauschen ist.
Wenn ich mal Zeitraffer mit 5k drehe, sehe ich zudem auch den Unterschied zu 4k ... aber letztlich brauche ich nicht mehr als das was die Scarlet an Auflösung liefert. Und wenn es auch nicht 4k sein sollten, so bin ich dennoch immer wieder begeistert von dem, was die Scarlet mir abliefert.

Das Dragon-Update werde ich nicht wegen der höheren Auflösung machen - da sind mir andere Aspekte wichtiger - ich mache das Update, wenn sich in den Bereichen, in denen z.B. die Alexa aktuell die Nase vorn hat, sich etwas verbessert.

Wichtig war mir Raw.
Raw ist für mich einfach ideal.
Die Raw-Arbeitsweise liegt mir einfach.

Space


Antwort von Frank Glencairn:

Könnte man doch in Resolve nur auch Looks abspeichern. Handbuch lesen scheint irgendwie out zu sein.

Space



Space


Antwort von iasi:

Könnte man doch in Resolve nur auch Looks abspeichern. Handbuch lesen scheint irgendwie out zu sein. Leider wahr ...

Wenn ich deine Ausage richtig interpretiere, gibt es auch in Resolve die Möglichkeit alle Einstellungen und Masken etc. für Premiere Lumetri verständlich zu speichern.

Das wäre ja erfreulich.

Space


Antwort von Frank Glencairn:

Ähhh... nein.

Du hast von Looks gesprochen.

Looks kann man in Resolve natürlich speichern und auch als LUT - genau wie die Speedgrade Looks - in Premiere importieren. Masken kommen aber nicht mit.

Space


Antwort von iasi:

Ähhh... nein.

Du hast von Looks gesprochen.

Looks kann man in Resolve natürlich speichern und auch als LUT - genau wie die Speedgrade Looks - in Premiere importieren. Masken kommen aber nicht mit. ... bei Lumetri wird das auch "Looks" genannt - aber das geht dann weiter als die üblichen LUTs ...

Wäre Speedgrade doch nur angenehmer zu bedienen und liefe nicht so zäh, wäre die Lumetri-Lösung genial.

Space


Antwort von Ab-gedreht:

Euch ist schon klar, dass redraw nicht debayerd ist?

Ein MB Retina mit rocket rendert 25fps nicht mal mit halfdebayering! Abgesehen von der Auflösung!

Kein Mensch zieht das Raw durch den Workflow! Das legt man sich schön ab, und holt es sich erst dann, wenn man es braucht! "Kein Mensch"?
Ich schon.
Und zwar ohne Probleme.
Und warum? weil du es kannst? oder weil es Sinn macht?

Würde gerne wissen, was es dir bringt die großen RAW Daten durch den Schnitt zu schleppen?

Space


Antwort von iasi:

Euch ist schon klar, dass redraw nicht debayerd ist?

Ein MB Retina mit rocket rendert 25fps nicht mal mit halfdebayering! Abgesehen von der Auflösung!

Kein Mensch zieht das Raw durch den Workflow! Das legt man sich schön ab, und holt es sich erst dann, wenn man es braucht! "Kein Mensch"?
Ich schon.
Und zwar ohne Probleme.
Und warum? weil du es kannst? oder weil es Sinn macht?

Würde gerne wissen, was es dir bringt die großen RAW Daten durch den Schnitt zu schleppen? Ich möchte den direkten Zugriff aufs Original - jederzeit - innerhalb des Projekts. Und warum sollte ich noch den Aufwand betreiben und kleine Ersatzclips erstellen, wenn ich die R3D auch mit 1/2 bis 1/8 abspielen kann, wenn es wirklich mal eng wird - oder erstellst du 4k-Proxys?

Aus Premiere gehe ich mal kurz in RedcineX, um Änderungen an einem Clip vorzunehmen und übernimm diese mit 2 Klicks in Premiere. Für globale Ändrungen empfind ich RedcineX als ideal.

Space


Antwort von Abercrombie:

Nein mal in Ernst, sogar Red selber hat mal zugegeben, das nicht mehr als 3,2k ans S/W Auflösung mit einer Red One möglich sind, wie soll das dann mit deiner 4k Scarlet mit identischen Sensor möglich sein?

Leider löscht Red solche Beiträge im eigenen Forum gerne wieder, aber dafür gibt es z.B. den Zacuto Shootut, bei dem das Problem bei der Farbauflösung sehr deutlich wird. http://www.reduser.net/forum/showthread ... post771139

http://www.reduser.net/forum/showthread ... post550694

Space


Antwort von iasi:

Bevor du dir eine Scarlet gekauft hast, hast du schon Gedanken darüber gemacht ob das echtes 4k RGB ist oder nicht.
Jetzt nach dem dich die Sache über 10k Euro gekostet hast, willst du von der Thematik nichts mehr wissen.
Es scheint fast so als ob mit der Kamera noch eine rote Pille ausgeliefert wird ;-)
Nein mal in Ernst, sogar Red selber hat mal zugegeben, das nicht mehr als 3,2k ans S/W Auflösung mit einer Red One möglich sind, wie soll das dann mit deiner 4k Scarlet mit identischen Sensor möglich sein?

Leider löscht Red solche Beiträge im eigenen Forum gerne wieder, aber dafür gibt es z.B. den Zacuto Shootut, bei dem das Problem bei der Farbauflösung sehr deutlich wird. Du klingst immer so wie die Sigma-Werbetexte zu ihren Foveon-Kameras, wenn es um Auflösung im Vergleich zu Bayer-Sensoren geht.
Ich hab eine SD14 - eine schöne Kamera - nur hat sie eben sichtbar und praktisch geringere Auflösung, als eine Kamera mit Bayer-Sensor und 3facher Auflösung - trotz all der schönen Theorien.

Und meinst du eigentlich diesen Zacuto Shootout? Siehe Bild.
Merkwürdig, denn da löst die Red One so viele Linienpaare auf, wie ein Kodak 5219.

Es ist ja auch nicht gerade so, dass ich mir die Details, die die Scarlet-Aufnahmen zeigen, nur einbilde. Vielmehr bin ich z.B. immer wieder überrascht, wenn ich bei Landschaftsaufnahmen plötzlich Menschen entdecke, die ich während der Aufnahme gar nicht gesehen hatte.

Ich versuche deshalb bei Totalen mittlerweile auch alles, um die Objektive bei f4 bis 8 zu halten, da hier (meist) das Optimum für Zentrum und Ecken liegt. (Das Samyang T-S 24 mm f/3.5 ist z.B. bei f11 noch sehr gut.)

Space


Antwort von iasi:

übrigens:

So etwas ist natürlich auch ein ziemlich halbgarer und oberflächlicher Vergleich:
http://www.reduser.net/forum/showthread ... ate/page69

Während die Pixel des Sensors nicht variieren, erzeugt die fließende Kornstruktur des Films einen anderen Bildeindruck beim Film.
Diese Standbildbetrachtungen sind ziemlich nutzlos.

Space


Antwort von Valentino:

Ich gebe es auf, so lange du die Farbauflösung nicht von S/W Auflösung unterscheiden kannst oder willst, macht diese Diskussion glaub keinen Sinn mehr.

Zu deinem Reduser Link, was soll uns dieser Vergleich sagen, das beim Filmmaterial kein Highpass drauf ist oder das 35mm Material nur durch eine 10 Jahre alte Telecine gegangen ist, anstatt es mit 6k Oversampling für ein echtes 4k Bild zu scannen?

Merkwürdig ist auch, das bei Film anscheinend die Highlights stärker clippen, was ich mir beim Kodak Kinefilm nur schwer vorstellen kann, also dann doch eher eine schlechte Abtastung?

@Abercrombie
Danke für die Links, die Beiträge sind ja schon ein paar Jahre alt und auch mal zeitweise wieder von der Seite verschwunden.

Space



Space


Antwort von iasi:

Ich gebe es auf, so lange du die Farbauflösung nicht von S/W Auflösung unterscheiden kannst oder willst, macht diese Diskussion glaub keinen Sinn mehr. Ja - wir drehen uns im Kreis.
Du theoretisierst endlos über etwas, das für mich praktisch widerlegt ist.
Es klingt ja in der Theorie immer alles so logisch, ist aber dann doch etwas komplexer, als die Schullehre es glauben machen will.
Vor allem fehlen deinen sich wiederholenden Behauptungen Begründung und Beleg/Beispiel. Und dadurch wird eine Diskussion ziemlich fruchtlos.

Zudem gibt es beim aktuellen Red-Sensor andere Aspekte, bei denen ich lieber Fortschritte sehen würde, als die Auflösung - die genügt mir nämlich völlig.


Was soll übrigens das Gerede über die Scan-Technik des 35mm-Filmbildes?
Ich hatte glaube ich deutlich gesagt, dass ein Vergleich zwischen einem Digital- und Analog-Standbild eh blödsinnig ist.

Space


Antwort von Valentino:

Naja da fehlen mir wieder die Beweise oder besser gesagt hab ich einfach keine Lußt mehr dir die Grundlagen der Medientechnik, Optik, Informatik und Sensortechnik ständig unter die Naße zu reiben.
Für sowas gibt es den Wolfgang aka. WoWu hier auf Slashcam, der wird dir aber auch nichts anderes erzählen.

Die Sache mit der Farbaulfösung gibt es auch bei Zacuto und das mit dem Scan war nur eine Feststellung, den auch im Standbild sollte das Filmbild besser zeichnen.

Was dein eigentliches Ziel diese Beitrages war, wüde mich aber mal interessieren ;-)

Space


Antwort von iasi:

Naja da fehlen mir wieder die Beweise oder besser gesagt hab ich einfach keine Lußt mehr dir die Grundlagen der Medientechnik, Optik, Informatik und Sensortechnik ständig unter die Naße zu reiben.
Für sowas gibt es den Wolfgang aka. WoWu hier auf Slashcam, der wird dir aber auch nichts anderes erzählen.

Die Sache mit der Farbaulfösung gibt es auch bei Zacuto und das mit dem Scan war nur eine Feststellung, den auch im Standbild sollte das Filmbild besser zeichnen.

Was dein eigentliches Ziel diese Beitrages war, wüde mich aber mal interessieren ;-) ja ja - wieder diese Vorlesungsargumentation - und WoWu als der Herr Professor, dem man alles Glauben muss.
Nur ist eben die Gravitation doch nicht überall dieselbe, auch wenn das noch vielen Schülern suggeriert wird.
In der Scarlet-Preisklasse gibt es noch nichts, das mir ähnliche Auflösung liefert. Ich würde die Scarlet-Aufnahmen eher mit den Raw-Fotoaufnahmen meiner 5dII, als mit den 5dII-Videos vergleichen. Und genau das wollte ich:
Eine Kamera, die 25fps der 5dII-Raws bietet.

Wenn eine F65 nicht mehr liefern würde, als eine Scarlet, dann könnte Sony den Cine-Sektor bald dicht machen.

"... auch im Standbild sollte das Filmbild besser zeichnen."
Das stellst du wie eine ewig gültige Wahrheit in den Raum. Du postulierst immer etwas, das mir zu grob daher kommt.
Frag dich doch lieber mal, warum der Reduser-Poster von "Kodak 5203 superspeed" spricht ... das ist ein EI50 Daylight-Material ...
Dass der Scan nicht optimal war, nehme ich auch mal an - immerhin gehört der Kodak 5203 wohl zum Feinkörnigsten, das man bekommen kann.

Mein Ziel ist doch im Titel genannt:
Raw ist nicht aufwändiger als ProRes&Co.
Und das zeigt sich doch ganz gut an der BM-4k.

Space


Antwort von Valentino:

Zu dem Reduser Vergleich, haste recht das ist ja 50D, dazu sieht man in der Unschärfe kein runden, sondern dreieckige "Lichtpunkte", was dann wieder auf Super16 deutet.

Zum Rest kann ich nur den Kopf schütteln. Dein so genannter RAW Workflow(Mit Premiere) ist einfach kein so Sinnvoller Workflow, sondern rendert bei Effekten aller Art in MPEG2 HD als Proxy im Hintergrund oder der Effekt muss bei jeder Wiedergabe erneut De-Bayered und gerendert werden.
Man kannst keine Effekte in die R3D Dateien schreiben, sondern sie nur trimmen und somit ist dieser Workflow für mich meist eine Einbahnstraße.
Wandelt man hingegen in einen RGB(A) Codec so kann auch in diesem geschrieben bzw. gerendert werden.
Das hier ProRes als DCT Codec nicht so ganz auf der Höhe der Zeit ist, liegt auf der Hand. In Zukunft wird es hoffentlich einen effizienteren 4k RGB Codec geben(H265?), mit dem man in hoher Qualität und halber Datenrate arbeiten kann.
Sony ist hier mit ihrem XAVC glaub auf dem Weg in die richtige Richtung.

Am meisten stört uns beim "reinen" RED-RAW-Premiere-Workflow, das du am Ende eine Projektdatei hast, die proprietär ist und diverse Effekte beim Wiederbeleben(Jahre später) des Projektes erneut gerendert werden müssen. Weder Red, noch Adobe geben dir da eine Garantie dafür, das es gleich aussieht und ob diese dann überhaupt noch möglich ist.
Klar es gibt noch XML und AAF, aber die nehmen auch nicht jeden Effekt so richtig mit. Mit gerenderte Einzelbild-Sequenzenin in RGBA für jede Videospur wird man später mehr anfangen können, als mit Red-RAW und den eigenen Projekt, Effekt und Renderdateien von Premiere.
Bei Photoshop Projekten ist es auch schon üblich PSD und Tif zu speichern.

Habe im AC gerade erst gelesen, das man in der Post bei größeren EPIC und F65 Projekten(Great Gatsby/After Earth), gerne in OpenEXR für die VFX/Compositing und in ein Proxy-Codec für den Schnitt umwandelt.

Um auch noch mal auf deine Grundaussage zurück zu kommen, außer der höheren Datenrate ist an 4k ProRes eigentlich nichts aus zu setzten. Festplatten kosten nicht mehr die Welt und die Rechner und die NLEs werden immer schneller und günstiger.

Was spricht dann also noch gegen diese Art von Workflow?

Space


Antwort von iasi:

... da läuft doch im Moment ein lange Diskussion zu den Upgarde-Problemen bei CC ... mit so etwas musst du immer und bei jedem Codec rechnen ...

Ich verstehe auch nicht, welchen Vorteil Codec bringen sollen, die beim Dekomprimieren und Komprimieren einen höheren Rechenaufwand erzeugen.

Letztlich muss ein Codec doc nur eine vernünftige Balance zwischen Rechenaufwand und Datenmenge bieten.
AVCHD läuft in Premiere langsamer als R3D.

Ich kann eigentlich nur den Kopf schütteln, wenn schnell von Raw auf ein Format gegangen wird, und die Möglichkeiten von Raw dann schnell in der Versenkung versinken. Da wird dann mit dem (ehemaligen) Raw gearbeitet, wie mit dem Material aus einer EB-Kamera - viel zu oft wird dadurch dann das besondere Potehntial von Raw verschenkt.

Ich drehe immer im Raw-Modus und habe auch die Einstellungen auf die Raw-Werte gesetzt (ISO320, 5000 Kelvin) - jede Einstellung bearbeite ich dann von Hand erst mal in RedcineX.
Und da ich auch während des Schnitts noch Anpassungen vornehmen möchte, bleibe ich auch bei R3D. Dabei mache ich das, was möglich ist in RedcineX und vermeide Effekte in Premiere.

4k ProRes ist nun einmal allein schon durch die Datenmengen aufwändiger - 60GB kopiere ich eben schneller auf den Schnittrechner als 240GB. Und umgewandelt wird nichts - es geht direkt in RedcineX und Premiere.

Wenn jetzt Speedgrade noch so wie Resolve wäre, dann wäre Lumetri
der Knüller.

Übrigens bearbeite ich gerade Aufnahmen eines Lichterfestes und bin hin und weg, was Auflösung, Farben und Rauschverhalten betrifft. Einzig das Black-Shading war in dieser Drehsituation ein ziemlicher Mist. Selbst mit abgespeicherten Kalibrationen dauert es oft einfach zu lange - und wenn man darauf verzichtet, hat man nachher ziemlich Arbeit.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) 4.6K und 12K uä.-Forum

Antworten zu ähnlichen Fragen //


Asynchron mit Bmpc4k Apple ProRes 422 HQ
4k (UHD) H265 nach 4k prores
Kurznews: ARRI kündigt ALEXA ProRes 3.2K für 4K UHD an
BM 4K "RAW" - DPX CAPTURE vs. Proress 422
Blackmagic Design 4K ProRes aufwändiger als RAW
Panasonic G9II erhält Blackmagic RAW und ProRes RAW Aufnahme via HDMI
Messevideo: Blackmagic Design Video Assist 12G HDR: BMD RAW-Aufnahme, 2500 Nits, L-Akkus // IBC 2019
Blackmagic Design DaVinci Resolve Version 17.4.6 Update - u.a. mit Nikon RAW
Panasonic GH6 Firmware 2.0: 120 fps ProRes RAW mit Ninja V+, mehr internes ProRes und mehr...
Nikon Z6 RAW - Besser als ProRES?
Assimilate ProRes RAW Transcoder (noch kurz) als kostenlose Atomos Beigabe
Blackmagic Design IBC 2019 Update
Blackmagic Design: Atem Mini Pro Switcher mit integriertem H.264-Encoding für Live-Streaming
Blackmagic Design URSA Mini Pro 12K
Blackmagic Design Fairlight Desktop Console: Mobiles Tonmischpult mit 12 Flying Fadern uvm
Blackmagic Design: neue Micro Converter 3G Modelle mit HDMI und 3G SDI
6K Pro von Blackmagic Design, DaVinci Resolve und die Produktion von Ninja Kidz Video
IBC 2021 und Corona - Blackmagic Design sagt Teilnahme ab
Blackmagic Design - Resolve 18 mit Cloud Schwerpunkt und Storage Hardware
Neu: Blackmagic Design HyperDeck Extreme 4K HDR und HyperDeck Shuttle HD
NAB 2022 Interview: Blackmagic Design - User Szenarios für die neuen Cloud-Produkte
The Camera ABANDONED by Blackmagic Design
Blackmagic Design Ultimatte 12: Echtzeit-Compositing und Chroma Keying




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash