Newsmeldung von slashCAM:
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Blackmagic 4k Production Camera wird jetzt für 2.735 Euro ausgeliefert
Antwort von Klose:
Preisverfall um 33%?
Nachfolge Model geplant?
Und von den 13 Blenden DR wird auch nicht mehr berichtet!
Antwort von ruessel:
Und von den 13 Blenden DR wird auch nicht mehr berichtet!
im Netz fand ich Hinweise, das in der BMD 4K Kamera dieser Sensor benutzt wird:
http://www.cmosis.com/products/standard ... s/cmv12000
wenn das wahr sein sollte: Dynamic range 60 dB.... das sind 10 ehrliche Blenden vom Sensor. Den Rest bekommt man nur mit elektronischen Tricks hin - das geht aber wieder zu lasten der erzielten Bildqualität.
Antwort von rainermann:
Hm, wäre diese Cam mit entsprechendem Objektiv auch für "Run&Gun" Events einsetzbar? Global Shutter passt ja schon mal ganz gut. Speicherplatz 422 Prores und SSD, da dürften auch ein paar Stunden drauf passen.
Wie schaut's denn mit Autofokus aus? Gäbe es da Möglichkeiten?
Hintergrund meiner auf den ersten Blick vielleicht etwas "seltsamen" Frage: ich hab für Events eine EX1 und würde gerne aufstocken. Da Events aber nur ein kleiner Teil meiner Aufträge sind, wäre eine Kamera, die sowohl Top Bilder für inszeniertes (Raw, 4K) als auch Handling für Dokus in einem verbindet, schon was feines. Denke, die BMCC fällt das schon mal raus, der RS ist da ziemlich stark, wie ich selbst gesehen habe. (Oder nen ganz anderen Tip für mich? 4K muss nicht sein, RAW wäre klasse)
Antwort von mindfest:
4k braucht schon Platz, 480GB für 72min mit ProRes...
Der Cropfaktor müsste bei ca. 1,7 liegen oder?
Antwort von pH0u57:
Jep, Super35.
Also im Vergleich zur EX1 ballert jede BMC halt extrem Akkus durch. Besonders dokumentarisch wirst Du da eine externe Lösung brauchen.
Antwort von Valentino:
Bei der BM 4k gibt es streng genommen keinen echten Cropfaktor mehr, da sie doch schon sehr nahe an der Bildfläche von Super35 ist.
Bei der Alexa, EPIC/Scarlet, F5/F55 und wie sie alle heisen spricht man auch nicht von einem Cropfactor.
Das sind alles Filmkameras und hier ist seit Jahren schon immer S35 der Standard bzw. Vollformat gewesen und keiner hat dieses mit dem Vollformat von Kleinbild verglichen oder gar verwechselt.
@Rainer
Ein gut gemeinter Ratschlag, für dein Einsatzgebiet ist die 4k Cinema Kamera das falsche Werkzeug. Die Kamera ist wie die anderen beiden Modelle eine digitale Filmkamera und keine 4k EB-Mühle. Für EB fehlen ihr einfach zu viele Features und ist in der Bedienung und Aufbau zu komplex für solche Sachen.
Für so was gibt es genug 4k Kameras, die für EB konzipiert wurden und wenn es dir um die TiefUnschärfe geht, dann greif besser gleich zur GH4.
Für die BM 4k solltest du noch mal 2k Euro an Zubehör einrechnen, bevor du wirklich mit ihr arbeiten kannst.
Antwort von Ab-gedreht:
S35 ist leider im digitalen etwas schwammig.
Sensorgröße ist : 22.12x11.88 gleiche Größe wie APS-C (canon 7D,60d,t2i und co)
kleiner als Epic, größer als GH2.
Angegeben sind 12 Blenden. Reale 11 sollten drin sein.
Meiner Meinung nach ausreichend!
Antwort von Klose:
Wieviele Blenden DR haben eigentlich Camcorder zb sony pj780 oder Panasonic x929?
Gibt es eine liste im Netz?
Antwort von ruessel:
Wieviele Blenden DR haben eigentlich Camcorder
Meine Sony EX1R mit voller Ausnutzung der PictureProfile 11,5 Blenden. In der Praxis aber eher 10 Blenden.
Antwort von aight8:
Was ich an BM nicht mag ist Ihre Preispolitik. Die Fangen bei 3k an, dann glaubt man der Preis ist stabil da sowieso schon tief angesetzt, und dann reudzieren die den Preis tatsächlich um ein Drittel. Beim der neuen 4K Kamera ja auch. Finde ich jetzt persönlich dreist von denen. Ausmelkung quer durch die Preisklassen. Früher oder später werden sie damit scheitern.
Preisverfall um 33%?
Nachfolge Model geplant?
Und von den 13 Blenden DR wird auch nicht mehr berichtet!
Und ne die 4K Cam kann das gar nicht mehr. Die ist nur noch halb so gut.
Antwort von Frank Glencairn:
Hä? Seit wann sind denn Preissenkungen was schlechtes?
Antwort von Christian Schmitt:
Hm, wäre diese Cam mit entsprechendem Objektiv auch für "Run&Gun" Events einsetzbar? Global Shutter passt ja schon mal ganz gut. Speicherplatz 422 Prores und SSD, da dürften auch ein paar Stunden drauf passen.
Wie schaut's denn mit Autofokus aus? Gäbe es da Möglichkeiten?
Hintergrund meiner auf den ersten Blick vielleicht etwas "seltsamen" Frage: ich hab für Events eine EX1 und würde gerne aufstocken. Da Events aber nur ein kleiner Teil meiner Aufträge sind, wäre eine Kamera, die sowohl Top Bilder für inszeniertes (Raw, 4K) als auch Handling für Dokus in einem verbindet, schon was feines. Denke, die BMCC fällt das schon mal raus, der RS ist da ziemlich stark, wie ich selbst gesehen habe. (Oder nen ganz anderen Tip für mich? 4K muss nicht sein, RAW wäre klasse)
Events, Run'Gun und alles andere wo es wirklich schnell gehen muss, geht ja oft schon wegen den wechselnden Anforderungen an die Brennweite des Objektivs nicht so gut.
Um längere Brennweiten abzudecken, muss man einiges an Gewicht in Kauf nehmen (im Vergleich zur EX1 oder anderen Handlecams).
Akkulaufzeit wurde ja schon erwähnt, da muss was externes her, dass bedeutet dann auch eigentlich sofort ein vernünftiges Rig.
Lowlight ist auch so eine Sache, RAW und DR sind natürlich schöne Schlagworte, aber wenns dunkel wird, hat z.B. Canons C Serie immer noch die Nase vorn.
Klassische Doku geht und da wird das Bild der BMD4K sicherlich bereichernd im Vergleich zur EX1 wirken. Aber selbst mit ProRes sind die Speicherplatzanforderungen doch recht happig.
Als "Universalkamera" taugt mMn keine der BMCCs, allerdings ist der jetzt nach unten korrigierte Preis der BMC4K so attraktiv, dass viele sie sich einfach für die Drehs in den Schrank stellen werden, bei denen man ihr Potential wirklich ausschöpfen kann.
Antwort von aight8:
@Frank:
Für die paar tausend private Personen die jetzt 1000 Euro mal eben so abschreiben müssen.
Antwort von Frank Glencairn:
@Frank:
Für die paar tausend private Personen die jetzt 1000 Euro mal eben so abschreiben müssen.
Wieso abschreiben?
Wenn sie in den kommenden Wochen irgendwann mal in den Regalen steht, dann zum neuen Preis.
Antwort von Jott:
Es hatte doch kein Mensch den ursprünglichen Preis bezahlen müssen, oder? Die Reduktion gilt auch für bestehende Vorbestellungen. Insofern verstehe ich jetzt auch nicht, was es da zu nörgeln gibt.
Antwort von Paralkar:
Eine C300 ballert auch ne gute Rauschunterdrückung rüber
Ist n bisschen unfair der Vergleich mit non-denoised Raw
Antwort von rainermann:
Danke für die Antworten -> Run/Gun/Events.
Hatte ähnliches auch schon vermutet. War wohl etwas überschwenglich, so kurz nach dem Aufwachen von dieser spannenden Cam zu lesen ;-)
Also, danke nochmals, waren gute Argumente dabei (Akku, Handling, Objektive etc.)!
Antwort von klusterdegenerierung:
Preisverfall um 33%?
Nachfolge Model geplant?
Und von den 13 Blenden DR wird auch nicht mehr berichtet!
LEUTE... geht das schon wieder los, ist soviel Zeit vergangen?
Bei der 4K war nie die Rede von 13 Blenden!!
Von Anfang an hat Blackmagic immer von "10" Blenden gesprochen und nicht von 13! 13 war immer nur die 2K.
Und mal ganz davon ab, wer mal das Material seiner eigenen Cam in Adobe ACR interpretiert und bearbeitet hat (geht momentan nur über Photoshop, für Smartobjekte konvertieren, strg+shift+A) merkt das so manche Cam auch einige Blenden im Ärmel hat.
Steht bei dieser Kiste für den Preis nicht eher 4K mit DNG & ProRes Format im Fordergrund?
Müßt ihr immer alle brutal falsch belichten um hinterher an zig Reglern zu drehen damit es wieder passt?
Vielleicht mal für 200€ einen Belichtungsmesser kaufen? :-)
Antwort von Ab-gedreht:
Preisverfall um 33%?
Steht bei dieser Kiste für den Preis nicht eher 4K mit DNG & ProRes Format im Fordergrund?
oder raw im s35 format mit global shutter?
Antwort von klusterdegenerierung:
Preisverfall um 33%?
Steht bei dieser Kiste für den Preis nicht eher 4K mit DNG & ProRes Format im Fordergrund?
oder raw im s35 format mit global shutter?
YEPP!
Antwort von iasi:
nun - ich kritisiere durchaus des öfteren BM, aber ich kann nun wirklich nichts negatives daran erkennen, dass der preis gesenkt wurde.
woher kommen zudem plötzlich diese 13 blenden DR? davon war nie die rede. es war doch immer klar, dass (auch) durch den global shutter wohl um die 10 blenden übrig bleiben würden.
jetzt muss sich aber erst einmal zeigen, welche bildqualität die 4k-BM denn liefert ... und in welchen stückzahlen sie dann auch ausgeliefert wird.
zur NAB wird dann wohl schon das nachfolgemodell präsentiert - mit überarbeitetem gehäuse und ähnlichen details, nehme ich mal an ...
Antwort von Ab-gedreht:
Erstes Footage gab es doch schon:
https://www.slashcam.de/news/single/Ers ... 11088.html
Der Nachfolger auf der NAB dann mit 96fps in 2k und 48fps in 4K :D
Antwort von Angry_C:
Erstes Footage gab es doch schon:
https://www.slashcam.de/news/single/Ers ... 11088.html
Der Nachfolger auf der NAB dann mit 96fps in 2k und 48fps in 4K :D
Die Vorstellung vielleicht, die Auslieferung dann 2016:-)
Antwort von iasi:
Steht bei dieser Kiste für den Preis nicht eher 4K mit DNG & ProRes Format im Fordergrund?
Müßt ihr immer alle brutal falsch belichten um hinterher an zig Reglern zu drehen damit es wieder passt?
Vielleicht mal für 200€ einen Belichtungsmesser kaufen? :-)
na - DR hat ja nun nicht direkt etwas mit dem Aufnahmeformat zu tun. Und der Belichtungsmesser hilft dann auch nicht mehr, wenn die Kontraste im Bild sehr hoch sind.
Es hängt aber eben auch davon ab, wie z.B. die Lichter auslaufen.
Antwort von Christian Schmitt:
Hm, wäre diese Cam mit entsprechendem Objektiv auch für "Run&Gun" Events einsetzbar? Global Shutter passt ja schon mal ganz gut. Speicherplatz 422 Prores und SSD, da dürften auch ein paar Stunden drauf passen.
Wie schaut's denn mit Autofokus aus? Gäbe es da Möglichkeiten?
Hintergrund meiner auf den ersten Blick vielleicht etwas "seltsamen" Frage: ich hab für Events eine EX1 und würde gerne aufstocken. Da Events aber nur ein kleiner Teil meiner Aufträge sind, wäre eine Kamera, die sowohl Top Bilder für inszeniertes (Raw, 4K) als auch Handling für Dokus in einem verbindet, schon was feines. Denke, die BMCC fällt das schon mal raus, der RS ist da ziemlich stark, wie ich selbst gesehen habe. (Oder nen ganz anderen Tip für mich? 4K muss nicht sein, RAW wäre klasse)
Events, Run'Gun und alles andere wo es wirklich schnell gehen muss, geht ja oft schon wegen den wechselnden Anforderungen an die Brennweite des Objektivs nicht so gut.
Um längere Brennweiten abzudecken, muss man einiges an Gewicht in Kauf nehmen (im Vergleich zur EX1 oder anderen Handlecams).
Akkulaufzeit wurde ja schon erwähnt, da muss was externes her, dass bedeutet dann auch eigentlich sofort ein vernünftiges Rig.
Lowlight ist auch so eine Sache, RAW und DR sind natürlich schöne Schlagworte, aber wenns dunkel wird, hat z.B. Canons C Serie immer noch die Nase vorn.
Klassische Doku geht und da wird das Bild der BMD4K sicherlich bereichernd im Vergleich zur EX1 wirken. Aber selbst mit ProRes sind die Speicherplatzanforderungen doch recht happig.
Als "Universalkamera" taugt mMn keine der BMCCs, allerdings ist der jetzt nach unten korrigierte Preis der BMC4K so attraktiv, dass viele sie sich einfach für die Drehs in den Schrank stellen werden, bei denen man ihr Potential wirklich ausschöpfen kann.
Antwort von klusterdegenerierung:
Steht bei dieser Kiste für den Preis nicht eher 4K mit DNG & ProRes Format im Fordergrund?
Müßt ihr immer alle brutal falsch belichten um hinterher an zig Reglern zu drehen damit es wieder passt?
Vielleicht mal für 200€ einen Belichtungsmesser kaufen? :-)
na - DR hat ja nun nicht direkt etwas mit dem Aufnahmeformat zu tun. Und der Belichtungsmesser hilft dann auch nicht mehr, wenn die Kontraste im Bild sehr hoch sind.
Es hängt aber eben auch davon ab, wie z.B. die Lichter auslaufen.
Da hast Du Recht, war ja auch ein bisschen globaler gemeint und ich wollt auch mal weg von dieser knöpfchen dreherei! Wenn mans halbwegs vernüftig belichtig ist ja schon viel gewonnen. Mir kommt es halt so vor als ginge mit solchen Cams auch eine Verwahrlosung des Grundwissens bzw Notwendigkeit einher weil man ja in der post allem Herr werden kann! ;-)
Was auch soviel heißt wie das jeder der auch nur Kamera richtig schreiben kann, ohne Ausbildung oder Vorkenntnisse in der Lage ist bzw glaubt gutes Material ab zu liefern zu können und jeder rennt bald mit so einem Klotz um den Hals herum, auch der Familiendaddy in Socken und Sandalen! :-) ;-)
Antwort von ruessel:
Schade das kein zukünftiger Speedbooster draufpasst (für Nikon). Wird sie denn gleich RAW können oder wird das wieder nachgeliefert?
Nachtrag: Kein RAW bei Auslieferung.... also evtl. im Herbst....
Antwort von Paralkar:
Nein 12 Blenden war immer angesagt
http://www.blackmagicdesign.com/de/prod ... oncamera4k
Abgesehen davon, wird das mit dem SlowMo eher nix, ne Kamera mit S35 und mehr als 30 fps kostet halt einfach deutlich mehr, durch ganze was nachdem Sensor passiert, der notwendigen Kühlung und sonst was.
Für ein solchen Preis, kann man das glaub ich vergessen.
Antwort von Ab-gedreht:
Abgesehen davon, wird das mit dem SlowMo eher nix, ne Kamera mit S35 und mehr als 30 fps kostet halt einfach deutlich mehr, durch ganze was nachdem Sensor passiert, der notwendigen Kühlung und sonst was.
Für ein solchen Preis, kann man das glaub ich vergessen.
Das hätten wir vor 3 Jahren auch zu einer Cam gesagt, die uns 4K Raw unter 4K Euro verspricht.
Selbst die R1 liegt in Sachen HFR noch vorne.
Antwort von Valentino:
Wieviele Blenden DR haben eigentlich Camcorder
Meine Sony EX1R mit voller Ausnutzung der PictureProfile 11,5 Blenden. In der Praxis aber eher 10 Blenden.
Das die 11,5 Blenden in die 8bit gequetscht werden ist dir schon klar oder?
Dabei gehen eine ganze Menge an Werten dazwischen einfach verloren, die z.B. für ein Grading nicht mehr vorhanden sind.
Das wird bei der 4k BM mit den 10bit bzw. 12bit bei RAW nicht so leicht passieren.
Antwort von WoWu:
Nicht nur beim Grading.
Die Darstellungstiefe ist generell höher und die hat mit der Kameradynamik nicht viel zu tun.
Geht man allerdings hinterher zurück auf 8Bit, relativiert sich das Ganze wieder.
Antwort von Paralkar:
Nein, das sagen Ingenieure, höhere Aufnahmeframerates sind einfach n ganz anderes Problem,
Die BM Kameras könnten vom Sensor her auch mehr Bilder, aber das ganze was dazugehört ist halt was anderes
Antwort von WoWu:
Die Taktraten des Sensors liegen (innerhalb der Parametergruppe) fest denn sie werden durch die physikalischen Eigenschaften des Chips bestimmt.
Erhöht man die Framrate,muss auf andere Parameter verzichtet werden. Welche das sind, kann der Hersteller auswählen.
Auch die Kühlung lässt sich nur in einem begrenzten Umfang darstellen, weil es auf die Temperatur im Substrat ankommt und die ist nicht unbegrenzt von aussen beeinflussbar.
Antwort von klusterdegenerierung:
Nicht nur beim Grading.
Die Darstellungstiefe ist generell höher und die hat mit der Kameradynamik nicht viel zu tun.
Geht man allerdings hinterher zurück auf 8Bit, relativiert sich das Ganze wieder.
Das wäre mal meine Frage gewesen.
Wenn ich also zb mit der Pocket in 12Bit 422 aufzeichne und professionell eine Farb und Kontrastanpassung vornehme und dann in 8Bit 420 rausgehe, sieht das dann so aus als hätte ich auch in 8Bit aufgezeichnet und hätte dementsprechend auch kein gutes granding machen können?
Oder rette ich mir beispielsweise meine korrigierten highlight ausfresser in 10Bit rüber zu 8Bit.
Ich frage weil die meisten meiner Kunden sicherlich noch nicht mit derart hohen Bitraten und professionellen Codecs umgehen können, zumal es Hinterher oft eh nur noch in youtube gedrückt wird!
Antwort von DylanPenev:
Leute, nicht aufregen.
Ich habe von Blackmagic die Bestätigung erhalten, dass die BMPC4K 12 Blendenstufen haben wird:
"Hi Dylan
Thank you for your email. I can confirm that the Blackmagic Production camera 4K will be able to perform 12 stops of dynamic range as advertised on the website. Please excuse the mistake on the video.
If you have any further queries do not hesitate to contact me.
Best Regards
Matthew Plant"
Oder lest es einfach auf der Webseite nach:
http://www.blackmagicdesign.com/de/prod ... oncamera4k
Des weiteren ist es ein sehr grosser Vorteil, wenn ich 1'000 Franken weniger blechen muss. Findet ihr nicht?
Antwort von thenino:
Bei Marcotec gibts die Kamera mit dem Code C5DBMPC4K um €2029 netto :)
http://www.marcotec-shop.de/en/products ... _image.htm
Gültig bis Ende Februar.
Antwort von wolfgang:
Bei Marcotec gibts die Kamera mit dem Code C5DBMPC4K um €2029 netto :)
http://www.marcotec-shop.de/en/products ... _image.htm
Gültig bis Ende Februar.
Toll. Aber lieferbar ist sie dort noch nicht.
Antwort von WoWu:
@ klusterdegenerierung
Man muss unterscheiden zwischen Fehlern, die vom Sensor herrühren (Full Well) und Unterschieden im Übertragungsweg.
Fehler, also "Ausfresset", die im Sensor entstanden sind, bekommst Du so, oder so nicht mehr weg.
Veränderst Du Feinheiten im Grenzbereich, z.B. sehr dicht an FullWell, dann haben diese Werte gute Chancen, bei 8 Bit wieder auf dem Spitzenwert zu landen und die Differenzierung ist "für die Katz".
Oder sie landen im Wert darunter und Du hast an der Stelle ein Banding.
Es kommt darauf an, welcher Wert dichter liegt.
Wenn Du genau weisst, dass Du hinterher nach 8 Bit musst, solltest Du immer während der 10 Bit Arbeit ein 8 Bit Prevew parallel sehen.
In der Tat hast Du aber, wenn das Material in 10/12 Bit aufgenommen wurde (also keine 8 Bit und dann nur in der Bearbeitung 10/12 Bit) -- diverse Vorteile in der Bearbeitung, weil z.B. bei keying, die Übergänge aufgrund der höheren Farbauflösung sehr viel dichter am Keyobjekt definiert werden können.
Sehr viel genauer als bei 8 Bit.
Das Bild wird also entlang einer präziseren spatialen Vorgabe gerendert.
Überführt man dieses Bild hinterher wieder nach 8 Bit, mag sich zwar der Farbton am Übergang geringfügig ändern, um in die 8 Bit Skalierung zu passen, aber an der spatialen Präzision der Arbeit ändert sich nichts mehr.
Anders bei 8 Bit=>10 Bit=>8 Bit.
Da werden an den fehlenden Werten Dither-Strukturen eingesetzt, die sich aus umliegenden Pixels errechnen.
Das sind sehr unpräzise Verfahren (einwenig vergleichbar mit Rauschstrukturen).
Sie machen die Übergänge zunehmend "unberechenbar" und spatial nicht gerade präziser. Da ist man deutlich besser bedient, wenn man gleich in 8Bit arbeitet.
Antwort von thenino:
Bei Marcotec gibts die Kamera mit dem Code C5DBMPC4K um €2029 netto :)
http://www.marcotec-shop.de/en/products ... _image.htm
Gültig bis Ende Februar.
Toll. Aber lieferbar ist sie dort noch nicht.
Lieferbar ist sie nirgendwo. Jetzt werden erst mal die Vorbestellungen bedient. Ich rechne mit Auslieferung in frühestens 6 Wochen, wenn man heute bestellt. Und das ist optimistisch.
Antwort von wolfgang:
Ja so ist es wohl.
Die jetztige Pressekonferenz, die Preissenkung, die sonstigen kleinen Nachlässe dienen wohl dazu, die Vorbesteller bei der Stange zu halten - oder neue Vorbesteller zu gewinnen.
Mal abgesehen von der Frage, ob sich jemand den raw-workflow antun will (man könnte ja auch ProRes nutzen), stellt sich mir schon die Frage ob die so gar nicht erwarten dass man ihnen langsam nicht mehr glaubt? Ich glaube zwar dass wir Blackmagic einiges zu verdanken haben - die haben doch den Markt markant verändert und für transparenz gesorgt. Aber ich hätte trotzdem gerne mal so ein Gerät in der Hand gehabt, getestet, kurz und gut real erlebt. Auch wernn der Preis verlockend erscheinen mag.
Antwort von Frank Glencairn:
Momentan kann die 4k sowieso nur ProRes. Die raw Frage stellt sich zur Zeit also noch gar nicht. Aber der Aufwand des raw Workflow wird IMHO auch völlig überschätzt und ist bestenfalls ein angebliches "Problem" für Neueinsteiger.
Antwort von DV_Chris:
Momentan kann die 4k sowieso nur ProRes. Die raw Frage stellt sich zur Zeit also noch gar nicht. Aber der Aufwand des raw Workflow wird IMHO auch völlig überschätzt und ist bestenfalls ein angebliches "Problem" für Neueinsteiger.
Der Raw Workflow wird überschätzt? Nun, einmal abgesehen davon, dass ein 'Resolve für Dummies' Buch wohl auch mehr als 1.000 Seite hätte, ist Grading eine Wissenschaft für sich. Eine Umfrage in grossen Post Häusern wird wohl bestätigen, dass Raw die Studiozeit erhöht.
Antwort von Frank Glencairn:
Kann ich nicht bestätigen, im Gegenteil.
Es ist noch nicht so lange her, daß in allen Posthäuser üblich war mit Proxies zu arbeiten (FCP konnte gar nix anderes, da mußte man immer nach ProRes umwandeln und bei Avid sah es ähnlich aus). Ob ich jetzt raw oder irgendwas anderes in ein Proxie wandle spielt keine Rolle mehr.
Grading war schon immer eine Wissenschaft für sich, das war vorher auch nicht anders. Raw hat den Prozess nur einfacher gemacht, weil es besser anzufassen ist. Wo ich früher 5 Power-Windows brauchte langt heute eines, und ein Projekt an dem wir früher 2 Wochen gesessen hätten ist heute in einer Woche durch.
Allerdings arbeiten die meisten Posthäuser nicht mit bleading Edge Technology sondern hinken oft (mit Ausnahmen) etwas hinter der Entwicklung und KowHow hinterher, weil sie enorme Investitionen haben, die sich erst mal rechnen müssen. Kleinere Läden haben es da einfacher schnell auf neue Entwicklungen zu reagieren. Große Tanker kann man halt nicht einfach mal so in voller Fahrt stoppen und auf ner Briefmarke wenden.
Du brauchst auch kein 1000 Seiten Handbuch. Ich kann dir in 15 Minuten beibringen wie du raw in Resolve technisch korrekt gradest. Ein kreatives Grading erfordert allerdings eine gewisse Erfahrung, aber das ist in jedem Beruf so, warum soll es hier anders sein?
Antwort von wolfgang:
Also ich finde es toll, wenn du das kannst und anwendest - und dafür die Zeit und den Speicherplatz hast.
Für mich wäre es
a) zumindest die Zeit das zu erlernen (und leider habe ich niemanden hier der mir das in 15 Minuten beibringt, auch wenn das toll wäre)
b) ich verkompliziere meinen workflow indem ich erst in Resolve muss, und dann in die NLE - kostet Zeit
c) ich verbrauche noch viel schneller als mit ProRes den Speicherplatz - und auch das kostet Geld.
Ich bin bei dir dass man mit Raw sicher noch mehr Reserven hat als mit den Codecs ProRes, DNxHD oder jetzt XAVC - aber es ist auch anerkannt, dass diese Codecs für jegliches Grading noch immer sehr gute Reserven haben.
Ich meine daher schon, dass man auch die Verhältnismäßigkeit seiner Mittel mit dem Ziel in Abgleich bringen sollte. Wenn du absolut hochwertig produzieren willst, na klar Frank, dann mach das bitte. Bei Anwendern wie bei mir wäre das aber eher übertrieben...
Trotzdem kann die BM 4K Production Camera aufgrund des Umstandes, dass sie intern 4K aufzeichnen kann, schon sehr sinnvoll sein - alternativ zu den beiden anderen Lösungen die ich überlege:
- GH4 mit Rekorder (wo es noch keinen erschwinglichen für 4K gibt)
- Z100
Was es wird - tja wird man sehen.
Antwort von klusterdegenerierung:
@ klusterdegenerierung
Man muss unterscheiden zwischen Fehlern, die vom Sensor herrühren (Full Well) und Unterschieden im Übertragungsweg.
Fehler, also "Ausfresset", die im Sensor entstanden sind, bekommst Du so, oder so nicht mehr weg.
Veränderst Du Feinheiten im Grenzbereich, z.B. sehr dicht an FullWell, dann haben diese Werte gute Chancen, bei 8 Bit wieder auf dem Spitzenwert zu landen und die Differenzierung ist "für die Katz".
Oder sie landen im Wert darunter und Du hast an der Stelle ein Banding.
Es kommt darauf an, welcher Wert dichter liegt.
Wenn Du genau weisst, dass Du hinterher nach 8 Bit musst, solltest Du immer während der 10 Bit Arbeit ein 8 Bit Prevew parallel sehen.
In der Tat hast Du aber, wenn das Material in 10/12 Bit aufgenommen wurde (also keine 8 Bit und dann nur in der Bearbeitung 10/12 Bit) -- diverse Vorteile in der Bearbeitung, weil z.B. bei keying, die Übergänge aufgrund der höheren Farbauflösung sehr viel dichter am Keyobjekt definiert werden können.
Sehr viel genauer als bei 8 Bit.
Das Bild wird also entlang einer präziseren spatialen Vorgabe gerendert.
Überführt man dieses Bild hinterher wieder nach 8 Bit, mag sich zwar der Farbton am Übergang geringfügig ändern, um in die 8 Bit Skalierung zu passen, aber an der spatialen Präzision der Arbeit ändert sich nichts mehr.
Anders bei 8 Bit=>10 Bit=>8 Bit.
Da werden an den fehlenden Werten Dither-Strukturen eingesetzt, die sich aus umliegenden Pixels errechnen.
Das sind sehr unpräzise Verfahren (einwenig vergleichbar mit Rauschstrukturen).
Sie machen die Übergänge zunehmend "unberechenbar" und spatial nicht gerade präziser. Da ist man deutlich besser bedient, wenn man gleich in 8Bit arbeitet.
Also in einem Satz kann man sagen, wenns gut läuft kann ich was rüber retten aber in der Regel nicht?
Danke für die Infos!
Antwort von klusterdegenerierung:
Bei Marcotec gibts die Kamera mit dem Code C5DBMPC4K um €2029 netto :)
http://www.marcotec-shop.de/en/products ... _image.htm
Gültig bis Ende Februar.
Toll. Aber lieferbar ist sie dort noch nicht.
Lieferbar ist sie nirgendwo. Jetzt werden erst mal die Vorbestellungen bedient. Ich rechne mit Auslieferung in frühestens 6 Wochen, wenn man heute bestellt. Und das ist optimistisch.
Also ich habe vor ca. einem 3/4 Jahr eine bei bpm bestellt und seitdem nie wieder was von denen gehört!
Antwort von DV_Chris:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
Antwort von acrossthewire:
Also ich habe vor ca. einem 3/4 Jahr eine bei bpm bestellt und seitdem nie wieder was von denen gehört!
Hab meine BMPCC im April 2013 bei denen bestellt und als sie welche geliefert bekamen wurde die Besteller Liste nach Eingang der Bestellung abgearbeitet.
Im September habe ich angefragt und bekam die Antwort sie sind auf Platz 18.
Anfang Oktober war ich dran und obwohl ich da 4 Wochen im Ausland war haben sie meine Bestellung bis Anfang November zurückgehalten (ich hatte keine Vorkasse bezahlt). Kann also nichts negatives über die Leute dort sagen.
Antwort von srone:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
da hatte ich vorher beim lesen auch dran gedacht. ;-)
lg
srone
Antwort von Heinrich123:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
da hatte ich vorher beim lesen auch dran gedacht. ;-)
lg
srone
Will auch haben will!!!!!!!!!
Antwort von Frank Glencairn:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
Was soll ich mit den ganzen Fingern?
Aber gut, wenn man eine große Klappe hat muß man auch Butter bei die Fische tun. Wenn ich demnächst wieder etwas Zeit hab (hänge momentan noch in einem ZDF Job), mach ich euch ein BMC raw spezifisches 15 Min. Tutorial - versprochen.
Antwort von DV_Chris:
Frank, diese Ansage zeichnet Dich als Ehrenmann aus!
Antwort von cantsin:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
da hatte ich vorher beim lesen auch dran gedacht. ;-)
IMHO geht's in noch viel weniger als 15 Minuten:
(1) Resolve starten, mit normalem OS-Password einloggen, links oben "Untitled Project" anklicken. Neues Project öffnet sich.
(2) Links oben in die Ordner-Baumansicht klicken und mit Doppelklick in den Ordner, in dem die Videodateien liegen. Wenn es sich um Cinema DNG-Ordner handelt, werden sie jetzt als Videodateien (mit Filmstreifen-Icon) angezeigt. Gewünschte Clips mit der Maus selektieren, rechts klicken und im Popup-Menü "Add into the Media Pool" anklicken. - Operation (2) bei Bedarf wiederholen, um Material von anderen Laufwerken bzw. Ordnern zu importieren.
(3) In der unteren Bildschirmhälfte, unter der Titelzeile "Master", sind jetzt alle importierten Clips aufgelistet und können bei Bedarf im Viewer rechts oben abgespielt werden
(4) Ganz unten am Bildschirmrand, auf dem das Icon "Media" orange leuchtet, aufs Icon "Edit" direkt daneben klicken. Wir landen im Videoschnittmodul von Resolve.
(5) Links oben in der Liste "Timelines" aufs große Plus-Zeichen klicken und eine Timeline anlegen. Wenn man im nun folgenden Dialog die Option "Empty Timeline" deaktiviert, landen alle importierten Clips automatisch hintereinander in der angelegten Timeline. Schneiden funktioniert so wie in Premiere oder FCP7 gewohnt. Mit dem Slider rechts unten am Bildschirm lässt sich die Vergrößerung der Timeline-Ansicht einstellen.
(6) Raw-Material wurde jetzt im normalen Rec709-Farbraum importiert. Fürs Color Grading ist es praktischer, das Material als Film-Log zu interpretieren, zu graden und erst am Schluss mit einem LUT in Rec709 zu wandeln. Um dies zu bewerkstelligen, Menü "-> File -> Project Settings" öffnen, Untermenü "Camera Raw" anklicken, das Menü rechts oben von "Arri Alexa" auf "CinemaDNG" umschalten, dann "Decode Using" auf "Project" umschalten, für "White Balance" zur Arbeitserleichterung den am häufigsten passenden Wert wählen, "Color Space" nach "BMD Film", rechts unten den "Apply"-Knopf klicken.
Immer noch innerhalb des Menüs "Project Settings" ins Untermenü "Lookup Tables" wechseln und bei "3D Output Lookup Table" den gewünschten LUT wählen. (Bei der Standardkonfiguration: "Blackmagic Cinema Camera Film to Rec709". Ich bevorzuge Tom Majerskis LUT "VisionT". 3rd Party-LUTs müssen vor Programmstart von Resolve bei Mac OS X in /Library/Application\ Support/Blackmagic\ Design/DaVinci\ Resolve/LUT
abgelegt werden, in Windows in C:\ProgramData\Blackmagic Design\Davinci Resolve\Support\LUT). Alternativ kann man diese Einstellung auch weglassen und den Ausgabe-LUT pauschal fürs Projekt im Color-Grading einstellen.
Menü "Project Settings" schliessen.
(7) Unten am Bildschirm von "Edit" in "Color" wechseln. Mit der Maus aufs Videobild rechtsklicken und im Popup-Menü "Show Scopes" anklicken. Jetzt werden Waveform, RGB-Parade, Vektorscope und RGB-Histogram sichtbar.
(8) In der mittigen Clipleiste den ersten Clip anklicken. Direkt darunter, wo das Icon mit dem Kreis und mittigem Punkt orange leuchtet, aufs Kamera-Symbol links daneben klicken (bei Raw-Aufnahmen). Einstellung "Decode Using:" verändern in "Clip". Jetzt werden Einstellungsmenüs darunter aktiv. Nun erst im Menü "White Balance", falls nötig, auf "Custom" klicken und dann rechts daneben Farbtemperatur und Grün/Magenta-Stich korrigieren. In "Exposure" die Belichtung korrigieren und dabei auf den Waveform-Monitor achten.
(9) Wenn die Einstellung stimmen, alle anderen Clips selektieren, die ähnliche Farbeinstellungen benötigen, und auf das Symbol mit dem angehakten Filmbild rechts unter den "Clip Decoder Settings" klicken. Die Einstellungen werden jetzt auf alle selektierten Clips übertragen.
Damit ist die Pflicht geschafft. Projekt sichern. Jetzt könnte man einfach Proxies exportieren und in Premiere, FCPX oder Avid schneiden, und die Endkorrektur in Resolve erledigen. Dazu unten, wo das Icon "Color" aufleuchtet, auf "Deliver" klicken und umschalten. Oberhalb der Clipleiste das Klemmbrett-Symbol links neben der Lupe anklicken, um alle Clips zu selektieren. Rechts oben in "Easy setup" die Option "Export to Final Cut Pro" selektieren. Im Einstellungsmenü darunter den Knopf "Browse" klicken, um den Zielordner für die gerenderten Dateien auszuwählen. Dann rechts unten auf "Add Job to Render Queue" klicken, und schliesslich ganz unten rechts auf "Start Render".
(10) Kür: In FCP oder Premiere den Schnitt als XML exportieren. In Resolve gehen, ursprüngliches Projekt wieder öffnen. Auf "-> File -> Import AAF, EDL, XML..." klicken, exportierte XML-Datei anklicken, im nun folgenden Einstellungsmenü die Option "Automatically import source clips into media pool" deaktivieren (wichtig!). In den "Edit"-Modus gehen und links oben in der Ansicht "Timelines" die importierte Timeline anklicken.
(11) In den "Color"-Modus wechseln und Fein-Farbkorrektur jedes einzelnen Clips vornehmen. Links unten das Icon mit Punkt im Kreis anklicken, so dass die "Colors Wheels" mit Lift, Gamma, Gain sichtbar sind. Mit Blick auf Histogramms Lift am Schieberegler unter dem Farbrad so korrigieren, dass die Wavekurven 'am Boden' anfangen, Gain so nach oben oder unten korrigieren, das die Kurven weder abgeschnitten sind, noch zu tief hängen, Helligkeit mit Gamma-Schieberad drehen, Farbstiche mit Gamma-Farbrad korrigieren.
(12) Korrektur auf nächstfolgenden Clip anwenden: Taste "=". Korrektur als Vorlage speichern: Rechtsklick auf Videobild, im Popup "Grab Still" klicken. Ein Standfoto wird rechts in der Leiste angelegt. Auf anderen Clip gehen, Standfoto rechtsklicken, "Add Correction" wählen.
(13) Im Videofenster rechten Miniatur-Snapshot doppelklicken, um ihn halb aufs Videobild zum Farbvergleich zu legen. Die Grenze zwischen den beiden Bildern kann mit der Maus verschoben werden.
(13) Korrekturen beziehen sich auf Nodes. Die sind oben rechts sichtbar. Es empfiehlt sich, für jeden Korrekturschritt eine neue Node anzulegen ("->Nodes -> Add Serial Node"). Mit Doppelklick auf ihr Icon kann eine Node deaktiviert und wieder aktiviert werden. So kann man auch Vorher-/Nachher-Vergleiche anstellen.
(14) Standardmäßig werden die Nodes/Korrekturen per Clip angezeigt. Mit Klick rechts oben in der "Nodes"-Fensterleiste kann man von "Clips" auf "Track" umschalten. Alle Korrekturnodes, die hier angelegt werden, beziehen sich aufs gesamte Videoprojekt (ähnlich einem Adjustment Layer in Premiere oder AE). Praktisch, um z.B. hier den Ausgabe-LUT zu bestimmen und mit kleinen Einstellungen pauschal fürs Gesamtprojekt zu korrigieren.
Das ist aus meiner Sicht das wichtigste.
Antwort von Heinrich123:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
Was soll ich mit den ganzen Fingern?
Aber gut, wenn man eine große Klappe hat muß man auch Butter bei die Fische tun. Wenn ich demnächst wieder etwas Zeit hab (hänge momentan noch in einem ZDF Job), mach ich euch ein BMC raw spezifisches 15 Min. Tutorial - versprochen.
Hört sioch genial an. :-))
Bitte info wenns soweit ist :-))
Antwort von thsbln:
Danke cantsin und Frank!
Antwort von klusterdegenerierung:
Danke cantsin und Frank!
Dem schliesse ich mich mit Pauken und Trompeten an!
Aber eine Frage noch, ich kriege das mit dem exportieren der Einstellungen von einen Clip auf die anderen nicht hin!
Ich kann machen was ich will aber das Icon für anwenden auf alle clips ist nie aktiv! Was muß ich da machen?
Antwort von Paralkar:
Sobalds ins VFX geht ist es mit Raw auch wieder schwieriger, dann komm ich nichtmehr so simple mit xml oder edl in Davinci zurück.
Dann muss ich mit DPX Sequenzen Arbeiten um die Qualität zu halten.
Das kann man jetzt sehen wie man will, klar hab ich so oder so mehr Qualität, aber ich bei vielen Sachen komm ich mit ProRes mehr als aus und hab ausreichend Reserven
Antwort von iasi:
Mal abgesehen von der Frage, ob sich jemand den raw-workflow antun will (man könnte ja auch ProRes nutzen), stellt sich mir schon die Frage ob die so gar nicht erwarten dass man ihnen langsam nicht mehr glaubt?
"antun will" ist witzig ... aber es gibt auch Fotografen, denen RAW zu aufwändig ist und die mit den JPGs zufrieden sind.
Antwort von iasi:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
such mal auf youtube - da gibt es reichlich videos, die sogar in weniger als 15min zeigen, wie"s geht.
so schwierig ist es gar nicht ... wobei es selbst in resolve verschiedene methoden gibt, mit raw umzugehen
Antwort von iasi:
Sobalds ins VFX geht ist es mit Raw auch wieder schwieriger, dann komm ich nichtmehr so simple mit xml oder edl in Davinci zurück.
Dann muss ich mit DPX Sequenzen Arbeiten um die Qualität zu halten.
Das kann man jetzt sehen wie man will, klar hab ich so oder so mehr Qualität, aber ich bei vielen Sachen komm ich mit ProRes mehr als aus und hab ausreichend Reserven
macht man omelett, muss man eier kloppen.
im übrigen kann man sauber graden und dann in prores ausgeben ...
Antwort von Frank Glencairn:
Sobalds ins VFX geht ist es mit Raw auch wieder schwieriger, dann komm ich nichtmehr so simple mit xml oder edl in Davinci zurück.
Dann muss ich mit DPX Sequenzen Arbeiten um die Qualität zu halten.
Das kann man jetzt sehen wie man will, klar hab ich so oder so mehr Qualität, aber ich bei vielen Sachen komm ich mit ProRes mehr als aus und hab ausreichend Reserven
Das machen wir seit Jahren so, wo ist das Problem?
Wenn du in ProRes drehst, wird auch (zumindest in allen Posthäusern die ich kenne) in DPX an- und ausgeliefert.
Hab aktuell Material einer ZDF Produktion am Monitor.
Gedreht als ProRes auf Alexa - angeliefert wurde es als DPX LOG, wir machen unsere VFX drauf und geben das wieder als DPX LOG aus.
Antwort von wolfgang:
Mal abgesehen von der Frage, ob sich jemand den raw-workflow antun will (man könnte ja auch ProRes nutzen), stellt sich mir schon die Frage ob die so gar nicht erwarten dass man ihnen langsam nicht mehr glaubt?
"antun will" ist witzig ... aber es gibt auch Fotografen, denen RAW zu aufwändig ist und die mit den JPGs zufrieden sind.
Nein das ist nicht witzig sondern ökonomisch!
Oder willst du mir ernsthaft weismachen, dass ALLES GUTE auf der Welt nur in raw produziert wird?? :)
Antwort von iasi:
Mal abgesehen von der Frage, ob sich jemand den raw-workflow antun will (man könnte ja auch ProRes nutzen), stellt sich mir schon die Frage ob die so gar nicht erwarten dass man ihnen langsam nicht mehr glaubt?
"antun will" ist witzig ... aber es gibt auch Fotografen, denen RAW zu aufwändig ist und die mit den JPGs zufrieden sind.
Nein das ist nicht witzig sondern ökonomisch!
Oder willst du mir ernsthaft weismachen, dass ALLES GUTE auf der Welt nur in raw produziert wird?? :)
ja - wer wirklich das maximale herausholen will, nimmt RAW, wenn es zur verfügung steht.
ökonomisch ist der verzicht auf RAW auch nicht wirklich.
Antwort von Frank Glencairn:
Raw ist einfach schneller in der Post und deshalb ökonomischer - wie ich schon oben geschrieben habe.
Und Speicherplatz spielt bei den heutigen Plattenpreisen überhaupt keine Rolle mehr. Eine 3TB Platte auf die 3 Stunden raw in 2.5k passen kostet 100 Euro.
Das ist nur ein Drittel von dem, was HD-Cam SR Band - das auch noch viel schlechtere Qualität bietet- kosten würde.
Insgesamt ist als der Speicherplatz pro Stunde also 60% billiger geworden.
Antwort von kundesbanzler:
Das machen wir seit Jahren so, wo ist das Problem?
Wenn du in ProRes drehst, wird auch (zumindest in allen Posthäusern die ich kenne) in DPX an- und ausgeliefert.
Hab aktuell Material einer ZDF Produktion am Monitor.
Gedreht als ProRes auf Alexa - angeliefert wurde es als DPX LOG, wir machen unsere VFX drauf und geben das wieder als DPX LOG aus.
Wobei DPX an der Front schon altes Eisen ist.
Die guten VFX-Workflows sind heutzutage exr basiert, dh man zieht sich exrs aus dem Footage und wandelt erst wenn es ins DI geht nach dpx.
Antwort von Frank Glencairn:
Das machen wir seit Jahren so, wo ist das Problem?
Wenn du in ProRes drehst, wird auch (zumindest in allen Posthäusern die ich kenne) in DPX an- und ausgeliefert.
Hab aktuell Material einer ZDF Produktion am Monitor.
Gedreht als ProRes auf Alexa - angeliefert wurde es als DPX LOG, wir machen unsere VFX drauf und geben das wieder als DPX LOG aus.
Wobei DPX an der Front schon altes Eisen ist.
Die guten VFX-Workflows sind heutzutage exr basiert, dh man zieht sich exrs aus dem Footage und wandelt erst wenn es ins DI geht nach dpx.
Mach aber meistens nur bei 3D CGI Sinn, das war hier nicht der Fall.
Antwort von kundesbanzler:
Mach aber meistens nur bei 3D CGI Sinn, das war hier nicht der Fall.
Bei dedizierten VFX-Häusern wird alles von der Plate bis zum Rendering ausschließlich als exr gehandhabt. Vielleicht bei ein paar Nachzüglern noch nicht, aber eigentlich ist das seit Jahren Standard. Es gibt heutzutage keinen Grund, noch dpxen als Plates zu generieren, das hat nur Nachteile.
Antwort von Frank Glencairn:
Welche Nachteile genau. Wir bekommen hier von allen möglichen Posthäusern DPXen. Erleuchte mich.
Antwort von WoWu:
Da bin ich ja auch mal gespannt.
Mich wundert, dass es so eine hohe Verbreitung geben soll. Das gibt es nun seit 1999 und erst im letzten Jahr ist eine (einigermassen) verbindliche Version verabschiedet worden.
Das ist leider so bei open Sauce Software .. wohingegen DPX als SMPTE Standard ein absolut stabiles Austauschformat ist.
Also, da bin ich auch mal auf die Vorzüge gespannt.
Antwort von kundesbanzler:
Welche Nachteile genau. Wir bekommen hier von allen möglichen Posthäusern DPXen. Erleuchte mich.
Da hast du recht, extern angeliefert wird aus den Fullservice-Häusern meist dpx, ob man die nochmal intern wandeln sollte ist sicherlich diskutabel, aber kann in vielen Fällen auch sinnvoll bis erforderlich sein. Allerdings werden viele Projekte auch komplett inhouse as den Sourcen conformt und dabei sollte man von vorneherein das Format wählen, das für einen selbst am sinnigsten ist.
Ganz generell empfehle ich bzgl. den Vorteilen von exr das dieser Sache gewidmete Kapitel aus dem Anhang vom Brinkmann, da geht er auch explizit auf die Überlegenheit gegenüber dpx ein. Mal auf die schnelle die praktischen Vorteile aus dem Produktionsalltag, ohne Anspruch auf Vollständigkeit:
1. Dateigröße: exrs sind immer kleiner, je nach Bildinhalt sogar erheblich (bis zu Faktor 100). Für ein paar Shots in HD mag das irrelevant sein, aber 100 Revisionen in 4k und Stereo willst du nicht als dpx auf deinem Framestore liegen haben. Natürlich könnte man nur die Plates als dpx haben, allerdings ...
2. Konsistenz: ... sollte man sich so wenig Formatdschungel wie möglich geben. Da man um exr sowieso nicht herum kommt -und zwar nicht nur für 3d-Renderings sondern schon allein für precomps die aus mehr als rgba-Channels bestehen - sollte man das nicht innerhalb des Workflows mit anderen Formaten mischen. Vor allem für automatisierte Abläufe ist es furchtbar, wenn man mit Dateiendungen jonglieren muss und stets das Filesystem abgrast, welcher Typ jetzt gerade wieder benutzt wird. Außerdem muss man sich als Artist nicht mehr um den ganzen Spökes wie Colorspaces kümmern. Man arbeitet linear und deswegen sollte auch linear angeliefert werden.
3. Farbinformation: hier ist exr sowohl was das Sampling, als auch das Spektrum angeht schlicht besser. Bei dpx kannst du dir nie sicher sein, ob nicht irgendwo was weggeclampt oder kaputtgesamplet wurde. Und das kommt tatsächlich erstaunlich oft vor.
Der einzige tatsächliche Vorteil von dpx ist die geringere Komplexität und daraus folgendene CPU-Last beim Lesen und Schreiben. Deswegen sollte man den Grading-System am Ende doch die dpxen geben, da sie damit um längen besser zurecht kommen. Im Comp ist das aber vernachlässigbar, da die Bildprozessierung ohnehin viel mehr CPU-Zeit braucht, als die exr-Kompression.
Mich wundert, dass es so eine hohe Verbreitung geben soll. Das gibt es nun seit 1999 und erst im letzten Jahr ist eine (einigermassen) verbindliche Version verabschiedet worden.
Ist das so? Ich arbeite seit etlichen Jahren mit exr und hatte niemals Probleme. Ich persönliche habe seit 2011/2012 rum fast nur noch exr-Workflows erlebt, ILM arbeitet angeblich schon fünf Jahre länger ausschließlich darauf.
edit: Ups, sorry. Ist natürlich alles arg Off-Topic, mit der Kamera hat das kaum noch was zu tun. Aber die Frage stand im Raum ...
Antwort von iasi:
Aber schon klar, dass es hier um eine <3000€-Kamera geht.
Wenn eh teure und aufwändige VFX anstehen, wird man ja wohl nicht bei der Kamera sparen.
Wenn ich mir die Aufnahmen der 4k-BM ansehe, fällt bei "City Gallery" schon auf, wo die Grenzen der Kamera liegen - zumindest bei ProRes-Aufnahmen.
Aber sonst sind das durchaus gute Ergebnisse, die man mit dem Teil erzielen kann.
Es ist noch gar nicht so lange her, dass alle über die Red-Ankündigung einer 3k-Raw-Kamera für 3k$ gejubelt hatten - hier bekommen wir nun eine 4k für 3k$.
Bin mal gespannt, wann sie zu haben sein wird.
Antwort von WoWu:
@kundesbanzler
Danke für den Bericht ...
Ja, ich dachte 2007 schon, es geht gar nicht mehr weiter, weil sich über Jahre eigentlich nichts mehr tat. So um die 2012 muss sich dann wirklich einer erbarmt haben, was dann letztes Jahr in der V2 endete.
Allerdings kann ich viele Dinge nicht nachvollziehen.
Am nervigsten ist die elende Redezeit denn ein paar Frames 3node comp Render die in DPX in 10 sec durch sind, dauern in EXR(zip scanl.) so um die 3 Minuten. Und die File Size weiss ich auch nicht. Ganz im Gegenteil. EXR ist sogar etwas grösser. Dasselbe Bild, das in (10Bit log) DPX 13 MB gross ist, hat in EXR(piz) fast 15 MB
Sicher ist ein grosser Unterschied im embedded multiple passes in ein File zu packen. Wahrscheinlich meintest Du das mit den Filegrössen.
OK, das wäre bei DPX nur in riesigen Files im TIFF möglich.
Aber -mein Gott- Platten kosten heute wirklich nix mehr.
Den einzigen wirklichen Vorteil, den ich so direkt sehe, ist dass das CG rendering mit der piz Kompression besser für langsame Netzwerke geeignet ist... oder eben für riesige Projekte im Netz.
Ich will damit auch nicht sagen, dass DPX bis in alle Ewigkeit in Stein gemeisselt sein wird, aber bevor das nicht wirklich verlässlich "steht" und die entsprechende Verbreitung -und Unterstützung anderer Programme hat, ist das noch ziemlich riskant, darauf (voll) zu setzen.
Aber erst mal sehn, ob sowas auch irgendwann die Stabilität eines Standards erreicht ... oder ob sich vielleicht bis 2018 wieder nix tut.
:-)
Aber ich kann mir vorstellen, dass Du Voteile hast, wenn Du überwiegend CG Rendering machst.
Antwort von kundesbanzler:
Bzgl. Dateigröße: hast du mal ein Beispielbild, bei dem das der Fall ist? Ich habe noch nie (bewusst) erlebt, dass ein exr (zips) größer ist als sein dpx-Äquivalent und zwar sowohl bei live action als auch renderings.
Bzgl. renderzeit: das scheint mir ein Software- respektive Hardwareproblem zu sein. Wenn der Rechner nicht aus den 90ern kommt, dann muss die Comp knapp 1500 Frames lang sein, wenn sie 3min zu rendern braucht. Wenn die dpxen nur 10s brauchen, hast du also 1,5GB/s Durchsatz auf deinem Datenträger (und effektiven File-IO). Das kommt mir irgendwie komisch vor. Unabhängig davon, Comps mit drei Nodes sind bei VFX sowieso die Ausnahme.
Die meisten Probleme bei exr rühren von der Verwendung der falschen Kompression her. Was anderes als zips sollte man nicht verwenden. Es gibt zwar dieses hartnäckige Gerücht, dass für Renderings piz besser geeignet sei, in der Praxis hab ich das allerdings noch nie erlebt.
Blöd, dass wir das topic entfremden, vllt kann das jemand aufsplitten.
Aber ich kann mir vorstellen, dass Du Voteile hast, wenn Du überwiegend CG Rendering machst.
Ne, ich mach nahezu ausschließlich Comp und davon 85% zumindest partiell live action.
Antwort von iasi:
Es geht um die Kamera - also mal kurz überlegt:
BMCC vs. 4k-BM
Ergonomie und Firmware sind bei der BMCC und der 4k auf selbem Niveau.
Die BMCC bietet schon jetzt RAW.
Die 4k schaufelt schon bei ProRes ordentlich Daten auf die SSD - 880 Mbit/s mit Apple ProRes 422 (HQ) sind schon zünftig. Wie wird dies erst bei Raw aussehen?
Beide kommen mit Resolve.
Der DR der 4k ist niedriger.
Die 4k könnte was Rauschen etc. betrifft, von der höheren Auflösung profitieren. Mal sehen.
Sensorgröße - wobei alles seine Vor- und Nachteile hat.
Und dann ist da natürlich der Global Shutter: Die BMCC verbiegt vorbeifahrende Autos schon ziemlich heftig - gerade für die Einsätze, für die sich die relativ leichte 4k anbieten würde, ist der Globel Shutter ideal.
Welche Konkurrenzprodukte bekommt man in dieser Preisregion denn sonst? (Wobei man die 4k-BM leider noch nicht bekommt)
Antwort von ruessel:
BMCC vs. 4k-BM
An der 4K passen nur Canongläser.....
Antwort von ruessel:
Erstes Privatvideo der 4K:
White Orb Problem??? (Ampellicht)
Antwort von wolfgang:
ja - wer wirklich das maximale herausholen will, nimmt RAW, wenn es zur verfügung steht.
ökonomisch ist der verzicht auf RAW auch nicht wirklich.
Naja, aus technischer Sicht holst du sicher aus raw das Maximum raus. Aber du kannst mir nicht glaubhaft machen, dass der zusätzliche Arbeitsschritt des Gradens nicht weitere Zeit kostet - und damit jeden workflow verteuert. Du kannst mir nicht glaubhaft machen, dass die höheren Kosten aufgrund des Speicherplatzbedarfes sich nicht zu Buche schlagen. Das sind sehr wohl ökonomische Verteuerungen.
Kann ja ok sein - aber nicht jede Mini-Produktion wird sich mit diesem Workflow rechnen können. Da muss man schon genauer hinschauen ob man das wirklich braucht oder nicht.
Wobei die Production Camera ja - und das ist ja der beste Witz - jetzt nicht einmal DNG kann - sondern eh "nur" ProRes können wird.
Aber für viele Zwecke wird ProRes oder DNxHD auch völlig ausreichend sein. Das sind durchaus anerkannte Proficodecs im Broadcasting Bereich.
Antwort von Frank Glencairn:
... Aber du kannst mir nicht glaubhaft machen, dass der zusätzliche Arbeitsschritt des Gradens nicht weitere Zeit kostet - und damit jeden workflow verteuert.
Das ist immer ein Frage, aus welcher Ecke man kommt.
Bei uns wird quasi alles immer sowieso gegraded, weil bei den Sachen die wir machen niemand will, daß es so aussieht wie am Set. Deshlab entsteht bei uns kein zusätzlicher Aufwand, im Gegenteil.
Wenn man EB macht, ist das natürlich was anderes.
Die 4k, wird zwar momentan nur mit ProRes ausgeliefert, DNG kommt aber demnächst, so wie es bei der Pocket ja auch war. 4k DNG auf ne SSD zu pressen ist nicht ganz trivial.
Antwort von McReedy:
Die BMCC bietet schon jetzt RAW.
Die 4k schaufelt schon bei ProRes ordentlich Daten auf die SSD - 880 Mbit/s mit Apple ProRes 422 (HQ) sind schon zünftig. Wie wird dies erst bei Raw aussehen?
Da wir bei der BMPP visuell verlustfreies komprimiertes RAW DNG aufzeichnen sollten die Datenraten erträglich sein, wird also je nach Komplexität des Shot so zwischen 1.100 - 1.500 mbit liegen bei 25fps.
Compressed DNG würde auch der 2.5K BMCC gut stehen!
Antwort von Paralkar:
Wird sicherlich nachgereicht, sobalds fertig ist
Antwort von Bergspetzl:
Mal eine an das Thema angrenzende Frage um den Horizont zu erweitern (und nicht wegen 4k an einer BM):
Wie wurde das damals eigentlich bei den 70mm Systemen glöst? Die meisten Formate haben ja auch 35mm längs oder quer aufgezeichnet. Durch Anamorphoten hat man dann da noch mehr draufgequetscht. Aber gibt es eigentlich "richtige" 70mm, also (und das sit der Kern meiner Frage) auch 70mm Objektive?
lg Spetzl
Antwort von Ab-gedreht:
Wird sicherlich nachgereicht, sobalds fertig ist
Kostenlos! - was bei vielen Kameraherstellern nicht selbstverständlich ist!
Antwort von Frank Glencairn:
. Aber gibt es eigentlich "richtige" 70mm,
l
Ja es gibt richtigen 70mm Film, das Negativ ist allerdings "nur" 65mm weil die Tonspuren auch auch noch Platz brauchte.
Und ja, für gewöhnlich nimmt man Mittelformat Foto Optiken (Hasselblad/Mamiya), die an 70mm Kameras angepasst sind, 35 mm Glas würde das Negativ nicht ausfüllen.
Antwort von kundesbanzler:
Aber du kannst mir nicht glaubhaft machen, dass der zusätzliche Arbeitsschritt des Gradens nicht weitere Zeit kostet - und damit jeden workflow verteuert.
Wieso sollte raw den Arbeitsschritt des Gradens zwingend erforderlich machen? Du kannst das Material auch einfach durchschleifen und dann sieht es halt aus wie es gedreht wurd - wie immer wenn nicht gegradet wird. Und du hast trotzdem noch den Vorteil, dass WB und Belichtung korrigiert werden kann, falls es mal erforderlich ist. Und das, ohne irgendwas ohne Farbkorrektur wissen zu müssen.
Die Datenmenge ist natürlich ein Problem, wobei ich die Transferdauern als wesentlich problematischer ansehe als der Platz der benötigt. Wenn man nicht organisiert an die Sache rangeht, kann es schonmal sein dass man sich Tage nur mit Kopier- /Verschiebeaktionen um die Ohren haut. Das ist ohne Frage unökonomisch.
Wie wurde das damals eigentlich bei den 70mm Systemen glöst? Die meisten Formate haben ja auch 35mm längs oder quer aufgezeichnet. Durch Anamorphoten hat man dann da noch mehr draufgequetscht. Aber gibt es eigentlich "richtige" 70mm, also (und das sit der Kern meiner Frage) auch 70mm Objektive?
70mm ist ein Positiv- (also Projektions)format. Das dazugehörige Negativ ist 65mm groß und dafür gibt es natürlich auch Objektive. Das ganze kannst du dann auch horizontal transportieren, das ist dann imax.
Antwort von Paralkar:
Ja aber ganz ehrlich deshalb überhaupt auf Raw gehen?
Große Datenmengen, Debayering extern, will man sich das wirklch antun, ohne Grading und nur um WB zu ändern, was bis zu nem gewissen Punkt ins Grading fällt.
Antwort von kundesbanzler:
Ja aber ganz ehrlich deshalb überhaupt auf Raw gehen?
Große Datenmengen, Debayering extern, will man sich das wirklch antun, ohne Grading und nur um WB zu ändern, was bis zu nem gewissen Punkt ins Grading fällt.
Ne, das will ich damit nicht sagen. Ich sage nur, dass es nur aufgrund des Aufnahmeformats keinen Zwang gibt, jeden Shot nochmal anzufassen.
Was man wählt ist natürlich immer eine individuelle Abwägung. Allerdings finde ich auch, dass allein der Zwang zur vernünftigeren Materialökonomie und -organisation ein erstaunlicher Segen des höheren Platzbedarfs ist. Die Kamera grundlos über fünf Takes durchlaufen zu lassen ist halt dann nicht mehr so angesagt - spart einem im Nachhinen dann aber viel Zeit, egal auf was gedreht wurde.
Antwort von iasi:
Wenn man an die Datenraten denkt, die bei der 4k selbst bei ProRes und komprimiertem Raw anfallen werden, erkennt man erst den Wert von Red Raw.
4k-ProRes kommt auf bis zu 880 Mbit/s.
Mit R3D ist man hier bei der Hälfte.
Antwort von Anne Nerven:
Die BM-Kameras sind digitale Filmkameras, die eingesetzt werden (sollten), um eine Geschichte zu erzählen, also szenisch zu arbeiten. Das man dafür raw nimmt, ergibt sich doch automatisch aus dem Anspruch, seiner Geschichte einen Look zu verpassen. Und die editierbaren Parameter bei raw sind nunmal das Beste, was einem zur Verfügung steht. Die Vergleiche jpeg/raw wurden schon mehrfach angeführt.
Wer über "raw oder kein raw" nachdenkt, kann sich auch fragen "BM oder nicht BM".
Antwort von cantsin:
Ich sage nur, dass es nur aufgrund des Aufnahmeformats keinen Zwang gibt, jeden Shot nochmal anzufassen.
Stimmt aber bei Blackmagic nicht, weil da Raw nach dem ETTR-Prinzip belichtet wird, was i.d.R. individuelle Belichtungskorrekturen aller Clips in der Post erfordert.
Antwort von wolfgang:
Das ist immer ein Frage, aus welcher Ecke man kommt.
Bei uns wird quasi alles immer sowieso gegraded, weil bei den Sachen die wir machen niemand will, daß es so aussieht wie am Set. Deshlab entsteht bei uns kein zusätzlicher Aufwand, im Gegenteil.
Eben, sage ich ja. Es hängt vom Hintergrund ab. Bei MIR wäre es einfach mal zusätzlicher Aufwand - aber ich bin ja nur Unter-Zwerg-Fallweise-Mini-Produzent! :)
Wieso sollte raw den Arbeitsschritt des Gradens zwingend erforderlich machen? Du kannst das Material auch einfach durchschleifen und dann sieht es halt aus wie es gedreht wurd - wie immer wenn nicht gegradet wird. Und du hast trotzdem noch den Vorteil, dass WB und Belichtung korrigiert werden kann, falls es mal erforderlich ist. Und das, ohne irgendwas ohne Farbkorrektur wissen zu müssen.
Naja, aber raw ohne Graden läßt sich wohl kaum verwenden. Was mich abschreckt ist der doppelte Arbeitsfluß (bei mir halt):
- graden in Davinci
- Export
- Schnitt in Vegas oder Edius
Also wenn meine NLEs direkt das Graden von raw erlernt haben - was bei Vegas für z.B. die Sony Kameras ja bereits heute der Fall ist - dann kann ich mir das durchaus vorstellen! Aber bis dahin ist es ein ziemlicher Zusatzaufwand.
Die Datenmenge ist natürlich ein Problem, wobei ich die Transferdauern als wesentlich problematischer ansehe als der Platz der benötigt. Wenn man nicht organisiert an die Sache rangeht, kann es schonmal sein dass man sich Tage nur mit Kopier- /Verschiebeaktionen um die Ohren haut. Das ist ohne Frage unökonomisch.
Also ich fuhrwerke heute schon mit meinem 5 TB Raid herum, mich würden die Datenmengen sogar noch weniger abschrecken als der Zusatzaufwand. Kopier- und Verschiebeaktionen habe ich bei mir keine, mal abgesehen davon dass man das Projekt vielleicht zum Schluß mal auslagert. Was bisher kaum erforderlich ist - weil die Kapazitäten ausreichend groß sind.
Ich könnte mich mit Raw durchaus anfreunden, die obige Frage des Workflows ist das was mich am meisten abschreckt.
Antwort von kundesbanzler:
Stimmt aber bei Blackmagic nicht, weil da Raw nach dem ETTR-Prinzip belichtet wird, was i.d.R. individuelle Belichtungskorrekturen aller Clips in der Post erfordert.
Das ist eine merkwürdige Formulierung. Es "wird" gemacht, weil sich Menschen dazu entscheiden, es so zu machen. Sie könnten aber auch so belichten, dass keine Korrektur notwendig ist, was einem natürlich bezüglich der Grenzbereiche etwas Flexibilität raubt, wenn man sie plötzlich doch haben will.
Klar, speziell BMD macht es einem da etwas schwierig, weil die Kontrollmöglichkeiten innerhalb der Kamera begrenzt sind, aber wers braucht kann ja extern kontrollieren.
Also ich fuhrwerke heute schon mit meinem 5 TB Raid herum, mich würden die Datenmengen sogar noch weniger abschrecken als der Zusatzaufwand.
Hm, 5TB ist meineserachtens schon für ein einzelnes mittelgroßes Projekt ziemlich wenig Platz.
Antwort von Frank Glencairn:
Es "wird" gemacht, weil sich Menschen dazu entscheiden, es so zu machen. Sie könnten aber auch so belichten, dass keine Korrektur notwendig ist,
Nur wenn dir verrauschte Tiefen (und eigentlich alles unter 40 IRE) völlig Schnuppe sind.
ETTR hat schon einen tieferen Sinn, auch wenn sich manche nicht von ihren alten Dogmen lösen können, bei der BMC muß man entweder umdenken oder denoisen.
Antwort von Frank Glencairn:
Hm, 5TB ist meineserachtens schon für ein einzelnes mittelgroßes Projekt ziemlich wenig Platz.
Was habt ihr denn für Projekte?
5TB sind über 5 Stunden raw in unkomprimiertem 2.5k.
Das langt mal locker für einen durchschnittlichen Spielfilm, wenn man nicht gerade Kubrick heißt.
6TB kosten gerade mal 200 Euro wenn das (+ 2x Backup) bei einer Produktion n icht drin ist, dann hat man sowieso ein Problem.
Rechne mal nach was du für 5 Stunden SR Bänder oder Film ausgegeben hättest.
Wenn's gar nicht geht, kann man immer noch nach Cineform konvertieren, dann spart man sich auch den Roundtrip über Resolve.
Antwort von kundesbanzler:
Nur wenn dir verrauschte Tiefen (und eigentlich alles unter 40 IRE) völlig Schnuppe sind.
Die Aussage falsifiziert sich selbst. Wenn dir diese Bereiche wichtig sind, dann musst du eben so belichten, dass sie nicht rauschen, das ist ja die Grundannahme an der ganzen Sache. Wenn dir dann die Lichter zu sehr flöten gehen baust du dir eben eine Std-LUT, die sie dir in Bild wieder reindrücken. Es sei denn, es ist beides nicht gleichzeitig nicht einzufangen, dann hat das aber nichts mehr mit Post vs Keine-Post zu tun, denn es ist einfach nicht da.
Ich versteh das Problem nicht.
Hm, 5TB ist meineserachtens schon für ein einzelnes mittelgroßes Projekt ziemlich wenig Platz.
Was habt ihr denn für Projekte?
5TB sind über 5 Stunden raw in unkomprimiertem 2.5k.
Ja, stimmt für das Material an sich sollte es in der Tat locker reichen. Irgendwie kam es mir arg knapp bemessen vor, aber bei mir sind es dann eher andere Dinge, die den Platz fressen.
Antwort von Frank Glencairn:
Wenn ich so belichte, daß die Lichter flöten gehen hab ich erstens nich
"so belichtet, daß keine Korrektur notwenig ist"
und zweitens, wenn die Lichter flöten gehen, dan hilft mir auch keine LUT mehr.
Aber bitte, jedem das seine, ich bin mit den Ergebnissen meines Workflow mehr als zufrieden.
Antwort von kundesbanzler:
Aber bitte, jedem das seine, ich bin mit den Ergebnissen meines Workflow mehr als zufrieden.
Ich wollte niemals bestreiten, dass der Workflow mit ETTR und Post-Korrektur für das Ergebnis klar der bessere ist.
Ich wollte lediglich sagen, dass auch mit BMD-raw ein komplett korrekturfreier Workflow möglich ist, der die gleichen Ergebnisse erziehlt wie ein "Camcorder" aus der gleichen bzw. auch höheren Preisklassen.
Antwort von McReedy:
Wenn man an die Datenraten denkt, die bei der 4k selbst bei ProRes und komprimiertem Raw anfallen werden, erkennt man erst den Wert von Red Raw.
4k-ProRes kommt auf bis zu 880 Mbit/s.
Mit R3D ist man hier bei der Hälfte.
Kommt darauf an welches ProRes man verwendet!
Bei UHD (3840x2160) @ 25fps zeichnet man mit ProRes 422 (HQ) 733Mbit/s auf, das entspricht exakt der 3:1 Komprimierung des r3draw Formats.
Es gibt ja immer die Option die aufgezeichneten ProRes Dateien zu komprimieren, die Komprimierung verhält sich ähnlich wie redRaw (Abgesehen von den Vorteilen von redRaw in der Post, steht bei ProRes auf jeden Fall die Performance im Vordergrund!):
redRaw 2:1 = 1093 Mbit/s
ProRes 444 = 1100 Mbit/s
redRaw 3:1 = 733 Mbit/s
ProRes 422 (HQ) = 733 Mbit/s
redRaw 5:1 = 440 Mbit/s
ProRes 422 = 490 Mbit/s
redRaw 7:1 = 313 Mbit/s
ProRes 422 (LT) = 340 Mbit/s
redRaw 14:1 = 153 Mbit/s
ProRes 422 Proxy = 150 Mbit/s
redRaw 18:1 = 120 Mbit/s
Komprimiertes DNG lässt sich bei der BMPC nur in UHD aufzeichnen.
Pro 1TB passen 2,2h 2.5K RAW DNG drauf ;-)
Antwort von iasi:
Also ich fuhrwerke heute schon mit meinem 5 TB Raid herum, mich würden die Datenmengen sogar noch weniger abschrecken als der Zusatzaufwand. Kopier- und Verschiebeaktionen habe ich bei mir keine, mal abgesehen davon dass man das Projekt vielleicht zum Schluß mal auslagert. Was bisher kaum erforderlich ist - weil die Kapazitäten ausreichend groß sind.
... überschätze mal bloß diese 5TB nicht zu sehr ... man muss auch immer bedenken, welcher Kopieraufwand da auf einen zu kommt:
Erst mal wollen die SSDs kopiert und auch gesichert werden.
Dann hat man die Projektdaten, die ebenfalls gesichert werden sollten.
Aus 1TB für 2h werden schnell 3TB ... und das bei ProRes ...
Letztlich ist die Frage der Datenmenge doch gar nicht RAW oder nicht-RAW sondern wie stark und effizient ist die Komprimierung.
CinemaDNG RAW Komprimierung kommt nur auf 2:1 ... das bedeutet noch immer reichlich GB bei 4k.
Antwort von iasi:
Wenn man an die Datenraten denkt, die bei der 4k selbst bei ProRes und komprimiertem Raw anfallen werden, erkennt man erst den Wert von Red Raw.
4k-ProRes kommt auf bis zu 880 Mbit/s.
Mit R3D ist man hier bei der Hälfte.
Kommt darauf an welches ProRes man verwendet!
Bei UHD (3840x2160) @ 25fps zeichnet man mit ProRes 422 (HQ) 733Mbit/s auf, das entspricht exakt der 3:1 Komprimierung des r3draw Formats.
Es gibt ja immer die Option die aufgezeichneten ProRes Dateien zu komprimieren, die Komprimierung verhält sich ähnlich wie redRaw (Abgesehen von den Vorteilen von redRaw in der Post, steht bei ProRes auf jeden Fall die Performance im Vordergrund!):
redRaw 2:1 = 1093 Mbit/s
ProRes 444 = 1100 Mbit/s
redRaw 3:1 = 733 Mbit/s
ProRes 422 (HQ) = 733 Mbit/s
redRaw 5:1 = 440 Mbit/s
ProRes 422 = 490 Mbit/s
redRaw 7:1 = 313 Mbit/s
ProRes 422 (LT) = 340 Mbit/s
redRaw 14:1 = 153 Mbit/s
ProRes 422 Proxy = 150 Mbit/s
redRaw 18:1 = 120 Mbit/s
Komprimiertes DNG lässt sich bei der BMPC nur in UHD aufzeichnen.
Pro 1TB passen 2,2h 2.5K RAW DNG drauf ;-)
Die BM-Cams lassen es doch gar nicht zu, die Komprimierungsrate zu wählen. RedRaw bietet bei 8:1 die für die meisten Situationen beste Qualität-Datengröße-Relation - der neue Dragon-Sensor soll hier gar noch stärkere Komprimierung erlauben. Selbst wenn das maximum herausgeholt werden soll (z.B. für Greenscreen), hat R3D gegenüber z.B. komprimiertem CinemaDNG RAW die Nase vorn.
Antwort von wolfgang:
Aus 1TB für 2h werden schnell 3TB ... und das bei ProRes ...
Letztlich ist die Frage der Datenmenge doch gar nicht RAW oder nicht-RAW sondern wie stark und effizient ist die Komprimierung.
Da bin ich absolut bei dir - klar hängt das von Datenrate und Komprimierung ab. Und genau deshalb will ich hier ja versuchen "halbintelligent" vorzugehen :):) - weil sonst kann ich gleich mal in weitere Serverfarmen instieren. Und dazu fehlt mir derzeit (noch) die Lust.
Antwort von prime:
...der neue Dragon-Sensor soll hier gar noch stärkere Komprimierung erlauben.
Was hat denn der Sensor mit der Komprimierung zu tun? Oder koppelt RED ne neue Firmware/Software an den neuen Sensor?
Antwort von Francisromao:
die Bildqualität betrifft, für 2 Tage Arri-Verleih gibt. Diese Blackmagic mit Global-shutter ist eine weitere Hiobsbotschaft. - Allerdings im Bereich der Objektive überlebt der Verleih, denn gute Objektive von Cooke, Angénieux, Zeiss, auch Canon sind immer noch sehr teuer und da ist auch keine Veränderung in Sicht. So wird der Cameramann der Zukunft seine eigene Cam mitb ringen, aber neben einigen billigeren "Hausobjekitiven" noch immer Objektive ausleihen.
Antwort von iasi:
...der neue Dragon-Sensor soll hier gar noch stärkere Komprimierung erlauben.
Was hat denn der Sensor mit der Komprimierung zu tun? Oder koppelt RED ne neue Firmware/Software an den neuen Sensor?
Gleiche Bildqualität bei stärkerer Komprimierung - auch aufgrund des besseren Rauschverhaltens.
Sagt Red - sagen die Wenigen, die eine Dragon haben - ob"s wirklich stimmt ???
Antwort von iasi:
die Bildqualität betrifft, für 2 Tage Arri-Verleih gibt. Diese Blackmagic mit Global-shutter ist eine weitere Hiobsbotschaft. - Allerdings im Bereich der Objektive überlebt der Verleih, denn gute Objektive von Cooke, Angénieux, Zeiss, auch Canon sind immer noch sehr teuer und da ist auch keine Veränderung in Sicht. So wird der Cameramann der Zukunft seine eigene Cam mitb ringen, aber neben einigen billigeren "Hausobjekitiven" noch immer Objektive ausleihen.
... jetzt mal besser keine Vergleiche zwischen Alexa und der Blackmagic 4k beginnen ... das sind zwei verschiedene Klassen von Kameras ...
Antwort von klusterdegenerierung:
Frank, also für so ein 'Resolve in 15min Tut' würden sich wohl einige den einen oder anderen Finger abschneiden lassen ;-)
Was soll ich mit den ganzen Fingern?
Aber gut, wenn man eine große Klappe hat muß man auch Butter bei die Fische tun. Wenn ich demnächst wieder etwas Zeit hab (hänge momentan noch in einem ZDF Job), mach ich euch ein BMC raw spezifisches 15 Min. Tutorial - versprochen.
Frank das wäre ziemlich cool!
Antwort von prime:
Gleiche Bildqualität bei stärkerer Komprimierung - auch aufgrund des besseren Rauschverhaltens.
Also weniger Rauscher -> besser komprimierbar, also nix neue Software/Encoder, Eingangsbild ist besser ;-)
Antwort von iasi:
Gleiche Bildqualität bei stärkerer Komprimierung - auch aufgrund des besseren Rauschverhaltens.
Also weniger Rauscher -> besser komprimierbar, also nix neue Software/Encoder, Eingangsbild ist besser ;-)
Also eher: komplexe Zusammenhänge --> keine einfachen Antworten
Antwort von prime:
Also eher: komplexe Zusammenhänge --> keine einfachen Antworten
Huh? In deinen ersten Posting klang es (für mich) so als ob RED einen neuen Kompressionsalgorithmus zusammen mit den neuen Sensor ausgibt, dem ist ja wohl offensichtlich nicht so. Daran ist nichts komplexes, weiss auch nicht worauf die hinauswillst mit dieser Aussage.
Antwort von Borke:
Naja, aber raw ohne Graden läßt sich wohl kaum verwenden. Was mich abschreckt ist der doppelte Arbeitsfluß (bei mir halt):
- graden in Davinci
- Export
- Schnitt in Vegas oder Edius
Interessant. Warum schneidest Du nicht erst und gradest dann? Erspart doch eine Menge Arbeit. Auch bei vielen Schnitten kannst Du doch das Grading jeweils übernehmen. Es kommt wohl auf das jeweilige Projekt und den Anteil der verwendeten Szenen an...
Antwort von kundesbanzler:
In diesem Kontext würde ich gern noch mein Statement erweitern, dass einen der raw-Workflow zu Arbeitsmethoden zwingt, die auch darüber hinaus grundsätzlich sinnvoll sind bzw. sein können.
Neben der Materialökonomie ist ein weiteres Beispiel dafür, einen ordentlichen Proxy-Workflow zu haben. Selbst wenn man Material schneidet, das man auch direkt bearbeiten könnte, kann es trotzdem sinnvoll sein, auf Proxies zu schneiden oder zumindest das Setup dafür aufgesetzt zu haben. Der Grund dafür ist, dass man sich damit aus der starren Abhängigkeit von bestimmten Hard- bzw. Softwarekonstellationen lösen kann und unnötig belegte Ressourcen freilegt, die anders sinnvoller genutzt werden können. Wenn nicht nativ geschnitten wird, liegt bei einem aktuellen Rechner die komplette Leistung frei und kann für anderweitige Zwecke wie Rendering- oder Konvertierungsjobs genutzt werden. Sollte einem die aktuelle Workstation mal abrauchen, kann man jederzeit auf einem fünf bis zehn Jahre alten Rechner (bei hinreichender Sorgfalt sogar mit fünf Jahre alter Software) weiterarbeiten. Man ist nicht von schnellen Datenträgern abhängig, man kann problemlos über mehrere Workstations verteilt kollaborativ arbeiten. Auch ist es dann möglich, das Projekt auf die Schnelle mitzunehmen und unterwegs Korrekturen daran vorzunehmen, so man denn will.
Das sind mal nur die allgemeinsten Vorteile, je nach individueller Arbeitsweise kann es noch viele mehr geben. Klar, wenn man tagweise EB-Beiträge in Minutenlänge durchrockt, macht das keinen Sinn, aber für jedes Projekt, das einen länger als eine Woche beschäftigt, sollte man schon überlegen, ob man der Kiste nicht die 1-2h gönnt, um Proxies zu generieren.
Antwort von wolfgang:
Naja, aber raw ohne Graden läßt sich wohl kaum verwenden. Was mich abschreckt ist der doppelte Arbeitsfluß (bei mir halt):
- graden in Davinci
- Export
- Schnitt in Vegas oder Edius
Interessant. Warum schneidest Du nicht erst und gradest dann? Erspart doch eine Menge Arbeit. Auch bei vielen Schnitten kannst Du doch das Grading jeweils übernehmen. Es kommt wohl auf das jeweilige Projekt und den Anteil der verwendeten Szenen an...
Ich will ja in Vegas schneiden und in Vegas das color grading machen. Nur geht das bisher eben nicht, da Vegas die LUTs für BM nicht beinhaltet. Und für mich ist das Ziel der Schnitt - und dafür habe ich meine Schnittsoftware.
Daher: solange meine NLEs nicht das raw der BM direkt unterstützen, werde ich mir das halt nicht antun.
Antwort von WoWu:
...der neue Dragon-Sensor soll hier gar noch stärkere Komprimierung erlauben.
Was hat denn der Sensor mit der Komprimierung zu tun? Oder koppelt RED ne neue Firmware/Software an den neuen Sensor?
Gleiche Bildqualität bei stärkerer Komprimierung - auch aufgrund des besseren Rauschverhaltens.
Sagt Red - sagen die Wenigen, die eine Dragon haben - ob"s wirklich stimmt ???
Die machen auch Wavelet. Da wirkt sich Rauschen völlig anders aus.
Das ist ein kleiner Unterschied.
Antwort von iasi:
...der neue Dragon-Sensor soll hier gar noch stärkere Komprimierung erlauben.
Was hat denn der Sensor mit der Komprimierung zu tun? Oder koppelt RED ne neue Firmware/Software an den neuen Sensor?
Gleiche Bildqualität bei stärkerer Komprimierung - auch aufgrund des besseren Rauschverhaltens.
Sagt Red - sagen die Wenigen, die eine Dragon haben - ob"s wirklich stimmt ???
Die machen auch Wavelet. Da wirkt sich Rauschen völlig anders aus.
Das ist ein kleiner Unterschied.
Unterschied zu was?
Wie kommt denn z.B. Sony auf seine 3,6:1 ?
(Irgendwo hatte ich auch mal 2,7:1 gelesen.)
Jedenfalls kenne ich bisher noch keinen Hersteller, der eine einstellbare Raw-Komprimierung in der Größenordnung von Red bietet.
Antwort von Valentino:
Da täuscht du dich die Sony F65 hat zwei Raw Komprmierungsstufen und eigentlich braucht man auch nicht mehr:
http://pro.sony.com/bbsc/ssr/show-highe ... #/f65t1_10
Bei Red gibt es seit heute kein Möglichkeit der unkomprimierten Aufnahme oder gar eine Lossles Komprimierung.
Die vielen verschiedenen Einstellungen hat die Red Kamera schon immmer unnötig kompliziert gemacht.
Antwort von WoWu:
@Iasi
Red komprimiert (mehrere Stufen) zwischen 3:1 und 18:1 und die F65 3:1 oder 6:1.
Und wo genau siehst Du den qualitativen Vorteil von 18:1.
Oder geht es nur um die billigere Karte ?
Dann reden wir aneinander vorbei.
Antwort von WoWu:
@ Valentino
OT
Sag mal, Arri schreibt zu der Amira 2k
in order to have an even downscale factor for going up to 2K we actually crop 12 pixels on each side.
2K ProRes was really only implemented for theatrical release. It does not make any sense to shoot it for TV and then down scale, in the contrary this would probably introduce some artifacts. For repositioning it also makes only very little sense as 1920 and 2048 would only result in 128 additional pixel (horizontally) and 72 (vertically).
Hast Du 'ne Idee, was die in dem Zusammenhang mit theatrical release meinen ?
Antwort von srone:
kino?
lg
srone
Antwort von Valentino:
Arri meint damit das finale DCP und da hat man bei Flat(1:1,85) die 1998x1080
Pixel oder man lebt mit den fünf Pixeln rechts und Links.
Um die seitlichen Bildränder zu vermeiden muss man leicht aufzoomen und Oben und Unten leicht cropen.
Dabei sollte man die Titel und CGI erst beim Grading in eine finale 2k DCP Timline legen um spätere Treppen und Scalierungs-Artefakte zu verhindern.
Das heraus rendern von 2k Titeln und CGI ist ja so großer Mehraufwand.
Das ProRes 2k 16:9 hat hingegen 2048x1152 Pixel bei der Alexa und man könnte da ein Frameleader einsetzten um genau auf die 1:1,85 oder gar die Scope 2048x858 arbeiten, gewinnt aber halt nicht viel und hat mit 1,3 F
fachen Datenrate zu kämpfen und braucht deutlich potentere Hardware um damit nativ zu schneiden.
Für eine nachträgliche Stabilisierung ist der Sprung von HD auf 2k 16:9 auch zu gering, da fährt man besser mit 2k 4:3 oder RAW, das wird die Amira aber nicht können.
Das 2k 4:3 macht gerade bei einer VFX und CGI lastigen Produktion viel Sinn, da man den übrigen Platz für Trackingpoints und Resizing benutzten kann.
Im Allgemeinen werden aber solche Produktionen gleich auf RAW mit 4:3 oder gar Opengate(ca. 1:1,66) gehen und dann ein ordentliches Bildfenster.
Antwort von WoWu:
Ja, das macht viel Sinn.
Schönen Dank.
Antwort von iasi:
@Iasi
Red komprimiert (mehrere Stufen) zwischen 3:1 und 18:1 und die F65 3:1 oder 6:1.
Und wo genau siehst Du den qualitativen Vorteil von 18:1.
Oder geht es nur um die billigere Karte ?
Dann reden wir aneinander vorbei.
- 8:1 liefert sehr gute Ergebnisse
- geringere Kompessionsraten für bestimmte anspruchsvollere Geschichten.
Manch einer nutzt beim Dragon scheinbar 12:1 ...
Wenn es um Masse sprich laaange Geschichten geht, könnten höherer Kompressionsraten ja durchaus mal brauchbar sein.
Ich bin nie über 8:1 hinaus gegangen ...
Läuft da eigentlich nicht ein Rechtsstreit zwischen Red und Sony wegen der F65-Komprimierungstechnik?
Nutzt Sony nicht auch Wavelet?
Der Red-Häuptling hatte mal eine verlustfreie 2,5:1 angekündigt - in der Praxis scheint die Nachfrage danach jedoch nicht so groß - jedenfalls hatte Red dies wieder fallen gelassen.
Wie auch immer:
Ohne Komprimierung sind 4k nicht praktikabel. 6k geht schon gar nicht.
http://nofilmschool.com/2012/04/nab-201 ... ata-rates/
Wolfgang
Übrigens hast du mir immer noch nicht gesagt, welche anderen Raw-Komprimierungstechniken als die wavelet basierenden es denn gibt, die z.B. 6:1 bieten.
Antwort von iasi:
Da täuscht du dich die Sony F65 hat zwei Raw Komprmierungsstufen und eigentlich braucht man auch nicht mehr:
http://pro.sony.com/bbsc/ssr/show-highe ... #/f65t1_10
Bei Red gibt es seit heute kein Möglichkeit der unkomprimierten Aufnahme oder gar eine Lossles Komprimierung.
Die vielen verschiedenen Einstellungen hat die Red Kamera schon immmer unnötig kompliziert gemacht.
F65 RAW compression is visually lossless
Technisch verlustfrei bekommt man auch von Sony nicht.
Antwort von Valentino:
F65 RAW compression is visually lossless
Technisch verlustfrei bekommt man auch von Sony nicht.
Dafür aber 8k mit eigenem Sensor-Design, die als echte 4k verkauft werden.
Zwischen den Kameras(EPIC & F65) liegen Welten, was Aufbau und Konzept angeht.
Ist RedRaw 14 oder 16bit?
Antwort von WoWu:
Der Wrapper ist 2 Byte, also 16 bit.
Was da drin steckt steht auf einem andern Blatt. 12 oder 14 Bit, je nach Sensor und Wandlung.
Antwort von iasi:
F65 RAW compression is visually lossless
Technisch verlustfrei bekommt man auch von Sony nicht.
Dafür aber 8k mit eigenem Sensor-Design, die als echte 4k verkauft werden.
Zwischen den Kameras(EPIC & F65) liegen Welten, was Aufbau und Konzept angeht.
Ist RedRaw 14 oder 16bit?
Nun - für eine Patentklage hatten bestimmte Ähnlichkeiten dennoch gereicht.
Aber egal.
Es geht hier ja auch gar nicht um die Sensor-Technik, sondern um die Raw-Komprimierung.
Welche Komprimierungstechnik wendet Sony denn nun an?
Na - jedenfalls: "... compression is applied in-camera to drop the data rate by 3.2x to 2.2Gb/s (24fps) or 5.5Gb/s (60fps)"
http://broadcastengineering.com/product ... tal_cinema
2.2Gb/s sind schon recht üppig im Vergleich zu dem, was eine Red auf"s Speichermedium schreibt.
Antwort von WoWu:
@Iasi
Übrigens hast du mir immer noch nicht gesagt, welche anderen Raw-Komprimierungstechniken als die wavelet basierenden es denn gibt, die z.B. 6:1 bieten.
Ich verstehe die Frage nicht wirklich, denn es kommt immer auf die Anwendung an.
Reine RAW Signale verfügen über alle Kompressionen, die in der IT Technik vorkommen und vorzugsweise mit "z" anfangen.
RED überführt sein RAW Signal erst in ein (nicht gamma korrigiertes) Video-Signal und setzt dort die Kompression auf.
Auf Video Signale kannst Du aber beliebige Kompressionen anwenden und die gehen von lossless bis (beliebig) ... 1000:1 oder so, wenn's denn sein muss.
Antwort von iasi:
@Iasi
Übrigens hast du mir immer noch nicht gesagt, welche anderen Raw-Komprimierungstechniken als die wavelet basierenden es denn gibt, die z.B. 6:1 bieten.
Ich verstehe die Frage nicht wirklich, denn es kommt immer auf die Anwendung an.
Reine RAW Signale verfügen über alle Kompressionen, die in der IT Technik vorkommen und vorzugsweise mit "z" anfangen.
RED überführt sein RAW Signal erst in ein (nicht gamma korrigiertes) Video-Signal und setzt dort die Kompression auf.
Auf Video Signale kannst Du aber beliebige Kompressionen anwenden und die gehen von lossless bis (beliebig) ... 1000:1 oder so, wenn's denn sein muss.
Es geht schlicht darum, wie man Raw und hohe Auflösung in praktische Datengrößen bekommt.
In der Praxis spielen Datenraten eben durchaus eine Rolle.
Immer wieder hört man vom aufwändigen Raw-Workflow - was eben auch den hohen Datenraten geschuldet ist.
Du kommst ständig mit deiner Wavelet-Stichelei ... nun ... es gibt bisher noch keine vergleichbare Alternative ... du kannst ja auch keine nennen.
Die BM4k wird reichlich Raw-Daten erzeugen - trotz Komprimierung
Antwort von WoWu:
Doch, natürlich gibt es die.
Sobald das Signal durch eine DWT, DCT oder IntDCT läuft, ist es streng genommen ein Videosignal.
Es ist nur so, dass dann die Prozesse, die ein RAWSignal eigentlich ausmachen, z.B. Eingriff in das De-Bayering, Kantenortbestimmung usw. nicht mehr möglich sind.
Daher entscheiden sich nicht viele Hersteller, die RAW Signale so zu faken sondern lieber in den sauren Apfel zu beissen und RAW als RAW bestenfalls mit einer "z" Kompression rauszugeben.
Du muss wirklich lernen, die Formate zu unterscheiden.
Andere Hersteller nutzen da eben die DCT oder IDCT, aber wenn man dann sowieso nicht mehr ins De-Bayering eingreifen kann, dann kann man auch gleich ein LOG daraus machen.
Aber es klingt natürlich auch besser, wenn man 16 Bit linear angibt, als 12 Bit log, obwohl u.U. derselbe Anteil Bildsignal drin steckt.
Alles über 8 Bit ist 16 Bit denn schon das neunte Bit muss irgendwo landen und das ist im 2. Byte. 1. Byte + 2. Byte= 16 Bit. (Solange man keine zeitliche Kompression drauf legt, TMDS oder sowas z.B.)
Marketingspielereien.
Aber anscheinend gibt's ja immer noch genug Leute, die darauf reinfallen.
Antwort von Frank Glencairn:
Es geht schlicht darum, wie man Raw und hohe Auflösung in praktische Datengrößen bekommt.
In der Praxis spielen Datenraten eben durchaus eine Rolle.
Immer wieder hört man vom aufwändigen Raw-Workflow - was eben auch den hohen Datenraten geschuldet ist.
Du kommst ständig mit deiner Wavelet-Stichelei ... nun ... es gibt bisher noch keine vergleichbare Alternative ... du kannst ja auch keine nennen.
Die komprimierten raw Datenraten der 4k BMC sind etwas geringer als die unkomprimierten der 2.5k BMC - und mit denen umzugehen stellt ja bekanntlich kein Problem dar. Also was solls.
Und natürliche gibt es eine Wavelet Alternative, schon seit zig Jahren. Einfach nach Cineform konvertieren und schon hast du die selben flexiblen Datenraten wie bei r3d. Nach Abschluss eines Projekts wird das gesamte Material (raw und manchmal auch Master) nach Cineform zur Archivierung gerechnet.
Antwort von iasi:
Es geht schlicht darum, wie man Raw und hohe Auflösung in praktische Datengrößen bekommt.
In der Praxis spielen Datenraten eben durchaus eine Rolle.
Immer wieder hört man vom aufwändigen Raw-Workflow - was eben auch den hohen Datenraten geschuldet ist.
Du kommst ständig mit deiner Wavelet-Stichelei ... nun ... es gibt bisher noch keine vergleichbare Alternative ... du kannst ja auch keine nennen.
Die komprimierten raw Datenraten der 4k BMC sind etwas geringer als die unkomprimierten der 2.5k BMC - und mit denen umzugehen stellt ja bekanntlich kein Problem dar. Also was solls.
Und natürliche gibt es eine Wavelet Alternative, schon seit zig Jahren. Einfach nach Cineform konvertieren und schon hast du die selben flexiblen Datenraten wie bei r3d. Nach Abschluss eines Projekts wird das gesamte Material (raw und manchmal auch Master) nach Cineform zur Archivierung gerechnet.
Cineform?
"All compression is based on an integer reversible wavelet compression kernel" ... wavelet ... es gibt eben noch keine Alternative zu wavelet ...
Komprimierte 4k raw hat geringere Datenrate als unkomprimierte 2,5Raw?
Ich dachte es sei nur eine Komprimierungsrate von 2:1.
Aber OK - wenn es nicht mehr Daten als bei der BMCC werden, ist es erträglich.
Antwort von WoWu:
es gibt eben noch keine Alternative zu wavelet ...
Du hast entweder mein Posting nicht gelesen oder es nicht verstanden.
Natürlich gibt es beliebige Alternativen, nur keine billigen.
Antwort von Frank Glencairn:
Cineform? ... es gibt eben noch keine Alternative zu wavelet ...
Ich hab das so verstanden das du nach einem alternativen Wavelet codec zum Red Wavelet codec gefragt hattest.
Antwort von iasi:
Cineform? ... es gibt eben noch keine Alternative zu wavelet ...
Ich hab das so verstanden das du nach einem alternativen Wavelet codec zum Red Wavelet codec gefragt hattest.
nein - WoWu und Valentino mäkeln immer gern an Wavelet herum, daher hatte ich sie nach Alternativen zu Wavelet gefragt.
Welche Technik Sony für die Raw-Komprimierung nutzt, konnte mir leider niemand sagen und fündig wurde ich bisher auch nicht.
Bei BMs komprimiertem Raw wäre das Handling dieser einen Datei zwar leichter, als das von unzähligen einzelnen DNGs, aber wie sieht es dann mit der Rekonstruktion von beschädigten Dateien aus?
Antwort von WoWu:
nein - WoWu und Valentino mäkeln immer gern an Wavelet herum, daher hatte ich sie nach Alternativen zu Wavelet gefragt.
Du kannst jeden beliebigen Codec als Alternative nehmen !!!
Und das "mäkeln" bezieht sich darauf, dass Wavelet eine DWT einsetzt, um hinterher mit relativ einfachen Filtern arbeiten zu können.
Das hat den Vorteil, dass Bildskalierungen extrem einfach zu erreichen sind und dass bei Standbildern die Koeffizienten gegen null laufen, hat aber den Nachteil, dass Bewegungen in Bildern (im Verhältnis zu andern Codecs)„durch die zeitliche Filterung zu einer sehr störenden Bewegungsunschärfe führt.
Also sei doch nicht immer gleich "angefasst" wenn man mal auf sachliche Nachteile bestimmter technischer Formate hinweist.
Schliesslich sag ich ja auch worin sich solche Codecs unterscheiden und worin die Nachteile bestehen.
Aber Du weigerst Dich einfach den "Glorienschein" auszuschalten und die Andern sind dann immer die Buhmänner und Du machst die beleidigte Leberwurst.
Also nochmal: Du kannst jeden beliebigen Codec als Alternative zu Wavelet nehmen !!!
Nur die andern kosten kräftig Lizenzkosten. Sind aber eben 30 Jahre weiterentwickelt.
Antwort von iasi:
nein - WoWu und Valentino mäkeln immer gern an Wavelet herum, daher hatte ich sie nach Alternativen zu Wavelet gefragt.
Also nochmal: Du kannst jeden beliebigen Codec als Alternative zu Wavelet nehmen !!!
Ja welchen denn nun?
Nun nenn doch mal eine Raw-Komprimierung, die nicht Wavelet nutzt.
Sag doch endlich mal, welche alternative Technik zu Raw-Dateien führt, die die Datenströme von 4k und mehr in praktische Größen bringt.
Natürlich eine Alternative, die auch von einer Kamera genutzt wird.
Worauf basiert denn z.B. Sonys Raw-Komprimierung?
Nochmal:
Immer wieder wird vom Aufwand bei Raw gesprochen - der ergibt sich aber hauptsächlich aus den großen Datenmengen bei unkomprimiertem oder gering komprimiertem Raw.
avhdc fordert einem Rechner z.B. mehr ab, als r3d.
In der Praxis heisst das, dass es mühsamer ist mit 2,5k-BM-Raw als mit 5k-RedRaw zu arbeiten.
Da kann ich meinen Rechner noch so aufrüsten, die kleinere 5k-Red-Datei sichert er dennoch schneller als die 2,5k-DNGs der BM.
Selbst die QHD-ProRes der BM sind nicht handlicher als 4k-RedRaw.
Antwort von Axel:
Selbst die QHD-ProRes der BM sind nicht handlicher als 4k-RedRaw.
... und wozu HQ, wenn selbst die Broadcast-Amira mit ProRes Standard auskommt? Immerhin fallen die Speicherkosten noch in den Rahmen des Erträglichen, da 7200er HDDs noch gerade funzen.
Ich glaube, das 4k-Raw-Schnäppchen für 2735 € gehört in unsere Reihe Häufig gemachte Milchmädchenrechnungen.
Wer sowas machen will, braucht halt fett schnellen Speicher, und der lässt kostenmäßig Kamera und restliche Computerhardware schnell hinter sich. Für die meisten Anforderungen bestimmt unrentabel. Der Vergleich GH4 - BMPC ist da überhaupt nicht absurd. Mit SDI-Klotz drunter und AJA-Recorder wäre die GH4 genauso unhandlich wie die BM, Kosten Body und Capturemodule zusammen gegen 7000 €, und ob das verlustbehaftet komprimierte Raw gegen 4k 10-bit 4:2:2 ProRes wirklich glänzt? Das wird die Zukunft zeigen.
Antwort von Frank Glencairn:
Das mit dem raw, was es ist und was es nicht ist, hast du immer noch nicht so richtig verstanden.
Antwort von iasi:
... und ob das verlustbehaftet komprimierte Raw gegen 4k 10-bit 4:2:2 ProRes wirklich glänzt? Das wird die Zukunft zeigen.
Was soll denn die Zukunft zeigen?
Nimm doch mal ProRes und Raw der 2,5k-BM und vergleiche ... da siehst du dann den Unterschied - wobei es nicht um die Qualität am Ende, sondern um den Weg dorthin geht.
Antwort von WoWu:
Ja welchen denn nun?
Nun nenn doch mal eine Raw-Komprimierung, die nicht Wavelet nutzt.
Das hab ich nun ein paarmal erklärt.
Aber das ist ja, als würde man mit dem Blinden über Farbe sprechen.
Befass Dich mal mit RAW und dem Prozessweg.
Versteh ihn erst einmal und dann reden wir wieder über Kompression.
... und ob das verlustbehaftet komprimierte Raw gegen 4k 10-bit 4:2:2 ProRes wirklich glänzt? Das wird die Zukunft zeigen.
exakt.
Aber deswegen wird da gern über 16 Bit gesprochen.
Dann muss man nicht so genau sagen, was eigentlich drin steckt.
Denn wenn man mal davon ausgeht, dass bei 12 Bit auch mindestens ein Bit Rauschen dabei ist, dann relativiert sich das ganze nämlich schon ziemlich.
Antwort von Axel:
... und ob das verlustbehaftet komprimierte Raw gegen 4k 10-bit 4:2:2 ProRes wirklich glänzt? Das wird die Zukunft zeigen.
Was soll denn die Zukunft zeigen?
Nimm doch mal ProRes und Raw der 2,5k-BM und vergleiche ... da siehst du dann den Unterschied - wobei es nicht um die Qualität am Ende, sondern um den Weg dorthin geht.
Und? Was ist damit?
Mehr Spielraum in der Post? Kaum, wenn du ProRes optimal belichtet hast, einen passenden Weißabgleich gefunden (das könnte besser sein) und mehr oder weniger natürlich wirkende Ergebnisse haben willst. Dann dient das Raw lediglich dazu, die Schwächen der Kamera kombiniert mit eigenen Schwächen auszugleichen. Es "vergibt" mehr.
(Majerski macht nicht gerade tolle Shots, aber ich auch noch nicht)
Und was ProResHQ betrifft: Genug Dynamik, genug Spielraum für die allermeisten Sachen. Dass die Dynamik mit Raw nochmal einen Tick besser sein kann, geschenkt:
Dafür: Mehr Rauschen in den Tiefen bei Raw (kann man als bessere Lowlight-Performance von PR zumindest bei der BMPCC übersetzen), für die, die's interessiert, stärkere Neigung zu Moire (hier ist mir der Zusammenhang noch nicht ganz klar).
Ich selbst würde Raw bei Unklarheit bezüglich der Farbtemperatur/Mischlicht nehmen. Mein Kumpel experimentiert gerade mit ML MIII Raw, und er sagt: Gegenlicht! Jaja, sieht aber in PR auch nicht scheiße aus:
Das mit dem raw, was es ist und was es nicht ist, hast du immer noch nicht so richtig verstanden.
Schon möglich. Ich merkte halt, dass ich aus Fotos mehr rausholen kann.
Antwort von Valentino:
Das ProRes rauscht sehr wahrscheinlich wegen einer Rauschunterdrückung oder durch die Komprimierung etwas weniger.
Aus diesem Grund rauscht das RAW augenschleich mehr, der Noisefloor sollte aber bei beiden in etwas gleich sein, da der Sensor auch der gleiche ist.
Antwort von iasi:
Ja welchen denn nun?
Nun nenn doch mal eine Raw-Komprimierung, die nicht Wavelet nutzt.
Das hab ich nun ein paarmal erklärt.
Aber das ist ja, als würde man mit dem Blinden über Farbe sprechen.
Befass Dich mal mit RAW und dem Prozessweg.
Versteh ihn erst einmal und dann reden wir wieder über Kompression.
Und wieder mal windest du dich um eine klare Antwort herum.
Nun sag doch mal endlich, welche Kamera ein komprimiertes Raw-Format bietet, das sagen wir mal 6:1 bietet und nicht Wavelet nutzt.
Sollte Sonys Raw-Codec nicht wavelet-basiert sein, dann sag doch mal wie Sony es macht.
Antwort von WoWu:
Das hab ich Dir jetzt dreimal erklärt.
Wenn Du das nicht verstehst sondern nur Merketingsprüche begreifst bzw. kloppen willst, dann kann ich Dir auch nicht helfen.
Die Materie Video setzt ein gewisses Grundverständnis des Videoprozesses voraus.
Wenn das nicht vorhanden ist, wird Dir keine Antwort etwas nutzen.
Aber nur so ist zu erklären, dass Du trotz mehrfach gegebener Antwort immer wieder dieselbe Frage (in leicht abgewandelter Form) stellst.
Antwort von iasi:
... und ob das verlustbehaftet komprimierte Raw gegen 4k 10-bit 4:2:2 ProRes wirklich glänzt? Das wird die Zukunft zeigen.
Was soll denn die Zukunft zeigen?
Nimm doch mal ProRes und Raw der 2,5k-BM und vergleiche ... da siehst du dann den Unterschied - wobei es nicht um die Qualität am Ende, sondern um den Weg dorthin geht.
Und? Was ist damit?
Mehr Spielraum in der Post? Kaum, wenn du ProRes optimal belichtet hast, einen passenden Weißabgleich gefunden (das könnte besser sein) und mehr oder weniger natürlich wirkende Ergebnisse haben willst. Dann dient das Raw lediglich dazu, die Schwächen der Kamera kombiniert mit eigenen Schwächen auszugleichen. Es "vergibt" mehr.
"kaum" - leicht gesagt und geschrieben ... vergleiche mal ProRes und Raw in der Praxis ...
Es geht nicht um Schwächen und Fehler - davon wird immer gern und schnell gesprochen - es geht um den Gestaltungsspielraum und das letzte Quentchen.
Wer dies nicht nutzen möchte, benötigt kein Raw.
Antwort von WoWu:
Letzte Quäntchen von WAS ?
Wieder so eine Sprechblase.
Antwort von iasi:
Das hab ich Dir jetzt dreimal erklärt.
Wenn Du das nicht verstehst sondern nur Merketingsprüche begreifst bzw. kloppen willst, dann kann ich Dir auch nicht helfen.
Die Materie Video setzt ein gewisses Grundverständnis des Videoprozesses voraus.
Wenn das nicht vorhanden ist, wird Dir keine Antwort etwas nutzen.
Aber nur so ist zu erklären, dass Du trotz mehrfach gegebener Antwort immer wieder dieselbe Frage (in leicht abgewandelter Form) stellst.
Raw-Komprimierung ohne Wavelet ... 6:1 ... welche Kamera?
Das Problem ist, dass du keine Antwort gibst.
Mich interessiert letztlich nur, welche Kameras zur Verfügung stehen, die Raw und eine Datenmenge, die in der Praxis beherrschbar ist, bieten.
Der Rest ist Theorie und damit nicht relevant.
Die 4k-BM kommt auf QHD bei max. 30fps mit "visuell verlustfrei komprimiertem CinemaDNG RAW" ... dabei sind die Datenmengen noch immer reichlich groß.
Sony bietet bei der F55/5 "nur" 3,6:1
Die F65 bietet zusätzlich 6:1.
Arri schreibt 1:1 die Speicher voll.
Red kann dank Red-Raw 6k/100fps in praktikabler Größe weg schreiben.
Antwort von WoWu:
Mich interessiert letztlich nur, welche Kameras zur Verfügung stehen, die Raw und eine Datenmenge, die in der Praxis beherrschbar ist, bieten.
Gern, dann definier doch mal RAW.
Antwort von johnnycash89:
Das Problem ist, dass du keine Antwort gibst.
Das Problem ist eher, dass "ihr" (immer wieder die gleichen Leute) mal wieder eine Newsmeldung dazu missbraucht, eure langweiligen Ego-Kämpfe auszutragen.
Vielleicht habt ihr's noch nicht mitbekommen: Das interessiert hier niemanden!
Schreibt euch bitte E-Mails und verschont uns damit.
Antwort von WoWu:
Aber Deine Nachricht ist auch nicht gerade hilfreich und um Nichts besser ... und nur weil Du keinen Zusammenhabt erkennst, musst Du nicht gleich auf alle Andern schliessen.
Manche können der Diskussion nämlich durchaus folgen. Aber eben nicht Alle, wie es scheint.
Antwort von Francisromao:
wowu, iasa (oder so ähnlich) etc., die schimpfen andere bekloppt etc. Und dann gibt es, welche, von denen man glauben müsste, sie hätten sich eine Arri zum Verleihen zugelegt und darum müssen sie deren heute nicht mehr angebrachten Preis unbedingt verteidigen (natürlich ist die Alexa eine Spitzencam, aber das rechtfertigt in Zeiten wie diesen nicht mehr den Preis.
Antwort von WoWu:
Es sind immer die gleichen, die andere beschimpfen ....
Und deswegen fühlst Du Dich jetzt aufgerufen, das auch zu tun....
Oder sollte das ein Beitrag zum Thema sein ?
Antwort von Francisromao:
Beschimpfen bedeutet bestimmte beleidigende Ausdrücke zu verwenden ("bekloppt", "Schwachsinn", "Idiot") und den anderen erniedrigen zu wollen.
Das ist der fundamentale Unterschied zwischen Kritik, die sachlich sich ausdrückt, die richtig oder falsch sein kann. und Beschimpfung, die beleidigend ist.
Antwort von WoWu:
Danke für den erläuternden Hinweis.
Antwort von Frank Glencairn:
So wie es aussieht, sind die Audioprobleme (Frequency Response) bei der 4k endlich behoben,
Antwort von iasi:
wowu, iasa (oder so ähnlich) etc., die schimpfen andere bekloppt etc. Und dann gibt es, welche, von denen man glauben müsste, sie hätten sich eine Arri zum Verleihen zugelegt und darum müssen sie deren heute nicht mehr angebrachten Preis unbedingt verteidigen (natürlich ist die Alexa eine Spitzencam, aber das rechtfertigt in Zeiten wie diesen nicht mehr den Preis.
so so - an welcher Stelle beschimpfe ich denn jemand als bekloppt?
Und die Begriffe die du weiter unten anführst ("Idiot" etc.) nutze ich nicht.
Und zur Alexa - was erwartest du denn - soll Arri ohne Not die Preise senken, nur um die neuen Kunden zu beglücken? So lange sich die Kameras gut verkaufen, also die Nachfrage vorhanden ist, senkt doch niemand die Preise.
Mit der Alexa hat Arri alles richtig gemacht - so ganz deutsch: Wir kommen zwar spät, dann aber mit dem möglichst Besten. Es ist bei Arri auch nicht nur die Kamera, sondern eben auch der Vertrieb, die Integration in ein ganzes Produktsegment - und zuletzt auch der Name.
Das behaupte ich, als nicht-Arri-Nutzer.
BM will den Verkauf der 4k-Cam ankurbeln - wohl auch, weil sie auf Effekte auf andere Produktbereiche hoffen. Wahrscheinlich wollten sie auch auf die Konkurrenz reagieren.
Antwort von iasi:
Beschimpfen bedeutet bestimmte beleidigende Ausdrücke zu verwenden ("bekloppt", "Schwachsinn", "Idiot") und den anderen erniedrigen zu wollen.
ja - und was "Unterstellung" bedeutet, das weisst du auch?
Die von dir hier genutzen Worte, findest du in meinen Beiträgen nicht.
Im übrigen sollte man die gegenseitigen Stichleien auch nicht zu ernst nehmen.
Wenn man WoWu z.B. lange genug pickst, bekommt man oft auch interessante und fundierte Argumente.
Um die BM-4k richtig einordnen zu können, muss man eben schon auch mal tiefer in verschiedene Aspekte eintauchen.
Sie mit grob mit Kameras zu vergleichen, die das 10fache kosten, bringt doch nicht wirklich etwas.
Antwort von iasi:
So wie es aussieht, sind die Audioprobleme (Frequency Response) bei der 4k endlich behoben,
Was heisst das konkret?
Bei der BMCC ist Audio maximal auf DSLR-Niveau.
Ich nutze daher Audio-in der BMCC überhaupt nicht.
Antwort von Francisromao:
und: ich kann mich an einiges erinnern, was an die Grenze der Beleidigung ging. Aber, Du hast jetzt Platz, Dich noch mal aufzuregen in einem Kommentar.
Antwort von ruessel:
Was heisst das konkret?
(Frequency Response)
Sollte eine Verzögerung von Eingang zum Tonausgang beschreiben. Ich würde vermuten von Mikrofoneingang zum Kopfhörerausgang.
Antwort von iasi:
und: ich kann mich an einiges erinnern, was an die Grenze der Beleidigung ging. Aber, Du hast jetzt Platz, Dich noch mal aufzuregen in einem Kommentar.
Aufregen? Du regst dich doch auf - und bei dir finden sich Worte, die ich nicht benutze.
Nur unterstellst du eben vieles - und belegst es dann mit "ich kann mich an einiges erinnern" ... tolle Rechtfertigung ...
Überprüfe du doch lieber erst mal deinen eigenen Stil.
Antwort von iasi:
Was heisst das konkret?
(Frequency Response)
Sollte eine Verzögerung von Eingang zum Tonausgang beschreiben. Ich würde vermuten von Mikrofoneingang zum Kopfhörerausgang.
"Mikrofoneingang" - eine nette Bezeichnung für einen Eingang, der eigentlich nicht für Mikrofon-Signale taugt.
Antwort von Francisromao:
Aber nicht beißen ! Der Beißkorb bleibt aufgesetzt, das Herrli nimmt ihn nicht runter
Antwort von Jott:
"Frequency Response" ist keine Verzögerung, sondern der Frequenzumfang oder besser Frequenzgang.
Antwort von iasi:
Aber nicht beißen ! Der Beißkorb bleibt aufgesetzt, das Herrli nimmt ihn nicht runter
gut zu hören
Antwort von Frank Glencairn:
Oh-kay
Antwort von ruessel:
Frequenzgang
Stimmt, einmal kurz googeln hätte das richtig geklärt.... sorry.
Antwort von iasi:
Oh-kay
das bestätigt durchaus die erwartungen
wenn man die bm-4k nicht überfordert, liefert sie gute Ergebnisse und trumpft mit dem global shutter auf.
Antwort von iasi:
Oh-kay
das bestätigt durchaus die erwartungen
wenn man die bm-4k nicht überfordert, liefert sie gute Ergebnisse und trumpft mit dem global shutter auf.
Antwort von Frank Glencairn:
Besonders krass finde ich den 400% Crop von dem Blumentopf.
Wo man bei der BMC noch jedes Detail erkennt, verwandelt die Canon selbst größere Steinchen in unförmige Pixel Blobs.
4k an Bildinformation sind da jedenfalls nicht mehr zu sehen, sieht eher aus wie aufgeblasenes SD.
Hier ist ein Vergleich Pocket vs 4k:
Antwort von Valentino:
Der Franzose ist lustig beschwert sich über den BlackSun Effekt und belichtet die Kamera beim Test 200ASA.
Der Sensor hat doch die 800 Asa wie die BMCC oder?
Da hat auch die Red und Alexa deutliche Probleme mit so viel Licht.
ND Filter sind hier das Zauberwort ;-)
Allgemein ist der Test für die Tonne, da die Kameras einfach verschiedene Einsatzgebiete haben, aber das sagt er ja auch am Ende.
Antwort von iasi:
Besonders krass finde ich den 400% Crop von dem Blumentopf.
Wo man bei der BMC noch jedes Detail erkennt, verwandelt die Canon selbst größere Steinchen in unförmige Pixel Blobs.
4k an Bildinformation sind da jedenfalls nicht mehr zu sehen, sieht eher aus wie aufgeblasenes SD.
Hier ist ein Vergleich Pocket vs 4k:
Die BMC zeigt hier nur eine Art höheren Kontrast, da die Tiefen absacken.
An den Histogrammen kann man schön sehen, dass die BMC weit weniger Spielraum nach unten hat.
DR ist eben nicht die Stärke der BMC - wie auch LowLight.
Aber das ist eben wohl der Preis, den man für den Global Shutter bezahlen muss.
Immerhin sieht man bei dem Test BMC vs. Pocket recht gut die Vorteile der höheren Auflösung.
Jetzt bleibt nur zu hoffen, dass BM nun auch endlich mal die Zeit für die Pflege der Firmware findet - und sie sich nimmt. Man muss bei BM ja leider immer befürchten, dass zur NAB wieder neue Modelle angekündigt werden ...
Antwort von Angry_C:
Dem fiesen fixed noise pattern nach zu urteilen befindet sich tatsächlich der cmosis 12000 Industriesensor in der Kamera. Laut Datenblatt 10 Blenden Dynamik, wovon nach der "Fehlerkaschierung" etwa 8-8,5 Blenden zur Verfügung stehen. Da von einer Cinemakamera zu sprechen, na ich weiß nicht.
Dem Sensor fehlen die Referenzpixel für den Schwarzabgleich und der Noisepattern Korrektur. Das Resultat kann man in dem Beispielvideo sehr gut in den dunklen Bereichen nach dem "Boosten" in der Post bestaunen. Da wird noch viel drüber zu lesen sein.
Antwort von ruessel:
Immerhin sieht man bei dem Test BMC vs. Pocket recht gut die Vorteile der höheren Auflösung.
Wurde bei diesem Test nicht nur die Optik getestet? Kann diese Optik überhaupt bei einem S16 Sensor 2K in anständigen Kontrast bringen? Wie sieht der Test wohl mit dem Speed Booster an der Pocket aus?
Antwort von Frank Glencairn:
An den Histogrammen kann man schön sehen, dass die BMC weit weniger Spielraum nach unten hat.
DR ist eben nicht die Stärke der BMC - wie auch LowLight.
An dem Histogramm kann man bestenfalls die Unterschiede in den Log Kurven sehen. Nur weil das Canon Log die Mitten mehr zusammenquetscht, bedeutet das noch lange nicht, daß sie einen besseren DR hat.