Frage von Blancblue:Interessanter Beitrag, gerade auch in Bezug auf den ganzen Blackmagic Cinema Cam Hype:
http://fstoppers.com/why-i-sold-my-red- ... -to-a-c100
Antwort von susanne geht zum film:
Aber so was auch?
Kamera = Werkzeug = der Mensch erzählt eine Geschichte = Werkzeug
wird gut besser oder gar genial genutzt. Das Werkzueg selber macht so
alleine gar nix.... bis der Akku leer ist.
Skalpell = Werkzeug = der Arzt weiss hof. was er tut = Pateint merkt
gleich nach der Narkose/aufwachen
- wouw...wunderhübsche Krankenschwestern mit Flügeln, blonde,brünette...
-oupss...die grantige is schon wieder da-und ehy mein rechtes BEIN!!!!!!
LIIIIIIIIIIIIIIIIIIIIIIIIIIIIIINKS!!!!!!!
Trozdem: nächstens
warum ich wieder das kratzige Billigklopapier nehme und net Cosy..
zu ältär tu wenig rebell...KRATZZZZ...
Antwort von Paralkar:
Ja, schöner Vergleich
Ganz simple nix sagend,
Wenn er zu nem Pixel-Peeper wird und seine Kreativität verliert, selbst schuld, ist nicht unbedingt ne Sache die mit einher geht.
Ansonsten absoluter nonsense, der hauptaspekt bei Red oder sonst welchen höher-preisigen Kameras oder gleichpreisigen BM Kameras ist und bleibt das es in der Post vielmehr freiheit lässt.
Egal ob Raw oder log gibt einem einfach weitaus mehr Möglichkeiten, um ebenfalls kreativ und stilistisch Stimmung und Geschichte zu tragen.
Und ja man sieht da in den meisten Fällen ein Unterschied, zu nem Schuhflickerei h264 420 Grading.
Das heißt, wenn er damit glücklich ist, nice, freut mich,
Aber wenn ihr mit ner Kamera nciht umgehen kann, bzw. die stärken ausspielen kann, dann sollte er auch nicht unbedingt Meinung kundtun
Die meisten Leute, die gern auf der Straße rumheizen, könnten auch ein F1 Auto fahren, bzw. es nur ansatzweise an die Grenzen bringen.
Antwort von raketenforscher:
Für mich riecht das nach Guerillamarketing. Vielleicht gab es einen netten Nachlass und er hat beide Kameras noch. :o
Antwort von freezer:
Hab auch schon mit der C100 gearbeitet - tolle Kamera, schönes Bild und Handling, lässt sich gut mit der BMCC ProRes zwischenschneiden.
4:2:0 ist oft ein viel kleineres Thema, als es manche aufzublasen versuchen. Eines muss man nämlich Canon lassen - deren Codecimplementierungen sind immer 1A - sei es früher HDV, welches weit bessere Qualität hatte als HDV von Sony Kameras, oder eben jetzt AVCHD.
Antwort von DV_Chris:
Hab auch schon mit der C100 gearbeitet - tolle Kamera, schönes Bild und Handling, lässt sich gut mit der BMCC ProRes zwischenschneiden.
4:2:0 ist oft ein viel kleineres Thema, als es manche aufzublasen versuchen. Eines muss man nämlich Canon lassen - deren Codecimplementierungen sind immer 1A - sei es früher HDV, welches weit bessere Qualität hatte als HDV von Sony Kameras, oder eben jetzt AVCHD.
Der ideale Spielgefährte für die C100 ist der Atomos Ninja2. Diese Kombination ist so gut wie unschlagbar. Die laufende Atomos Aktion lässt keine Ausrede mehr zu ;-)
Antwort von WoWu:
Hab auch schon mit der C100 gearbeitet - tolle Kamera, schönes Bild und Handling, lässt sich gut mit der BMCC ProRes zwischenschneiden.
4:2:0 ist oft ein viel kleineres Thema, als es manche aufzublasen versuchen. Eines muss man nämlich Canon lassen - deren Codecimplementierungen sind immer 1A - sei es früher HDV, welches weit bessere Qualität hatte als HDV von Sony Kameras, oder eben jetzt AVCHD.
Canon ist auch eine der (sehr) wenigen Firmen, die AVC
komplett implementiert, also auch alle Framformate unterstützt.
Daher sollte man sich auch nicht über den Codec beschweren, sondern meistens über die miesen Implementierungen.
Antwort von Paralkar:
Fragt die meisten Coloristen, 420 h264 ist einfach oftmals mühseliges Schuhflicken, oder man kommt garnicht an das gewünschte Ziel.
Klar, wenn man nix verbiegen will, braucht man sich nicht beschweren, aber selbst der einfache Skintones-Key ist fehlerhafter, somit ist bei simplen Korrekturen, Glamour Glow, Aufhellung etc., schon soviel mehr Arbeit zu machen.
Klar das kann je nachdem was man filmt, auch bei Raw passieren, aber halt deutlich deutlich weniger.
Antwort von Valentino:
Dazu hat die C-Serie bei interner Aufnahme Probleme mit einfarbigen Flächen, auf den sich starke Artefakte bilden.
Bei Aufnahmen über SDI sind diese nicht vorhanden.
Antwort von WoWu:
Das ist immer eine Frage, des Profiles und der Implementierung, aber keine Frage von H.264.
Der Codec geht bis fast 1 GBit/s .... nimmt man natürlich irgend ein Profile aus der Videoconferenzecke, dann klappt das nicht.
Prinzipiell funktioniert auch AVCHD in einem anständigen profile sehr gut, solange man damit in der Post keine Fisimatenten macht.
Wenn man aber anfängt erst mal zu wandeln, dann stimmt das Ergebnis auch nicht mehr.
Die meisten Fehler, die heute mit H.264 gemacht werden, entstehen beim Anwender.
Früher hat man jede Filmsorte, ja sogar jede Charge gekannt und wusste damit umzugehen.
Heute scheint man nicht mal mehr die Eigenschaften von Codecs zu kennen.
Antwort von BLNeos:
Er erinnert mich doch sehr an die Leute die lieber in Jpg ihre Fotos speichern, als in Raw, weil die Bilder dann "einfach irgendwie besser aussehen". Für Menschen die nicht Colorgraden können mag eine C100 wohl besser sein als eine Red. Warum hat er nicht die Footages der beiden Kameras in seinem Beispiel so korrigiert, dass sie ähnlich aussehen? Weil er es nicht kann oder weil er Werbung für Canon macht?
Antwort von WoWu:
Aber erhalt doch die Antwort eigentlich gegeben:
"Weil die RED ihm die "Spontanität" nimmt".
Er hat ja gar nicht gesagt, dass die RED keine guten Bilder macht.
Ganz im Gegenteil. Er hat ja gesagt, er ist nicht der "Bastler", der die Bilder erst hinterher zaubert.
Antwort von rush:
Er erinnert mich doch sehr an die Leute die lieber in Jpg ihre Fotos speichern, als in Raw, weil die Bilder dann "einfach irgendwie besser aussehen". Für Menschen die nicht Colorgraden können mag eine C100 wohl besser sein als eine Red.
Ach naja.. ich seh das ganz pragmatisch. Ich bin auch niemand der gern stundenlang an den Drehreglern in der Post spielt - das kost ja auch alles Zeit und Nerven. Klar ist das Potential und das was man am Ende dabei herausholen kann größer. Aber wenn man bereits ein gutes Bild aus der Kamera haben kann - ist das doch auch nicht zu verachten.
Wer wirklich nur szenisch arbeitet und Zeit hat dem mag das Color Grading auch keine Probleme bereiten.
Ich stecke lieber weniger Zeit in die Post, oder übergebe sie jemandem... - und mein Rechner ist für 4K auch gewiss nicht "smooth" Color Grading fähig ;)
Ob er nun Werbung für Canon mag sei mal dahingestellt - wer sich das Disclamir durchgelesen ha,t wird wissen das er primär zur Diskussion anregen wollte:
"I want to remind you to take everything I’m saying with a grain of salt. I hope that hearing my story will inspire you to ask questions and start a dialog about the gear-choices you make"
Ich kenn auch 1-2 Kollegen die von der C300 begeistert sind - ich selbst habe damit noch nicht gearbeitet. Also weder C100 noch C300.
Und mal ehrlich: Seid wann haben wir denn überhaupt RAW im "Amateur oder Mittelpreisbereich"? Genau.... und es ging vorher auch ohne ;) Es (RAW) ist sicher nice to have - aber es ist auch kein Allerheilmittel und macht noch lange keinen guten Film.
Antwort von nachtaktiv:
das problem ist ja auch, das der tag nur 24h hat. je mehr kilometer ich z.b. hier im forum runter habe, desto mehr beschäftige ich mich mit technik, anstatt einfach mal mit der cam raus zu gehen und zu spielen. man verliert sich gern in fummeleien am rechner, je professioneller es sein soll.
ich kann den mann verstehen. und aus ähnlichem grunde muss ich auch nicht unbedingt eine BMPC haben. auch wenn die bilder gut aussehen im vergleich zum DSLR gefilme.
mit farbkorrektur z.b. hab ich mich noch nie richtig beschäftigt. ich schieb ein bissl an sättigung, kontrast und helligkeit - das wars. da vinci ist in planung, aber wenn ich sehe, was das wieder an zeit frisst ... ohje ...
naja, versuchen kann mans ja mal ..
Antwort von WoWu:
:-) Für die langen Winterabende. :-)
Antwort von nachtaktiv:
äm .. wirkt sich eigentlich ne klassische farbsehschwäche aus ? also die nummer mit den bunten nummern zwischen den klecksen ... die man nicht erkennen kann, wenn man zu den leuten gehört, die betroffen sind .... +kopfkratz+ ...
Antwort von Francisromao:
Er erinnert mich doch sehr an die Leute die lieber in Jpg ihre Fotos speichern, als in Raw, weil die Bilder dann "einfach irgendwie besser aussehen". Für Menschen die nicht Colorgraden können mag eine C100 wohl besser sein als eine Red. Warum hat er nicht die Footages der beiden Kameras in seinem Beispiel so korrigiert, dass sie ähnlich aussehen? Weil er es nicht kann oder weil er Werbung für Canon macht?
Die C100 hat Canon-log, da lässt sich mit der Gamakurve schon einiges machen in der Postproduction, außerdem haben die guten Schnitt- und Gradingprogr. einige andere Möglichkeiten.
Also ich glaube nicht, dass der Mann Werbung macht oder ein Diletant ist. - Sah auch schon andere Vergleiche auf Vimeo, wo - zumindest für meine Augen - Red schlechter dastand als eine Canon 5 D Mark II oder eine Panasonic GH2.
Die Red-Anbetung ist hier übertrieben, außerdem ist RED zu teuer.
Auch eine Canon eos C 500 kommt unterdem Strich deutlich günstiger als eine Red Epic.
Und wie hier auf Slashcam vor einiger Zeit in einer Umfrage unter US-amerikanischen Dokumentarfilmern veröffentlicht, benützt nur eine Minderheit eine Red. Klar Dokumentarfilmer müssen schnell arbeiten, und können sich nicht auf endlose Grading-Spielereien einlassen. - Und ein Blick in die Vergangenheit, als die wirklich künstlerisch großen Filme auf Zelluloid gemacht wurden, da konnten man im Kopiervorgang nur mit Rot-Grün-Blau und Grau-lampen graden und eventuell mit Entwicklungstricks oder vorher indem man die Filme sozusagen ein wenig unter bestimmten Bedingungen lagern ließ (ablegen wie gutes Rindfleisch vor dem Braten), um ein wenig nach dem Gefühl an der Chemie zu feilen. Das war aber schon alles und trotzdem sind kunstwerke vom Expressionismus bis Spielberg herausgekommen.-- Die heutige "Graderei" erzeugt mir, wenn ich diese Filme sehe, schon eine Art Einheitslook, der zu Erbrechen langweilig wird. -Mit RED wurde in Wirklichkeit nur ein großartiger Film bisher gedreht und das war einer der ersten mit der RED One (Ché von Sodherberg). Außerdem macht den guten Film nicht das Grading sondern ein guter Regisseur und ein sensibler Kameramann und natürlich nicht zu vergessen, sehr gute Schauspieler--- Aber für das, was ich jetzt gesagt habe, werde ich von gewissen Leuten sicher wieder beschimpft.
 |
Antwort von WoWu:
Nein, kein Mensch beschimpft Dich hier, aber immer, wenn keine sachbezogenen Argumente mehr kommen, kommen solche Totschlagargumente ..."das Buch macht den Film ... oder der Mensch hinter der Kamera macht den Film ... oder so ähnlich.
Da bist Du nicht allein, davon gibt es hier im Forum so diverse Anbieter.
Aber in dem Artikel oben, hat der Typ doch ganz klar gesagt, warum er gewechselt hat. Da gibt es doch eigentlich gar keine Zweifel.
Daher verstehe ich die ganzen Mutmassungen eigentlich nicht.
Da muss man doch nichts hinein interpretieren.
Antwort von freezer:
Kann WoWu nur recht geben - der Typ hat für sich selbst eine pragmatische Entscheidung getroffen.
Ich halte es genauso - wenn es das Budget und der Zeitrahmen erlaubt, dann drehe ich RAW um das Maximum in der Post herauszuholen - für alles andere reicht ProRes Filmlog, oder bei sehr kleinem Budget Canon HDV.
Gerade das BMCC RAW braucht wahnsinnig viel Platz, dagegen ist RED RAW ja super kompakt.
Ich muss für meine Kunden die Daten ja auch sichern - und wenn der Kunde das nicht zahlen will, dann ist vermutlich auch die Kamerawahl zu überdenken. Ich kann nicht überall Qualitätsfanatiker spielen.
Ich kaufe mir auch keine FS700 für Zeitlupen - bisher brauchte ich das einmal und dann habe ich die Kamera zugemietet. Eine Phantom war dem Kunden zu teuer - dann gibts halt 480fps nur in 960x540 komprimiert.
Ich kenne Leute, die haben zB eine teure Steadycam, die maximal einmal im Jahr zum Einsatz kommt.
Antwort von Jott:
Mit einer pragmatischen Kamera- und Workflowentscheidung ist immer das meiste Geld verdient.
Antwort von Paralkar:
Es ging ja hier nicht ob man das machen soll oder nicht,
nur das seine Argumentation schwammig ist,
ich persöhnlich finde das das Canon C100 bild auch überhaupt nicht filmisch aussieht, das Magenta sticht im Gesicht bei der roten Haut vergleichsweise total hässlich durch, und der Highlight Rolloff ist halt sehr Video-artig.
Antwort von medikus:
Es ging ja hier nicht ob man das machen soll oder nicht,
nur das seine Argumentation schwammig ist,
ich persöhnlich finde das das Canon C100 bild auch überhaupt nicht filmisch aussieht, das Magenta sticht im Gesicht bei der roten Haut vergleichsweise total hässlich durch, und der Highlight Rolloff ist halt sehr Video-artig.
Nachdem ich vorhabe eine C100 zu kaufen, schreckt mich Deine Feststellung etwas ab-eigene Erfahrung mit Deiner C100?
Antwort von freezer:
Ich kann die Behauptungen von Paralkar überhaupt nicht nachvollziehen. Im Canon Log gedreht - sieht echt alles super aus.
Antwort von Paralkar:
Nein, ich hab keine und hab bis jetzt nur mit ner C300 einmal gearbeitet.
Aber was er in dem Video im Vergleich zeigt, da sieht man selbst in dem Vimeo komprimierten Video was ich meine.
Ich will keinesfalls sagen das die C100 scheiße ist und das man sie sich nicht kaufen soll, nur das die Stärke einer Red Kamera, bei dem seiner Argumentation wegfällt.
Ganz klar muss cih selbstreflektiert sagen, ich bin ein Mensch aus der Post, ich bin Colorist und DIT, ich weiß das ich oftmals Sachen sehr technisch betrachte, das müsst ihr wissen.
Deshalb würde, je nach Projekt, meistens ein 10 bit Codec mit 422 einem 8 bit Codec einer C100 vorziehen.
Außerdem mag ich den Look halt einfach nicht so gerne, schaut aus wie ne schärfere DSLR, aber der 420 Matsch, dieser digital/ video Look, durch den Highlight Roll-off, Skintones und Farbdifferenzierung is halt nicht so schön find ich.
Ich benutz eine Kamera zum arbeiten und bin da sehr pragmatisch, wenn ich aus subjektivem Empfinden die Skintones oder den Gesamtlook nicht mag und mehr hinziehen und drehen muss um in der Post zum gewünschten Ergebnis zu kommen, dann kostet mich das mehr Zeit, für Unkreative Arbeit und fürs Schuhflicken.
Und das muss ich dann meinem Kunden entweder weiterberechnen oder bei Pauschalangeboten im Vorhinein einrechnen, was das ganze teurer macht.
Deshalb bin ich von DSLR auf ne Blackmagic Cinema Camera umgestiegen, somit hab ich die DSLR fürs Drehen von Lowbudget abgelöst.
Das erhöht meine Qualität, die ich anbieten kann, meine kreativen Möglichkeiten und letzteres verringert es meine Zeit in der Post, da ich micht weniger mit Überbelichtung oder sonst was rumschlagen muss. somit bin ich der einen oder anderen Konkurrenz voraus.
Für größere Projekte und Budgets muss ich dann projektabhängig leihen
Antwort von DeeZiD:
Außerdem mag ich den Look halt einfach nicht so gerne, schaut aus wie ne schärfere DSLR, aber der 420 Matsch, dieser digital/ video Look, durch den Highlight Roll-off, Skintones und Farbdifferenzierung is halt nicht so schön find ich.
Ich muss dir da leider rechtgeben (kenne die C300).
Und der blöde Highlight-Rolloff lässt alles schnell wie Video aussehen (ja, ich habe C-Log benutzt).
Mit einer RED oder gar BMCC passiert sowas nicht.
__________________________________
Gerade nochmal sein Testvideo gesehen.
naja, manche mögen ja hart und digital. Meinen Geschmack trifft der Videolook der C100 definitiv nicht!
Antwort von Jott:
Deswegen ist die C300 auch eine der meistbenutzten Kameras für viele Genres und findet sich im Spitzenfeld - meistens Platz 1 - der Kameraverleiher. Die muss ja üble Bilder liefern.
Antwort von freezer:
Wie gesagt - ich kann's mit einer C100 nicht nachvollziehen. Du beziehst Dich auf ein Video von dem Typen - ich auf viele Clips mit der C100, welche mir im Original vorliegen.
Hab vor kurzem ein Konzert mit der BMCC (Prores Log) und der C100 (Canon Log) gefilmt und das Material lässt sich super intercutten.
Antwort von Paralkar:
Leute es geht hier um ein subjektiven Geschmack, wollen wir darüber jetzt diskutieren?
Ich find die Bilder nicht so schön, kann doch jeder machen wie er will, ich will damit keinesfalls ne Kamera schlecht machen, und auch wenn sie 1 milliarden mal verliehen wird, ändert das nichts an meiner Meinung und auch nicht an dem was sie kann oder qualitativ erzeugt.
Die C300 wird auch sehr stark geliehen, weil sie für Dokus, Run & Gun Sachen hergenommen wird, da hat sie definitiv unbestreitbare Stärken.
Außerdem wird auch gern mal von den EB Leuten so ein Ding geliehen.
Das erklärt warum sie weg geht wie warme Semmeln, das ist ja auch meinetwegen gut so, aber ihr könnt doch nicht sagen das, das 422 8 bit 50 mbit einer C300 in der Post das gleiche ist wie Red Raw, 4444 ProRes oder Cinema DNG.
So und je nach Verwendungszweck, möchte man halt lieber ein gescheiten Codec für Post.
Ich versteh jeden der für Run & Gun ne C300 einpackt, ich wurde auch vor kurzem gefragt, Doku in Nepal, c300 oder Red Scarlet
C300:
Pro
4k Sensor, für ein gescheites downscaled Full HD
Broadcast tauglich
422 8 bit 50 mbit C-Log (12 Blenden DR)
Run & Gun
Kleine Datenmengen
CF-Karten (vegleichweise günstiger als SxS oder Red-SSD)
EF-Mount (foto-optiken)
gescheite Verarbeitung und mit Sucher und Display
Anschlussvielfalt für mehere Monitore/ TC etc.
720 50p
gutes Rauschverhalten bei hohen ISOs
kein Rig
Con
8 bit
50 mbit (Artefakte können schneller passieren)
Subjektiv: video-look (aus den genannten Gründen)
Plastik-Verarbeitung (find ich nicht so schön, aber auch das ist geschmackssache)
Scarlet
Pro
4k Raw, 16/ 14 bit
PL-Mount
13 (eher 12-12.5) Blenden DR
HDRx
Highlight Roll-Off (wirkt subjektiv filmischer)
Full HD 50 fps
gute Verabeitung
mehr Sicherheit für Belichtung und Möglichkeiten in der Post, was zu retten umzubiegen
Con
große Datenmengen (DIT/ Datawrangler vorrausgesetzt)
Teure Red SSDs
Weitaus aufwendiger in der Post, speziel in der CC (mehr technisches KnowHow für DI)
schwerer und unhandlicher (weniger Run & Gun tauglich)
benötigt Rig
schlechteres Rauschverhalten
vergleichweise schlechte Anschlussmöglichkeiten
schluckt mehr Strom, V-Mount Akkus (davon auch mehere)
So das sind Gründe die man einfach nicht abstreiten kann, und anhand dessen muss man projektabhängig entscheiden
Antwort von iasi:
Während dem Dreh ist die Scarlet schlicht einfacher und tolleranter als die 8Bit 4:2:0 - den DR ausgenutzt und in der Post bekommt man die Zeichnung in den Lichtern zurück, die bei einer C100 verloren sind.
Antwort von medikus:
Während dem Dreh ist die Scarlet schlicht einfacher und tolleranter als die 8Bit 4:2:0 - den DR ausgenutzt und in der Post bekommt man die Zeichnung in den Lichtern zurück, die bei einer C100 verloren sind.
auch schon damit gearbeitet?
Wär also wirklich eine Fehlinvestitation?Oder wie seh ich das?
Antwort von Yaso:
Die Realität sieht einfach so aus, dass Raw-Kameras nachwievor keine Kaufgeräte für Einzelpersonen sind. Sie sind immer noch zu teuer, zu komplex im Handling und zu aufwändig im Workflow. Falls es mal ein Projekt gibt, wo Raw nötig sein sollte, kann man sich das entsprechende Gerät immer noch leihen. Long-Distance-High-Five an Dave Wallace für diese Einsicht.
Antwort von Paralkar:
Die Nachteile einer Red kamera hab ich hingeschrieben,
Die Frage ist, willst du Out of Cam, n schönes Bild und nichtmehr in ne professionelle Farbkorrektur, die auch wie gesagt sehr rechenintensiv ist mit RedRaw oder halt nicht
Ich machs einfacher verstehst du was mit Raw, 4444, 420, 422 und 8/10/16 bit gemeint ist und wo der Unterschied liegt.
Dann denke könnte es Sinn machen über ne andere Kamera nachzudenken
Ja aber in Nepal, ist ne c300 in dem Fall sinnvoller, alleine ohne strom und absolut Run & Gun, schnell agieren, ohne Licht (Lichtempfindlicherer Sensor), nicht immer backupen können, keine 100 schweren Optiken mit scih schleppen...
Ich bin Colorist, aber in dem Fall versteh ich jeden der sich für die C300 entscheidet
Antwort von DV_Chris:
Während dem Dreh ist die Scarlet schlicht einfacher und tolleranter als die 8Bit 4:2:0 - den DR ausgenutzt und in der Post bekommt man die Zeichnung in den Lichtern zurück, die bei einer C100 verloren sind.
Nun, wer setzt die C100 ohne externen Rekorder ein? Das Team C100/Ninja2 ist unschlagbar, sowohl was den Preis als auch das Ergebnis angeht.
Antwort von Jott:
Leute, die die Kamera besitzen, den Workflow von Aufnahme bis Endprodukt durchgespielt und entschieden haben, dass der Bordcodec mit Log-Aufzeichnung für ihre Zwecke völlig ausreicht.
Muss ja nicht für alle Jobs gelten, aber H.264 geht für vieles wunderbar.
Antwort von Paralkar:
Richtig, abgesehen davon bleibts ein 8 bit Signal, das nervt auch bei der C300
Und bevor ich extern Aufzeichne, hol ich mir doch oftmals eher eine andere Kamera
Sony find ich da beispielsweise im Moment der hammer, F5, hohe Bildrate, rauscharmer Sensor, 10 bit 422 Codec.
Klar ne C100 ist deutlich günstiger
Antwort von iasi:
Während dem Dreh ist die Scarlet schlicht einfacher und tolleranter als die 8Bit 4:2:0 - den DR ausgenutzt und in der Post bekommt man die Zeichnung in den Lichtern zurück, die bei einer C100 verloren sind.
Nun, wer setzt die C100 ohne externen Rekorder ein? Das Team C100/Ninja2 ist unschlagbar, sowohl was den Preis als auch das Ergebnis angeht.
Und was kommt dann am externen Rekorder an?
ProRes ergibt z.B. kaum kleinere Dateien als RedRaw - wobei RedRaw dennoch mehr Bearbeitungsspielraum bietet.
Handlichkeit und Stromhunger sind bei einer Red im Vergleich zu einer C100 natürlich ein Nachteil.
Antwort von WoWu:
Während dem Dreh ist die Scarlet schlicht einfacher und tolleranter als die 8Bit 4:2:0 - den DR ausgenutzt und in der Post bekommt man die Zeichnung in den Lichtern zurück, die bei einer C100 verloren sind.
Wann begreifst Du es endlich, dass FullWell immer ausgebrannt ist, egal wie die Verarbeitung hinterher stattfindet.
Es ist einfach falsch, was Du sagst.
Wenn der Sensor gesättigt ist, ist er gesättigt und das änderst Du auch mit der Scarlet nicht.
Das ist wirklich Humbug.
Antwort von Francisromao:
da wird C !00 und C 300 von einige immer verwechelt bzw. "vermischt".
Zwischen den beiden Kameras bestehen aber einige wesentliche Unterschiede: etwa im Sucher, die C 100 hat einen kurzen und schwierig verwendbaren Sucher, dann vor allem im Codec und schließlich kann die C 300 auch mit PL-Mount gekauft werden, während die C 100 nur EF ist.
Und natürlich gibt es dann noch eine ganz Liste von anderen Unterschieden.
Die C 300 ist außerdem eine ganz hervorragende Kamera und stellt alle REDs in den Schatten, auch wenn sie keine RAW-cam ist, sie ist aber nur schwer für Einmannfilmen geeignet.
Antwort von Paralkar:
Genau das ist eine Aussage, die total unüberlegt und schwachsinnig ist,
Sie stellt alle Reds in Schatten, auf was bezogen?
Antwort von j.t.jefferson:
da wird C !00 und C 300 von einige immer verwechelt bzw. "vermischt".
Zwischen den beiden Kameras bestehen aber einige wesentliche Unterschiede: etwa im Sucher, die C 100 hat einen kurzen und schwierig verwendbaren Sucher, dann vor allem im Codec und schließlich kann die C 300 auch mit PL-Mount gekauft werden, während die C 100 nur EF ist.
Und natürlich gibt es dann noch eine ganz Liste von anderen Unterschieden.
Die C 300 ist außerdem eine ganz hervorragende Kamera und stellt alle REDs in den Schatten, auch wenn sie keine RAW-cam ist, sie ist aber nur schwer für Einmannfilmen geeignet.
Genau :D
Also für mich ist die Red die beste Run 'n Gun Kamera.
Hab HDR, muss nicht ständig auf den weissabgleich achten und muss auch nicht immer 100% mit der ISO liegen. Außerdem kann ich den Mount auswechseln indem ich einfach 4 Schrauben löse. Mit welcher Kamera könnte ich sonst, Lomos, PL-Optiken und popelige EF Objektive draufklatschen.
Aber jeder hat halt seine Art zu arbeiten :)
Jetzt kommt bestimmt wieder das Argument, RAW zu bearbeiten ist aufwändig aber ich lass mal den Screenshot hier:
http://i1.ytimg.com/vi/GE8rZz5GIW8/maxresdefault.jpg
Wer da nicht klar kommt ist zu bemitleiden .
Gruß
Antwort von WoWu:
RAW ist immer nur so aufwändig, wie man die Vorzüge von RAW nutzt.
Wenn man ein RAW File nimmt und es über eine "Entwicklung" zieht, in der man weder ins De-bayering noch in andere, wesentliche Parameter eingreifen kann und hinterher nur noch ein entsprechendes LUT drauflegt, dann ist RAW bestimmt nicht aufwändig, dann hat man aber auch die eigentlichen Vorteil verpasst und könnte gleich ein Log File nehmen.
Und solche Schlagworte wie "Belichtung" sind in jedem andern File auch möglich, denn das ist nichts weiter als die Verschiebung des Arbeitspunktes der Verstärkung und ein WB Shift kann ich auch bei jedem andern File machen, dazu braucht man kein RAW. Und wenn ich sowieso mein 709 LUT rübergezogen habe ... tja, was bleibt dann eigentlich ?
Ach ja, der magische Sensor, an dem man selbst aus gekloppten Werten wieder die Originalwerte machen kann ... aber das hatten wir ja schon.
Es bleibt eigentlich nur, dass mein Originalfile farbraumneutral ist, sofern ich mir das nicht schon bei der "Entwicklung" versaut habe - und ich hinterher (vielleicht) noch eine Version in einem andern Farbraum ziehen kann.
Selbst der Vorteil einer grösseren Dynamik ist dann mittlerweile bei 8 oder 10 Bit gelandet, je nachdem, wohin ich wandle.
Tja, was bleibt noch ? Ein riesiges File ... klar.
Insofern ist RAW ganz sicher nicht aufwändig, hat in einem solchen Workflow aber auch keine wirklichen Vorteile mehr.
Die hat man nämlich in der Einfachheit der Bearbeitung mittlerweile verloren.
Ach ja, Codecfreiheit ... Grosser Gott, die Codecs sind heutzutage so gut, sofern man nicht irgend eine Version aus dem Mittelalter nimmt, dass man schon sehr genau hinschauen muss.
Aber will man wirklich die Vorzüge nutzen, dann wird man wohl schon in einen etwas tieferen Workflow gehen müssen, den ein fertiges TIFF sowieso nicht mehr bietet, denn da ist die Frage nach wie vor, was da eigentlich noch RAW dran ist.
Aber es ist eben richtig ... jeder hat seine Art zu arbeiten und seinen eigenen Qualitätsanspruch.
Antwort von iasi:
Prores und raw der bm-cams unterscheiden sich bei der arbeitsweise während des drehs ebenso, wie in der Postpro - nur mal als beispiel
in der Praxis schaut man bei der red doch nur, dass der dr bestmöglich genutzt wird und erhält dann den Spielraum in der Post.
Wer in der postpro nicht die Zeit hat, kann während des drehs das Bild "fertig machen" und prores und vorschaumonitor nutzen.
Antwort von WoWu:
in der Praxis schaut man bei der red doch nur, dass der dr bestmöglich genutzt wird und erhält dann den Spielraum in der Post.
Das macht man bei jeder andern Kamera auch, denn die DR ist immer der Bereich zwischen FW und dem Rauschanteil des Sensors.
Insofern unterscheiden sich die Kameras nicht und auch bei der Red hat man diesbezüglich keinen weiteren Spielraum.
Jede Kamera macht RAW nur einige geben es nicht heraus sondern erledigen die Verarbeitung in der Kamera und nutzen dabei die kameraspezifischen Eigenschaften, was dem Signal sogar häufig zugute kommt, weil sie vor Kompressionen liegt.
Andere komprimieren das Signal erst, bevor sie es heraus geben und dann ist die Weiterverarbeitung nur noch so gut, wie die nachfolgende Software und die benutzten Tools auf der Basis der vorangegangene Kompression.
Die ganze Adobe Verarbeitung beruht beispielsweise auf Interpretationen, die niemals so gut sein können, wie eine Verarbeitung in der Kamera.
Etwas anders liegt es, wenn alle Metadaten von der nachfolgenden Verarbeitung benutzt werden. Solche Programme sind aber eher selten und nur im professionellen Bereich zu finden.
Antwort von iasi:
Und das ist eben der unterschied bei der arbeitsweise:
in der Kamera und somit während des drehs oder eben in der Post.
red liefert eine Software, die sicherlich mit einer kamerafirmware mithalten kann
z.b. wenn ich bei tageslicht auf die farbtemperatur oder weißabgleich keinen Gedanken verschwenden muss, spart dies Zeit während des drehs und erleichtert auch und vor allem bei dokus die arbeit
was in raw oft noch steckt, sehe ich oft z.b. bei bmcc-raw, wenn ich in resolve die Details in den lichtern herauskitzle - bei anderen formaten muss es bei der Aufnahme passen.
zudem kann man eben für jeden bildbereich über den maximalen Spielraum in der postpro verfügen
Antwort von WoWu:
Das sind viele "Schlagworte": -rauskitzeln, nicht drauf achten, später machen, Abgleich hinterher usw.
Wenn Du mit einer 10 Bit LOG korrekt arbeitest ist das Endformat besser als wenn Du mit RAW 'hinterher .... reparierst".
Klar bist Du schneller, wenn Du luschig arbeitest und es in der Post reparierst.
Aber Du kannst aus einem geklippten Signal keine verwertbaren Informationen mehr machen und Du hast spätestens, wenn Du ein Endprodukt fertigst, das keine 16/14 oder12 Bit mehr hast, auch keine weiteren Abstufungen oder Feinheiten. Ganz im Gegenteil.
Und den WP- Shift bzw. Farbtemperstur kannst Du mit jedem andern Signal ebenso machen.
bei anderen formaten muss es bei der Aufnahme passen.
Spruch !
wenn ich bei tageslicht auf die farbtemperatur oder weißabgleich keinen Gedanken verschwenden muss
Amateurkram, weil kein Profi wird so arbeiten.
red liefert eine Software, die sicherlich mit einer kamerafirmware mithalten kann
Spruch, weil es nicht stimmt, denn ein RAW Format ist lediglich die billigste Art, um um eine Verarbeitungssoftware in der Kamera herum zu kommen.
Das ist nun wirklich kein Ding und da kommt jeder Kamerahersteller mit, weil jede Kamera intern RAW arbeitet - nur andere Kameras interfacen das nicht nach draussen, weil interne Verarbeitungen, wenn sie mit der nötigen Rechenpower hinterlegt sind, deutlich besser sind, als externe Verarbeitung.
Denn sie geschieht VOR der Datenreduktion.
Solange Du also nicht genau die Vorzüge nutzt, die eine professionelle Nachbearbeitung von RAW bietet (und das fang beim De-bayering an), sondern RAW nur benutzt, um am Set möglichst viel Pfusch machen zu können, ist das vermutlich genau das Richtige für Dich, aber erzähl mir nix, dass dann auch noch bessere Ergebnisse dabei heraus kommen.
Antwort von rush:
z.b. wenn ich bei tageslicht auf die farbtemperatur oder weißabgleich keinen Gedanken verschwenden muss, spart dies Zeit während des drehs und erleichtert auch und vor allem bei dokus die arbeit
Das ist prinzipiell schon richtig.... aber durch Raw und Co kann natürlich (Achtung: überspitzt) fast jeder Bilder drehen - ohne sich mit grundlegenden Kameraeinstellungen vertraut gemacht haben zu müssen. Ob man das nun gut findet muss wohl jeder selbst entscheiden.
Es hat Vorteile - birgt aber eben auch Gefahren in der Form das sich fast jeder als begnadigter DoP schimpfen kann auch wenn er vllt. keinerlei Ahnung von Farbtemperatur oder sonstigen Dingen inne hat. (Achtung: ebenfalls überspitzt...).
Demnächst kommt noch die Lightfield-technik und dann brauch man sicht nicht mal mehr um die Schärfe kümmern... Getreu dem Motto: Macht doch eh alles die Post.... (Achtung: Am Überspitzesteeeeeen :D )
Antwort von Paralkar:
Ja Leute, ihr übertreibt es auch, Raw ist jetzt nicht umbedingt was schlechtes.
Klar sollte ich mir über WB auch schon davor Gedanken machen, damit mir im Nachhinein nicht einer der Farbkanäle geclippt ist bei dem gewünschten WB, vielleicht brauchts bei der rosa leuchtstoffröhre dann doch noch 1 nd drum rum.
Das Processing in der Post ist nicht unbedingt so übel und unnütz wie ihr beschreibt, klar in den meisten Fällen hat man oder nimmt man kein Einfluss auf das Debayering, abgesehen von WB, Tint und Iso, aber ich kann natürlich noch komplett selbst quantifizieren und das kann schon sehr vorteilhaft sein, es ist noch keine Kurve drauf, die die Verteilung bestimmt, anders als bei arri prores 4444 log.
Ich würd behaupten in den meisten fällen reicht die Kurve bzw. die Verteilung komplett aus und sie setzt das Augenmerk und die Wichtigkeit dorthin wo man will.
Aber mit dem Raw könnte man es auch ganz anders machen.
Dann kommt noch der Farbraum hinzu, der frei gewählt werden kann.
Also ganz sinnlos ist das nicht.
Aber oftmals reicht ein Log Signal vollkommen aus, Raw ist halt deutlich aufwendiger
Antwort von WoWu:
Aber dann hast Du genau die Amateuanwendung damit beschrieben, denn zu jeder RAW Verarbeitung (ebenso wie zur LOG Anwendung) gehören eigentlich die exakte LUT, damit Du zunächst genau die Reproduktion dessen bekommst, was Kameramann und die Lichtsetzung am Set gemeint haben.
Nur der Amateur kurbelt (floating) von der Grundlinie.
Denn RAW ist ebenso wie LOG lediglich ein Übertragungsverfahren und kein "Tinting".
Ich weiss ja nicht, wie das mit Deinen Produktionen ist, aber zunächst haben erst mal die Leute Recht, die am Set arbeiten und hinterher das Produkt verantworten, denn die wissen genau, was gemeint ist und nicht die, die hinterher Nachbearbeiten.
Aber ... wenn's auch zum Ziel führt ... klar, warum nicht?
Und solche Sachen wie die WB machst Du ja im de-Bayering.
Das, was Iasi da meint, ist nur noch ein Shift und gar keine WB.
Abgesehen davon sagt kein Mensch, dass RAW sinnlos ist, es bringt nur nix, wenn man die eigentlichen wirksamen Tools gar nicht benutzt.
An WB(Shift), Tint und Verstärkung (ISO) kannst Du auch bei jedem andern Format mindestens genauso wirksam drehen.
Antwort von Paralkar:
Naja, wenn du bei nem ProRes den WB änderst oder Verstärkung oder sonst was hast du schon ein komprimiertes Material, dadurch steigern sich Fehler, Artefakte etc.
Außerdem es geht doch immer darum nur sinnvoll platz in der Post zu lassen, also sich die Möglichkeit offen zu halten. Ich hab schon oft die Erfahrung gemacht, das der Kunde am Ende in der Post schon nochmal was anders gemacht hat als wie es am Set geplant war, was jetzt das Grading betrifft.
Ich will garnicht sagen, das du unrecht hast, ich arbeite auch sehr gerne mit log material, es gibt mir oftmals alles was ich brauche.
Aber Raw bietet einem die Freiheit, wie gesagt Kurve,
Als Beispiel, ich hab mal von einem Vortrag über Gammakurven bei Unterwasser-Aufnahmen von unsere Meere gehört.
Da bringt dir Raw vielleicht wirklich viel, weil du deine Verteilung nicht auf einer festgeschriebenen Log-Kurve hast, sondern selbst bestimmen kannst, wo dein Schwerpunkt liegen soll.
Oder stell dir vor, absolute High Key Aufnahme, da bringt dir doch ne C-Log Kurve vielleicht weniger?
Abgesehen davon sieht man es an der bmcc, bei ProRes Recording sind schonmal Artefakte dabei, bei extremeren Situationen
Antwort von WoWu:
Wir streiten uns gar nicht darüber ob RAW einsetzbar ist oder nicht, wir benutzen es für Ausbelichtungen selbst, aber dann wird entlang der Metadaten im Belichter vom Originalmaterial gearbeitet und nicht von einer TIFF Kopie.
Und wir streiten auch gar nicht darüber, dass so eine Verarbeitung besser sein kann als eine 8Bit 4:2:0 aber schon bei 4:4:4 wird es verdammt schwer auch nur noch ein vernünftiges Argument zu finden, zumal die Codecwirkung da bereits relativ klein -bis gar nicht- mehr ist.
Nur mit besser werdenden Algorithmen und besser werdenden Codecs rutscht die RAW Notwendigkeit immer weiter nach unten.
Und wenn man solche Tools einsetzt, die RAW Formate erst interpretieren, bevor sie ein Bild daraus machen, da läuft ein vernünftiges LOG Signal dem RAW aber allemal den Rang ab.
Und wenn ich solche Argumente wie oben - I'll fix it in the post"- höre, dann kann ich mir schon gut vorstellen, was hinten herauskommt. Aus einem versauten TIFF kann man nämlich auch kein GOLD mehr machen.
Also, wie gesagt, wir streiten gar nicht. RAW hat, wenn man an den richtigen Stellen dreht, schon Vorteile, speziell, wenn als Alternative nur ein unbrauchbarer Code steht, für den alle Kanten erst einmal angespitzt werden müssen, bevor er überhaupt vernünftig wirkt.
Und wenn der Kollege, um den es im Titel geht, aus seinem RAW nämlich auch nix anderes gemacht hat als -"mach ich in der Post"- dann kommt er mit einem einfachen "Run&Gun" Recorder auch ganz gut klar.
Mehr sagt er eigentlich nicht. Und das kann ich gut nachvollziehen denn ein sauberes Recording in einem 10 Bit LOG und einem vernünftigen Codec ist heute schon verdammt gut.
Und Canon implementiert AVC super-Sahne.
Antwort von didah:
RAW ist immer nur so aufwändig, wie man die Vorzüge von RAW nutzt.
das ist doch auch nur halb-richtig.... wenn ich mir mal anseh, wielang der render eines timelapses braucht, den ich zum einen in RAW hab und zum anderen in jpegs... well....
kommt natuerlich immer auf die produktion drauf an, aber wenn ich mir mal anseh, was wir so machen, und voallem in welcher geschwindigkeit... angenommen wir wuerden unsere sachen in raw drehn muessten wir schon allein wegen der renderzeiten in etwa die doppelte zeit einplanen. nicht nur einmal, dass eine ansage wie "koennts ihr nicht noch schnell einen 10 minueter ueber xyz drehn, in 2 wochen habens wir dann im sendeplan" von der tv station kommt...
time is money and raw is time consuming....
lg
didah
Antwort von Tiefflieger:
Als Amateur kann ich mir "Purismus" leisten.
Harte Schnitte und "native" selbst gekürztes Material in "Kopierzeit" ohne Rendern aneinanderfügen.
Das ganze in Original und in korrekt eingestellter 3-Chip Kameraqualität in 1080p50, was will ich mehr?
Meine Kamera macht selbst in schlechtem Licht mit 1/25s Belichtungszeit fünfzig einzelne Frames pro Sekunde mit zwischenbildern (zwischenauslesen/HDR).
Bzw. die Kamera ist ja nahe am Original (parametrisiert). Mit RAW hat man bereits ein Sample (vom Belichtungsmesser abgelesen).
Die Konsumerwelt ist 8 bit, bestenfalls in true color. 8 Bit eingeschränkt geht über HDTV bis BluRay und es muss nichts ausgebrannt oder in falschen banding Farben sein.
Selbst in Kinos konnte eine BluRay Vorführung nicht erkannt werden.
Gruss Tiefflieger
Mir ist auch klar, dass ein Projekt/Szenen wegen fehlender Qualität nicht wiederholt werden kann (Reserve und folgend die ganzen directors cut in 4K und 8K Streaming die wir als Konsument irgendwann kaufen dürfen).
Antwort von iasi:
Aber dann hast Du genau die Amateuanwendung damit beschrieben, denn zu jeder RAW Verarbeitung (ebenso wie zur LOG Anwendung) gehören eigentlich die exakte LUT, damit Du zunächst genau die Reproduktion dessen bekommst, was Kameramann und die Lichtsetzung am Set gemeint haben.
Nur der Amateur kurbelt (floating) von der Grundlinie.
Eben genau dies nicht - das hatte man zu Filmzeiten nicht, weshalb will nun eigentlich jeder auf einen Videomonitor am Set starren?
Es ist EB-Denken, wenn man nach einem Videobild drehen will.
Dann braucht es auch kein Raw, denn man wendet eh schon während des Drehs die Zeit auf, um ein Videobild zu erzeugen, das dem Ergebnis nahe kommt.
Man kann Licht und Bild auch ohne Videobild beurteilen - das konnten die Leute früher schließlich auch.
Heute stehen einem gar noch zusätzliche, hilfreiche Tools dazu zur Verfügung.
Antwort von Yaso:
Die Antwort ist ganz einfach: Kontrolle. Wenn ich mein Geld in ein Projekt investiere, will ich bei den Dreharbeiten schon ganz genau wissen, wie es am Ende aussehen wird.
Antwort von iasi:
Das sind viele "Schlagworte": -rauskitzeln, nicht drauf achten, später machen, Abgleich hinterher usw.
Wenn Du mit einer 10 Bit LOG korrekt arbeitest ist das Endformat besser als wenn Du mit RAW 'hinterher .... reparierst".
Klar bist Du schneller, wenn Du luschig arbeitest und es in der Post reparierst.
Aber Du kannst aus einem geklippten Signal keine verwertbaren Informationen mehr machen und Du hast spätestens, wenn Du ein Endprodukt fertigst, das keine 16/14 oder12 Bit mehr hast, auch keine weiteren Abstufungen oder Feinheiten. Ganz im Gegenteil.
Und den WP- Shift bzw. Farbtemperstur kannst Du mit jedem andern Signal ebenso machen.
Warum sollte ich geklippte Signale haben, wenn ich darauf achte, dass der DR genutzt wird?
Zudem komme ich lieber von hohen Bit-Raten, die ich "gezielt", also in verschiedenen Bildbereichen, bearbeiten kann.
Es geht doch nicht um reparieren, sondern um gestalten.
Wenn ich bei einem Doku-Dreh zwei Männer vor einem im Schatten liegenden Holzhaus habe, die ein Schwein schlachten, und im Hintergund sind die Berge schon von der Sonne bestrahlt, dann kann ich mit meiner Red immerhin sowohl die Lichter als auch die Schatten im DR halten und später die Personen aufhellen und die Wolkenzeichnung erhalten.
Dabei belasse ich die ISO-Einstellung wie immer auf 320 und kümmere mich auch nicht um WB oder ähnliches, sondern kann mich darauf konzentrieren, was vor der Kamera geschieht.
So ist das eben bei einer Doku: Die Männer warten nicht auf das Sonnenlicht und das Schwein mit dem Sterben nicht bis ich den Weißabgleich gemacht habe.
Mithilfe des Histograms der Red konnte ich bisher immer vermeiden, dass die Lichter clippen - Grundeinstellung mit ND-Filtern und dann die Blende angepasst.
Interessanterweise kam ich bei meinen Doku-Drehs auch nur sehr selten in die Lage, dass der DR nicht ausgereicht hat und (abgesehen von Nachtaufnahmen) die Schatten zu weit abgesackt sind - bei ISO320.
Ich vermeide jedoch auch möglichst Situationen, bei denen dies geschehen könnte - also z.B. große, sonnenbestrahlte Fensterflächen im Bild bei Innenaufnahmen, die ich nicht ausreichend ausleuchten kann.
Auch halte ich mit meiner Red nicht in die Sonne und überbelichte den Hintergrund- dies mag z.B. mit einer Alexa vielleicht bis zu einem gewissen Maße noch gehen, aber eine Red MX hat hier keinen sonderlich weichen Übergang ins Weiß.
Jedenfalls bin ich während des Drehs lieber möglichst schnell und erhalte auch in abgelegenen, verschneiten Höhen ohne Stromanschluss und mit nur einer Kamera mehrere Einstellungen der Schlachtung und nehme mir dann am Rechner etwas mehr Zeit.
Und um es gleich mal vorbeugend zu ewähnen: Bei allen Einstellungen passt alles schön in den DR und nichts clippt.
Antwort von iasi:
Die Antwort ist ganz einfach: Kontrolle. Wenn ich mein Geld in ein Projekt investiere, will ich bei den Dreharbeiten schon ganz genau wissen, wie es am Ende aussehen wird.
Dann verschenkst du all die schönen Möglichkeiten, die die modernen Programme so bieten.
Die Videovorschau am Drehort liefert dir nicht das, was du aus RAW herausholen kannst.
Frag dich doch auch mal, wie das mit Filmkameras war und ist. Da fehlt dir die von dir gewünschte Art der Kontrolle auch.
Schärfe, Bildausschnitt und Bewegungen kannst du auf dem Videomonitor am Set kontrollieren - mehr nicht.
Antwort von Jott:
Schweineschlachten-Dokus im Schatten konnte man auch schon filmen, als es kein Raw gab. Geht natürlich auch heute ohne Raw, sonst gäbe es keine Dokus im Fernsehen (oder willst du ernsthaft behaupten, so was wird nur noch mit REDs produziert?). Man muss nur seine Kamera kennen. Bleiben wir doch bitte auf dem Teppich.
Antwort von Yaso:
Meinen Abschlussfilm haben wir auch auf einer RED gedreht:
Für meine tägliche Arbeit brauche ich aber kein Raw. Meine Kunden wollen am Set gute Bilder sehen. Im Moment drehe ich mit meiner Canon 5D Mark II, Canon 7D oder der Sony NEX-FS100 - die kann ich nämlich alleine bedienen :D. Die C100 finde ich vom Handling her angenehmer und wenn ich mal upgraden sollte - in ferner Zukunft -, dann am ehesten auf diese Kamera.
Antwort von WoWu:
@Iasi
Du würfelst immer ein paar Dinge durcheinander.
Oben sagst Du noch, Du kann aus geklipptem Material wieder Signale "rauskitzeln", was völliger Quatsch ist, denn wenn der Sensor (oder der Signalweg) klippt geht das weder bei der Red noch bei einer andern Kamera.
Jetzt sprichst Du wieder von Auflösung und Dynamik und vergisst, dass Deins RED Dynamik, wenn sie (wie das material aus der C100) hinterher in 8 Bit landet, all die hübsche Auflösung auch gegen Banding eingetauscht hat und Deine "Schlächter" auch wieder im Schatten verschwunden sind oder Deine Sonne anffängt zu glühen.
Du fängst also an Äpfel mit Birnen zu verwechseln.
Und was Dein Prozedere am Set angeht, wo der Kameramann sowieso nicht mehr sehen will/muss, wie das Bild gestaltet ist ... da kann ich nur sagen ... prima, lassen wir demnächst auch die Kontrollmonitore einfach weg.
Und wenn Du sagst, dass man das auf dem Monitor sowieso nicht sieht, dann magst Du Recht haben, deswegen sagte ich oben auch, dass man sowas auch durch die nötige Kenntnis der Dinge oder Erfahrung ersetzen kann und denen, die dann sagen ... mach ich sowieso alles in der Post... fehlt eben beides.
Und hast Du schon mal nachgerechnet, um wieviel Deine Dynamik zusammenbricht, wenn Du in der Post von ISO 320 um zwei Blende nachziehst und was -alternativ- mit Deinem Bild passiert wäre, wenn Du das am Set ausgleichen hättest ?
Ich bin ganz sicher, darüber hast Du noch nie nachgedacht.
Antwort von iasi:
Schweineschlachten-Dokus im Schatten konnte man auch schon filmen, als es kein Raw gab. Geht natürlich auch heute ohne Raw, sonst gäbe es keine Dokus im Fernsehen (oder willst du ernsthaft behaupten, so was wird nur noch mit REDs produziert?). Man muss nur seine Kamera kennen. Bleiben wir doch bitte auf dem Teppich.
Lies doch erst mal alles, bevor du den Teppich ausbreitest.
Wer behauptet denn, dass nur mit Raw Dokus gedreht werden können? Eher du, der du dies rauszulesen glaubst.
Klar kann man so tolle Dokus, wie sie ständig im TV flimmern, drehen - mit fast jeder Kamera.
Mir liegt aber eben auch etwas daran, dass die sonnenbeschienenen Berge nicht in heller Soße versumpfen oder die Schweineschlachter nur noch Silhouetten bilden. Mal ganz abgesehen von der unterschiedlichen Farbtemperatur.
Antwort von WoWu:
Dann vergleichst Du aber wieder Hollywood Cinema mit 8mm Schmalfilm.
Aber wenn Du hinterher deinen Hollywoodfilm auf 8mm überspielt hast, wird das Resultat nicht viel anders aussehen.
Denn solche Auflösungserscheinungen liegen an der menge der Quantisierungsstuffen und wenn du dann 65.000 mit 255 vergleichst, dann hinkt das, aber wenn in den 65.000 nur 32000 benutzt, weil Du eine Blende unterbelichtet hast (und das in der post ja nachziehen wolltest) dann entspricht das nach einer 8 Bit Wandlung nur noch 128 Verwertbaren Stufen, weil Du in der Post aus deiner unterbelichteten Blende nicht einen einzigen zusätzlichen Lichtwert gewinnst.
Fixing in der Post ist bei RAW ebenso amateurhaft wie schon die Unterbelichtung am Set.
Antwort von iasi:
@Iasi
Du würfelst immer ein paar Dinge durcheinander.
Oben sagst Du noch, Du kann aus geklipptem Material wieder Signale "rauskitzeln", was völliger Quatsch ist, denn wenn der Sensor (oder der Signalweg) klippt geht das weder bei der Red noch bei einer andern Kamera.
"scheinbar geclipptem Material" - nimm doch nur mal Resolve und BMCC-Raw-Material. Wenn du bei d Raw-Einstellungen von Rec auf BMCFilm wechselst, erhältst du mehr Zeichnung in den Lichtern - und per "Highlight recovery" gibt"s weitere Details.
Jetzt sprichst Du wieder von Auflösung und Dynamik und vergisst, dass Deins RED Dynamik, wenn sie (wie das material aus der C100) hinterher in 8 Bit landet, all die hübsche Auflösung auch gegen Banding eingetauscht hat und Deine "Schlächter" auch wieder im Schatten verschwunden sind oder Deine Sonne anffängt zu glühen.
Du fängst also an Äpfel mit Birnen zu verwechseln.
Wo bitte spreche ich von Auflösung?
Wenn ich in Resolve oder Speedgrade die Bildbereiche unterschiedlich bearbeite, dann verschwinden die Männer eben nicht im Schatten und die Berge nicht im Weiß.
Und was Dein Prozedere am Set angeht, wo der Kameramann sowieso nicht mehr sehen will/muss, wie das Bild gestaltet ist ... da kann ich nur sagen ... prima, lassen wir demnächst auch die Kontrollmonitore einfach weg.
Bei einer Filmkamera sieht man auch nicht das Ergebnis, sondern kann nur den Bildausschnitt, die Schärfe und die Bewegungen beurteilen.
EB-Leute mögen ja gern das Ergebnis während der Aufnahme festzurren und das Videobild auf dem Kontrollmonitor als fertiges Ergebnis ansehen - Raw erfordert meiner Meinung nach aber eben eher eine Arbeitsweise, die mehr aus dem Filmbereich kommt.
Und wenn Du sagst, dass man das auf dem Monitor sowieso nicht sieht, dann magst Du Recht haben, deswegen sagte ich oben auch, dass man sowas auch durch die nötige Kenntnis der Dinge oder Erfahrung ersetzen kann und denen, die dann sagen ... mach ich sowieso alles in der Post... fehlt eben beides.
Ja - da gebe ich dir Recht - man muss die Bildsituation beurteilen und z.B. nicht nur auf ETTR setzen, sondern auch im Auge behalten, wo sich die Gesichter im Histogramm wiederfinden.
Und hast Du schon mal nachgerechnet, um wieviel Deine Dynamik zusammenbricht, wenn Du in der Post von ISO 320 um zwei Blende nachziehst und was -alternativ- mit Deinem Bild passiert wäre, wenn Du das am Set ausgleichen hättest ?
Ich bin ganz sicher, darüber hast Du noch nie nachgedacht.
ja - wenn ich es am Set hätte ausgleichen können - darüber habe ich durchaus nachgedacht - und auch darüber, wie sehr ich die Schatten-Bildbereiche hochziehen muss, was ich ja durchaus gezielt machen kann.
Bei 8-Bit bekäme ich dann natürlich ein ziemlich unansehnliches Ergebnis.
Ich kann dann auch gezielt die Farbtemperatur in diesen Bildteilen etwas anpassen, damit der Unterschied zwischen kühlen Schatten und sehr warmem Sonnenlicht auf den Bergen, nicht zu groß wird.
So etwas geht natürlich nicht, wenn ich einen LUT drüberlege und mal schnell ein wenig nachreguliere.
Resolve und Co. bieten derart viele Gestaltungsmöglichkeiten, dass man ruhig etwas mehr Zeit damit verbringen sollte - so erhält man dann auch eher den "Filmlook", den ja alle immer anstreben (wobei der für mich eigentlich immer recht nebulös ist).
Antwort von iasi:
Dann vergleichst Du aber wieder Hollywood Cinema mit 8mm Schmalfilm.
Aber wenn Du hinterher deinen Hollywoodfilm auf 8mm überspielt hast, wird das Resultat nicht viel anders aussehen.
Denn solche Auflösungserscheinungen liegen an der menge der Quantisierungsstuffen und wenn du dann 65.000 mit 255 vergleichst, dann hinkt das, aber wenn in den 65.000 nur 32000 benutzt, weil Du eine Blende unterbelichtet hast (und das in der post ja nachziehen wolltest) dann entspricht das nach einer 8 Bit Wandlung nur noch 128 Verwertbaren Stufen, weil Du in der Post aus deiner unterbelichteten Blende nicht einen einzigen zusätzlichen Lichtwert gewinnst.
Fixing in der Post ist bei RAW ebenso amateurhaft wie schon die Unterbelichtung am Set.
Wenn ich in den Schattenbereichen mehr Abstufungen habe als bei 8Bit im gesamten Bild, dann kann ich durchaus etwas damit anfangen und auch bei einem 8-Bit-Ausgangsformat davon profitieren.
Du solltest nicht immer nur das ganze Bild betrachten und auch mal sehen, was man z.B. mit den Fensterchen und Qualifieren von Resolve so alles anstellen kann.
Wer aus dem EB-Bereich kommt, hat wohl immer nur das ganze Bild und ein paar Regler im Blick.
Antwort von WoWu:
Ich seh' schon, wir gehen von grundsätzlich unterschiedlichen Annahmen aus.
Meine Annahme ist, dass am Set bestimmt wird, wie das Bild hinterher aussieht und man bei (nicht nur bei) E-Aufnahmen das, was man nicht sieht, mit Know How auffüllt.
Deine Einstellung ist, es zu filmen, ohne es zu sehen und alles in der Post zu machen.
Geht natürlich, wenn das eine one-man show ist.
Da werden wir auch keine Annäherung finden. Nicht unsere Arbeitsweise.
Ach .. übrigens komme ich gar nicht aus dem EB Bereich sondern habe auch zuerst mit Film gearbeitet und wir machen immer noch auf Ausbelichtung, nur eben nicht mehr den Dreh auf Filmbasis.
Und irgendwo ist so eine Differenzierung ziemlich komisch.
Aber Deine Meinung ist wohl, dass die Filmleute nicht wirklich verstehen müssen, wie E-Kameras funktionieren. Als ob gute Bilder magisch von allein entstehen.
So wie Du das beschreibst, ganz bestimmt nicht. Das ist Amateurfilm.
Aber jetzt kommst du bestimmt gleich wieder (oder jemand anders) der sagt,: Die Story macht den Film.
Alles klar.
Antwort von rush:
Nönö macht ma ruhig weiter.... aber dreht Euch nicht zu sehr im Kreise... hier sitzen schließlich viele mit Popcorn oder Gänsebraten vor der Röhre und wollen auch mal wieder bunte Bilder, knallharte Testcharts oder wenigstens diffuse Zahlen/Zeichnungen whatever sehen :D
Antwort von iasi:
Ich seh' schon, wir gehen von grundsätzlich unterschiedlichen Annahmen aus.
Meine Annahme ist, dass am Set bestimmt wird, wie das Bild hinterher aussieht und man bei (nicht nur bei) E-Aufnahmen das, was man nicht sieht, mit Know How auffüllt.
Deine Einstellung ist, es zu filmen, ohne es zu sehen und alles in der Post zu machen.
Geht natürlich, wenn das eine one-man show ist.
Da werden wir auch keine Annäherung finden. Nicht unsere Arbeitsweise.
Ach .. übrigens komme ich gar nicht aus dem EB Bereich sondern habe auch zuerst mit Film gearbeitet und wir machen immer noch auf Ausbelichtung, nur eben nicht mehr den Dreh auf Filmbasis.
Nein - ich "sehe" durchaus, was ich filme. Und dabei betrachte ich keinen Monitor sondern beurteile das Bild eher so, wie man es früher beim Zonensystem gemacht hat (und noch macht).
Ich bevorzuge auch eher vorhandenes Licht bei einer Doku.
Und wenn ich mir den camera shootout 2012 so ansehe, stelle ich eben fest, dass die Raw-Teams weit weniger auf die Ausleuchtung geachtet hatten, als die Teams mit ihren Video/DSLR-Kameras, die sehr viel genauer sein mussten, um ähnlich Ergebnisse erzielen zu können.
"alles in der Post" sind deine - nicht meine Worte.
Ich weiß nicht mehr seinen Namen, aber in einem Artikel im Film&TV-Kameramann zur F65 meinte einer vom Fach, dass man das Bildergebnis bei Digitalen Cinema-Kameras nicht anhand von Videomonitoren am Set beurteilen solle, sondern anhand vom Histogramm - das Bild würde dann später "entwickelt". Und dem kann ich nur zustimmen.
Beim Blick durch den Sucher einer Filmkamera siehst du schließlich auch nicht das Endergebnis - und schon gar nicht anhand einer Videoausspiegelung.
Um das zu erwartende Ergebnis beurteilen zu können, bediente man sich verschiedener Messdaten.
Ich lese lieber das Histogramm und betrachte z.B. lieber Falsecolors als ein Videobild - daher kümmere ich mich auch nicht um ISO-Werte oder WB.
Wer nicht Raw dreht, wird eine andere Arbeitsweise wählen und natürlich einen Videomonitor nutzen, denn dann sind ISO, WB etc nicht mehr nur Metadaten.
Nur traue ich eben meinen Augen weniger als Messwerten, denn Weiß ist fürs Gehirn bei jeder Farbtemperatur Weiß.
Ich behaupte nicht, dass Raw automatisch zu besseren Ergebnissen führt - der Camera Shootout 2012 hat ja gezeigt, dass man auch mit 8-Bit-Kameras sehr gute Ergebnisse erzielen kann.
Für mich bietet Raw jedoch die Arbeitsweise, die mir am besten liegt -
und das änderen auch deine oft herablassenden, überheblichen Randbemerkungen nicht -
dieses "Amateur-Profi-Gerede" ficht mich mittlerweile nicht mehr an - schalte ich die Glotze an, denke ich oft: Zu den "Profis", die das gemacht haben, will ich nicht gehören.
"Profi" ist ja zudem auch der rumänische Hochzeitsvideofilmer, der "dafür" bezahlt wird.
Ich habe tolle Sache aus deutschen Landen gesehen - und leider auch sehr viel Schrott - und dabei spreche ich noch gar nicht mal vom Inhalt.
Alles von "Profis" gedreht - mit "Profi-Equipment"
Antwort von swf:
Auch ich interessiere mich für die c300 sehr. Was mir bei den gedrehten material immer wieder auffällt: in low contrast situationen ist die cam hervorragend, bei starken sonnenlicht eher enttäuschend.
Ich glaube es liegt einfach an den 8 bit. Gerade beim canon log bedeutet dies das noch mehr info verarbeitet werden muss, und damit die farbdifferenzierung noch weiter abnimmt. Das merkt man dann besonders in den flachen gesichstsfarben.
Es zählt in erster linie nicht die aufnahmequalität des sensors sondern eben die aufzeichnungsqualität daher der codec. Die c300 wird aber genau mit der sensorqualität beworben, obwohl diese vom codec kaum verarbeitet werden kann.
Als vergleich möge man sich bilder der ikonoscop mit 12 bit ansehen - da sind welten dazwischen gerade im direkten sonnenlicht.
Antwort von WoWu:
Du darfst natürlich keine 8 mit 12 Bit vergleichen und dann über die 8 Bit meckern :-)
Auf der andern Seite macht der Codec noch am Wenigsten.
Canon LOG hat einen Nachteil, der oft wenig Beachtung findet, aber oft zu der Annahme führt, die hellen Lichter seien nicht gut verarbeitet:
Es setzt auf der NTSC Norm auf und hat einen Offset, der vor der Verarbeitung beseitigt werden muss. Damit gewinnst Du die Dynamik in den Weissanteilen.
Macht man das nicht, sehen die hellen Stellen gestaucht aus.
Der Fehler liegt aber bei der Bedienung und nicht im Codec.
Antwort von swf:
Mir geht es einfach darum, dass 8 bit mit 256 stufen dem was der sensor kann einfach nicht gerecht wird. Bei canon log von 13,5 blenden entspricht dass nur mehr 17 bits pro bledenstufe, was gerade bei gesichtern problematisch sein kann (siehe xdcam user).
so als kaufst du einen sportwagen weil dessen motor 300kmh schnell ist, aber defacto kannst du nur nur 200kmh fahren weil das fahrwerk auf nicht mehr ausgelegt ist...
Canon hat den besseren sensor gegenüber sony, aber es fehlt meines erachtens bei der c300 ein entsprechender 10 bit codec, dies würde dann auch eine bessere farbwiedergabe ergeben und den preis eher gerechtfertigen.
Antwort von WoWu:
Ja, ja im Prinzip rennst Du da offene Tore ein, nur hat das ja einen Grund, warum das Teil nur 8 Bit macht.
Mit "nur" einem andern Codec ist es ja nicht getan. 10 Bit setzt ja ein deutlich schnelleres Processing voraus, das ihnen, so, wie die Kamera konzipiert ist, offenbar nicht zur Verfügung steht.
Die Gründe dafür mögen vielfältig sein. Es liegt also nicht am Codec. Der steht zur Verfügung.
Mal ganz davon abgesehen, dass 8 Bit in einer anständigen Verarbeitung gar nicht so schlecht ist.
Nur daran hapert es eben meistens und deswegen kommt hinten oft so ein Mistbild dabei heraus.
Aber im Prinzip hast Du schon Recht, es geht natürlich auch besser. Kommt immer auf die eigenen Qualitätsanforderungen an.
Nur kann man eben 10Bit Bilder mit einem falschen Processing ebenso versauen, wie 8 Bit.
Und das oben beschrieben Offset der Canon-Log Kurve spielt häufig dabei eine Rolle, weil nicht viele damit richtig umgehen können.
Aber das passiert denen dann auch bei 10 oder 12 Bit.
Antwort von swf:
Genau das ist das problem bei canon, wolfgang.
Nachdem sony einen neuen xavc codec entwickelt hat, sollte das für canon auch kein problem sein. Zumindest sollte die c300 10 bit extern in 2k zur verfügung stellen.
Ich selbst arbeite noch immer mit der ex1r, und mache damit sehr viel run and gun docus. Natürlich kommen die farben mit der c300 nicht mit, dies liegt meiner meinung nach jedoch eher am sensor als am sampling. Zudem erscheint sie mir fast schärfer als die canon.
Ich selbst suche nun seit geraumer zeit eine neue cam. Doch für meinen arbeitsstil bietet mir die canon zu wenig vorteile wenn ich bildqualität dem handling und dem preis gegenüber stelle. Ganz abgesehen ist mir das objektiv der sony wesentlich lieber als die bei der canon vor allem verwendeten fotoobjektive.
Für schnelles arbeiten ist die ex1r nach wie vor unübertroffen. Bei der neuen pmw200 fehlt mir der rotating gripp ( man dreht eben nicht permanent in augenhöhe), die pmw300 ist nicht mehr so schön kompakt.
Am ehesten interessiert mich noch die neue z100, die macht intern 2k in 10 bit, wobei sie dafür nur einen sensor hat. Wenn man aus einem kleineren sensor 10 bit in 4 k rauskriegt, gegenüber den 3 grössere sensoren bei der ex1r mit 8 bit so befürchte ich auch hier wieder versteckte nachteile, in der qualität.
Antwort von Jott:
Die kämpft mit Rauschen. Optik na ja. Ergonomisch erheblich schlechter als eine EX1. Wir haben eine, aber es stellt sich bisher keine Liebe ein.
Antwort von Frank Glencairn:
Ich seh' schon, wir gehen von grundsätzlich unterschiedlichen Annahmen aus.
Meine Annahme ist, dass am Set bestimmt wird, wie das Bild hinterher aussieht und man bei (nicht nur bei) E-Aufnahmen das, was man nicht sieht, mit Know How auffüllt.
Deine Einstellung ist, es zu filmen, ohne es zu sehen und alles in der Post zu machen.
Ich denke wir haben es hie mit einem Paradigmenwechsel zu tun.
Ein großer Teil der Kompetenz eines DP war es bisher, ein quasi fertiges Bild abzuliefern, und das ist es in meinen Augen immer noch.
Der Unterschied bei einem raw Workflow ist, es wird nur noch ein Teil dieser Arbeit am Set erledigt. Im Prinzip gehört die Arbeit am Bild in der Post jetzt auch dazu.
Vielen altgedienten DPs gefällt das natürlich gar nicht.
1. Ist oft weder die Zeit noch das Budget dafür vorhanden.
2. Haben sie oft keinen Nerv sich in die Technik einzuarbeiten
3. Macht das deshalb oft ein Anderer, und sie verlieren nicht nur die Kontrolle über ihr Bild sondern auch einen Teil ihrer Kompetenz.
Das wird sich in den nächsten Jahren aber grundlegend ändern.
Einige DPs, wie Rodney Charters haben- trotz ihres hohen Alters - schon jetzt kein Problem damit, und die nächste Generation ist sowieso schon daran gewöhnt.
Bisher war es immer der ganze Stolz eines DP, ein möglichst perfektes Ergebnis - direkt aus der Mühle - abzuliefern und auf alles andere wurde als "Fix it in Post" herabgesehen.
Bei raw gibt's aber nix zu fixen, weil nix kaputt ist.
Es ist nur ein anderer Workflow. Das bedeutet allerdings nicht, daß man nicht auf Lichttemperaturen, Über/Unterbelichtung, Clipping oder LightRatios achten muß. Raw bedeutet auch nicht, daß man irgendwie schneller beim drehen ist. Die Arbeit an der Kamera ist die selbe, nur mit anderen Parametern.
Der wirkliche Unterschied liegt in dem Zeitpunkt, wann man sein Bild "entwickelt". Bisher konnte man die "Entwicklung" mit allen möglichen und unmöglichen Parametern im Kamera Menü steuern. Danach wurde das Bild mit diesen Parametern eingebacken und der Spielraum danach, war relativ eng.
Bei raw, macht man genau das selbe, aber erst später, mit deutlich mehr Kontrolle, mit besseren Werkzeugen und vor allem reversibel.
D.h. wenn der Produzent im Nachhinein wieder mal seine Meinung ändert, kann man jederzeit zu dem Rohmaterial zurück gehen und ihm einen anderen Look verpassen oder andere Schwerpunkte setzen. Nicht, daß das vorher unmöglich war, aber es ist mit raw einfacher und flexibler.
Ein weiterer Punkt ist - das sieht man vor allem bei RED - daß mit einer neuen Software, oft auch neue Debayer Algorithmen kommen. Dann kann ich mein altes Material nochmal durch den ganzen Prozess jagen und nochmal ein Bisschen mehr raus holen.
Die Kompetenz des DP verschiebt sich in Zukunft also dahin, am Set beurteilen zu können, welches Potential das Material in der Post hat. Die Post wird sich vom "Reparaturbetrieb" mehr in Richtung "Entwicklungsbetrieb" verschieben und ihr schlechtes Image in diese Beziehung ablegen.
Antwort von DV_Chris:
Ein DP verliert durch Raw die Kontrolle über seine Arbeit, denn wie sollte der Grader, Colorist wissen können, wie etwa die Wirkung der Lichter am Set wirklich war? Und aus einem DP einen Coloristen zu machen, wird in der Praxis nur in den wenigsten Fällen funktionieren.
Man sieht ja auch heute schon, was rauskommt: artifizielle Lichtstimmungen, Pseudo HDR, usw.
Antwort von dirkus:
Ein Freund von mir hat gerade einen Kinospielfilm mit der Epic abgedreht (zum ersten Mal komplett in Raw mit der Red).
Die VÖ sollte eigentlich letzten Sommer sein, jetzt wirds wegen der langen Bearbeitungszeit in der Post wohl doch erst dieses Frühjahr werden.
Es ist halt die Frage, ob eine so lange Postproduktionsphase wirklich so sinnvoll ist, oder ob der Film dadurch eher kapputt produziert wird, wenn zwischenzeitlich 5x der Look geändert wird.
Ich merke das selbst, wenn ich an einem Musikvideo länger als eine Woche in der Post arbeite, dann werde ich unkonzentriert. Der ganze Elan geht irgendwie flöten, wenn man sich eine Szene 100Mal angesehen und durch irgendwelche Filter gejagt hat.
Antwort von Frank Glencairn:
Das ist ja genau was ich sage. In der Verantwortung eines DP liegt es nicht nur, von Anfang bis Ende die volle Kontrolle über sein Bild zu haben, sondern auch von Anfang an zu wissen wie es aussehen soll. Dann gibt es keine 100 Probiern-wir-mal-Filter.
Im Prinzip langt es ja, wenn der DP pro Szene oder Shot einen Frame als Referenz graded.
Die "lange Bearbeitungszeit" deines Kumples liegt nicht an raw oder dem Workflow, sondern daran, daß er entweder nicht weiß was er tut, oder nicht weiß wo er hin will, bzw das nicht schon am Set oder besser noch vorher festgelegt hat.
In einer typischen 8 Stunden Schicht, grade ich durchschnittlich 10 Minuten Film.
Also selbst mit Gefummel, ist ein Spielfilm in 2 Wochen durch. Länger dauerts nur wenn alle möglichen Leute denken sie müßten mitreden.
Antwort von dirkus:
Die "lange Bearbeitungszeit" deines Kumples liegt nicht an raw oder dem Workflow, sondern daran, daß er entweder nicht weiß was er tut, oder nicht weiß wo er hin will.
Das wollte ich damit auch nicht sagen.
Er ist wohl - genau wie der Produzent - so fasziniert von den neuen Möglichkeiten, dass es da nun an der nötigen Entscheidungsfreudigkeit fehlt und alles erstmal bis zum erbrechen durchprobiert wird.
Ich sitze auch manchmal stundenlang vor meinem Raw Rohmaterial und probiere alles aus. Die Möglichkeiten sind ja toll - aber man muss - wie du schon sagtest - wissen, was man will und sich dann auch entscheiden können.
Antwort von DV_Chris:
Frank, wie stellst Du Dir vor, soll ein Grader 'riechen', was sich der DP bei der Gestaltung einer Szene gedacht hat?
Antwort von WoWu:
@Frank
Es ist ja auch nicht so, dass man ein "nicht RAW" nicht graden könnte. Ganz im Gegenteil. dadurch, dass man nicht aus irgendwelcher "grauer Sosse" kommt hat der Nachbearbeiter sehr viel bessere Anhaltspunkte, weil es seinen normalen Sehgewohnheiten entspricht.
Daher ist ja auch der "normale" Weg der, dass man über ein LUT auf dem RAW arbeitet.
Die andern Vorteile sehe ich nur, wenn man die nötige Software und das Know How hat.
Z.B. zur Beseitigung des Moires ... dazu musst Du eine Kantenortbestimmung im De Bayerin vornehmen ... machst Du das ?
Z.B. Die Kantenaufstellung individuell der Szene anpassen. .. machst Du das ?
Z.B. die Festlegung des Farbraums.
Das wäre sinnvoll, wenn Du unterschiedliche Verwertungswege für Dein Produkt hast. ... hast Du die ?
Weisspunkt- shifts kann man ebenso in 'nicht RAW" Material vornehmen.
Du führst an, dass bei neuer Software verbesserte De-Bayering Algorithmen das Produkt verbessern ... wie oft verkaufst Du denn dasselbe Produkt ?
Das Märchen von der Belichtungseinstellung .... die ISO Einstellung wirkt auf den analogen Verstärker vor dem ADC. Damit verändert man bereits das Gesamtverhalten des Prozessweges. -Einschliesslich der Dynamik-
Die "Belichtung" die man hinterher in der Post einstellt, kann man auch bei "nicht RAW" durchführen.
Ich befürchte, die Meisten haben auch gar keine Software in der sie ein individuelles De-bayering durchführen und wenn ja, dann sind es vermutlich nur ein paar ganz wenige, die mit den De-Bayer Algorithmen umzugehen verstehen.
Also fallen sehr viele der guten Argumente schon durch's Rost weil das RAW Material auf eine Software trifft, die nix Anderes macht, als die in der Kamera und die hinterher auch ein Produkt in irgend einem (mehr oder weniger) linearem Farbraum rausrendert.
Mal ganz abgesehen davon, dass, je nach RAW, dazwischen noch jede Menge -mehr oder weniger- ungenaue Interpretation oder Codes liegen, die allesamt das Bild nicht besser gemacht haben und dazu kommt noch, dass die meisten Workflows mit ungezählten Renderschritten (dazu noch in 8 oder 10 Bit) das Bild auch noch vergurkt haben, denn einen Proxy Workflow haben auch nur ganz wenige. Das ist aber so ziemlich die einzige Methode, die hohe Qualität auch bis ins Endprodukt zu tragen.
Bottem Line... RAW ist "schick".... für die Meisten.
Es hat Vorteile, wenn man es in einem Proxy Workflow anwendet und/oder auf jene Parameter positiv einwirken kann, die sonst nur der Kameraelektronik zur Verfügung stehen.
Kann man das nicht, hat man lediglich die Bildpunktinterpolation und die Linearisierung auf eine externe Software übertragen.
Und- Hand auf's herz- die meisten stecken das Signal doch in eine Software und hinten kommt dann irgend ein -mehr oder weniger- flaches Bild heraus und kümmern sich weder um De-bayering, noch im irgend einen Schritt, den die Software dazwischen vornimmt und nehmen das entstandene Bild "as it is" und probieren dann, ein halbwegs lineares Bild wieder daraus zu machen.
Es sei denn, man hat gigantische Rechnerkapazität.
Ob das nun unbedingt besser ist, speziell wenn die Bilder vorher noch interpretiert werden, weil die Metadaten gar nicht mehr vorliegen, dass möchte ich einmal bezweifeln, weil keine Interpretation besser sein kann als die korrekten Verarbeitungsdaten.
Ich bin kein gegebner von RAW,-wir machen es für Ausbelichtungen selbst- aber es wird von vielen als das Allheilmittel präsentiert, das es nun wirklich nicht ist.
Und ich glaube auch nicht, dass ein Paradigmenwechsel stattfindet denn die Welt hat sich (farblich) ja nicht verändert und eine Landschaft sieht im Kino immernoch möglichst so aus, wie im Original.
Oder gibt es demnächst violettfarbene Himmel und rote Bäume ?
Antwort von Frank Glencairn:
Z.B. zur Beseitigung des Moires ... dazu musst Du eine Kantenortbestimmung im De Bayerin vornehmen ... machst Du das ?
Ich wünschte ich hätte eine Software die das kann. Moire ist bei Kameras ohne OLPF ein ständiger Sackgang Faktor.
Z.B. Die Kantenaufstellung individuell der Szene anpassen. .. machst Du das ?
Z.B. die Festlegung des Farbraums.
Das wäre sinnvoll, wenn Du unterschiedliche Verwertungswege für Dein Produkt hast. ... hast Du die ?
Ja, ja und ja.
Das Märchen von der Belichtungseinstellung .... die ISO Einstellung wirkt auf den analogen Verstärker vor dem ADC. Damit verändert man bereits das Gesamtverhalten des Prozessweges. -Einschliesslich der Dynamik-
Die "Belichtung" die man hinterher in der Post einstellt, kann man auch bei "nicht RAW" durchführen.
Auf die Wirkung der ISO Einstellung auf den analogen Verstärker vor dem ADC, würde ich - wenigstens bei den BM Kameras - nicht wetten.
Meiner Erfahrung nach sind das tatsächlich nur Metadaten, und egal was man an der Kamera einstellt, man kann in der Post das selbe Bild daraus machen. Gilt auch für den Weißabgleich, wir haben beides ausgiebig probiert. Der Einzige Unterschied ist bei 1600 ISO, wo ein paar bit mehr in den Schattenbereich geschoben werden - ist aber bekannt. Mag aber bei anderen Kameras anders sein. Keine Ahnung.
einen Proxy Workflow haben auch nur ganz wenige. Das ist aber so ziemlich die einzige Methode, die hohe Qualität auch bis ins Endprodukt zu tragen.
Sehe ich genau so. Wir arbeiten schon seit SD Zeiten entweder mit Proxies oder durchgängig unkomprimiert, bis zum Delivery, wenn es irgendwie geht.
Antwort von WoWu:
Auf die Wirkung der ISO Einstellung auf den analogen Verstärker vor dem ADC, würde ich - wenigstens bei den BM Kameras - nicht wetten.
Die BMC ist da, wie auch die Arri, eine Ausnahme, weil sie Dual-Conversion-Gains haben und insoweit die ISO Einstellungsverfahren nicht wirklich anwendbar sind nur wenn der Quantisierungsrahmen ausgenutzt werden soll, wird es eine ähnliche Funktion geben, sei es durch das Verschieben der Übergangspunkte o.Ä.
Ansonsten hättest Du in Deinem Signal einen Haufen "Nullen", was mindestens ebenso schlecht wäre.
In dem Fall dürft aber auch die ISO-Einstellung bei RAW gar nicht aktive sein, denn was nutzen Metadaten, die sagen... ich habe jetzt (ISO 500) eingestellt, die nichts in der Kamera bewirken. Denn der ISO Wert beschreibt ja einen Verstärkungsanstieg.
Warum sollte ich also mit Metadaten eine fiktive und gar nicht wirksame Verstärkung an die nachlaufende Software übermitteln ?
Nee, nee, da tut sich schon was in der Kamera.
Nur durch sie beiden Kanäle sind die Auswirkungen etwas anders.
Antwort von iasi:
man kann"s so oder so machen:
entweder das Bild schon während des Drehs ziemlich fertig produzieren
oder
die Entwicklung von Ausarbeitung in der Post vornehmen. (So, wie man es zu Filmzeiten eben auch gemacht hat.)
Dies bedeutet doch nicht, dass man als Kameramann die Kontrolle verliert und wild drauflosfilmen kann.
Man muss eben wieder wie zu Filmzeiten den Messwerten und Kenntnissen Beachtung schenken.
Zu wissen, wie das Bild schließlich aussehen wird, während man das Raw-Vorschau, das Histogramm usw. betrachtet, ist doch nicht viel anders, als der Blick durch den Sucher der Filmkamera und den Belichtungsmesser ...
Der Aufwand ist im ersten Fall während des Drehs etwas höher und die Gestaltungsmöglichkeiten in der Post etwas geringer.
Beim Camerashootout 2012 konnte man doch sehr schön diese Unterschiede beobachten.
Wer meint, er könne mit einer Raw-Kamera einen Film so produzieren, wie mit einer C100 liegt eben genauso daneben, wie derjenige, der beim Dreh mit einer C100 denkt, er könne in der Post noch so verfahren wie mit Raw.
Jeder sollte die richtige Arbeitsweise für sich und daraufhin die passende Kamera wählen.
Somit kann ich den Schritt die Red gegen eine C100 einzutauschen auch verstehen und nachvollziehen - für mich sieht dies eben anders aus.
Für mich ist die Red DIE Kamera, denn sie entspricht voll und ganz meiner bevorzugten Arbeitsweise.
Meine BMCC passt z.B. nicht so gut in diese präverierte Arbeitsweise wie meine Scarlet - obwohl ebenfalls Raw und trotz gutem DR.