Ziemlich sicher, ja.
Verstehe jetzt nicht was du meinst. Resolve ist für Filmschnitt mit Sicherheit kein Industriestandard in Hollywood, und die wenigsten Serien und Filme werden in Raw gedreht, schon gar nicht komplett.Darth Schneider hat geschrieben: ↑Mo 08 Mär, 2021 20:12 Ja aber die verzichten ja nicht nicht mehr gerne auf RAW , sonst wäre DaVinci Resolve wohl kaum inzwischen in Hollywood ein anerkannter Industrie Standart....
Schneiden kann man auch auf Avid, und Co...
Gruss Boris
Ich verdrehe deine Worte nicht. Vielleicht erklärst du mal, wie dein Verweis auf Schneiden mit Avid gemeint war, wenn es doch eigentlich um Grading geht? Was hat das eine mit dem anderen zu tun?Darth Schneider hat geschrieben: ↑Mo 08 Mär, 2021 20:15 @rdci
Nicht meine Worte verdrehen...
Da Vini Resolve ist selbstverständlich nicht für den Schnitt ein Industrie Standard in Hollywood, das hab ich auch nirgend geschrieben.
Aber aber natürlich für Colorgrading, das sogar schon länger...
Genau darum bietet BMD ja auch Control Panels an die so viel kosten wie ein Auto...;)))
Gruss Boris
Du machst ja eigentlich colorgrading professionell? Das was ich bisher erfahren habe, dass meistens dann RAW zum Einsatz kommt, wenn VFX gemacht wird, aber auch dann nicht immer....rdcl hat geschrieben: ↑Mo 08 Mär, 2021 20:14Verstehe jetzt nicht was du meinst. Resolve ist für Filmschnitt mit Sicherheit kein Industriestandard in Hollywood, und die wenigsten Serien und Filme werden in Raw gedreht, schon gar nicht komplett.Darth Schneider hat geschrieben: ↑Mo 08 Mär, 2021 20:12 Ja aber die verzichten ja nicht nicht mehr gerne auf RAW , sonst wäre DaVinci Resolve wohl kaum inzwischen in Hollywood ein anerkannter Industrie Standart....
Schneiden kann man auch auf Avid, und Co...
Gruss Boris
DANKE!pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49 Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
Also ich will ja nichts sagen, aber du warst es doch selbst der hier von DaVinci, Avid und Hollywoodstandards angefangen hat. Kann jeder hier nachlesen.Darth Schneider hat geschrieben: ↑Mo 08 Mär, 2021 20:23 Oh, Mann
Ich wiederhole mich nicht gerne zweimal...
In dem Threat geht es übrigens um das filmen in RAW, gar nicht um Colorgrading, aber egal.
Gute Nacht...pixelpeept mal schön weiter, viel Spass.
Gruss Boris
Ja aber genau das meinte ich auch...Abgesehen davon auch mit ProRes kann man Colorgrading machen
Aber lassen wir's gut sein, Montag ist so gut wie vorbei und morgen scheint wieder die Sonne!Darth Schneider hat geschrieben: ↑Mo 08 Mär, 2021 19:58 Ich schreibe es nochmal
Pures unnötigstes Pixelpeeping..ohne wirkliche Motivation...
Ausnahme: Sigma fp. Die kann optional 10bit und sogar 8bit-CinemaDNG RAW aufzeichnen.pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe.
Leider nicht mehr - siehe BRAW, Z-Cam "Raw" etc.etc.mash_gh4 hat geschrieben: ↑Mo 08 Mär, 2021 20:24DANKE!pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49 Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
genau so ist es!
RAW (ARRI/BM/RED etc.) nehmen mit 12 Linear auf und das debayert in der Post zu 16 bit LOG(von ein paar Ausnahmen mal abgesehen)pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe. Log geht aber schon und macht bei 12bit Formaten durchaus Sinn. Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet. Die Qualitativ nächst bessere Option zu RAW ist eben 10bit Log. Es ging wohl hauptsächlich darum heraus zu finden, welche Rolle der RAW Workflow (im Gegensatz zu anderen) unter den Forumsteilnehmern spielt.
Hui. Da wird also das Debayering nicht in der Kamera erledigt, sondern am Rechner. Überraschenderweise geschieht dies gleich als erste Rechenoperation und erzeugt - na schau mal an - Bilder mit einer bittiefe.mash_gh4 hat geschrieben: ↑Mo 08 Mär, 2021 20:24DANKE!pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49 Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
genau so ist es!
und da diesem umstand in den 20 nachfolgenden redebeiträgen nicht die geringste beachtung geschenkt wird, sondern nur weiter dieses unsinnige kindergartentehater rund um völlig vom jeweiligen verwendungskontext losgelöste bittiefen-angaben exzesse feiert, dürfte dieses faktum vermutlich ein aussagekräftigeres indirektes beurteilungskriterum über den zustand dieses forums bzw. den tatsächlichen wissenshorizont der aktiv an diskusionen beteiligten darstellen als es die auszählung der oben angekreuzten fragestellungen jemals erlauben wird.
Ich erinnere mich, dass der damals zweite Mann von Red zu einem großen Studio wechselte, um dort den Umstieg auf 4k-Workflow zu unterstützen. Damals gab es schon die 2.Generation von Red-Cams und auch 4k-Cams von anderen Herstellern wie Sony.Frank Glencairn hat geschrieben: ↑Mo 08 Mär, 2021 22:03 Was ist denn hier schon wieder los?
Euch kann man echt keinen Tag allein lassen ;-)
RAW (ARRI/BM/RED etc.) nehmen mit 12 Linear auf und das debayert in der Post zu 16 bit LOG(von ein paar Ausnahmen mal abgesehen)pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe. Log geht aber schon und macht bei 12bit Formaten durchaus Sinn. Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet. Die Qualitativ nächst bessere Option zu RAW ist eben 10bit Log. Es ging wohl hauptsächlich darum heraus zu finden, welche Rolle der RAW Workflow (im Gegensatz zu anderen) unter den Forumsteilnehmern spielt.
Und ja - mit 16bit kann man für gewöhnlich mehr anfangen als mit 10 bit - das sollte ja eigentlich nicht mal hier ne Frage sein.
Ist das immer nötig?
Nein, natürlich nicht - wenn man genug Ressourcen hat (Licht/Schatten, Setdesign, Crew, Zeit, Manpower etc) dann kann man mehr vom endgültigen Look am Set machen, und weniger in der Post.
Der raw Workflow unterscheidet sich - was die Komplexität betrifft - null vom Workflow mit z.b. ProRes oder sonstwas, deshalb spielt das auch keine Rolle.
Auf was Filme oder Serien gedreht werden, hat alle möglichen Gründe. Meistens geht's beim DP los, der ne bestimmte Kamera will, und dann halt auch der aktuelle Stand der Technik.
Game of Thrones wurde z.B. zuerst auf HDCam SR (Season 1) gedreht, dann auf ARRI raw (Codex) und ProRes 444 (Season 2) und am Ende sogar auf RED raw (Season 5).
Laut Shotonwhat wurden auf
ProRes 183 Filme gedreht, auf ARRI raw 237, auf RED raw 295, auf AVCHD 19,
auf Canon Cinema raw 18, auf Sony raw 10, auf XDCAM 10, Uncompressed 20, auf BM raw 9.
Das betrifft natürlich nur das, was da gelistet ist, und bei nicht jedem Film stehen die Angaben für den Codec - sollte aber als Anhaltspunkt reichen.
Ich denke mal, daß es in den letzten Jahren einen starken Trend gibt, raw zu drehen - schon weil alle anderen Codecs in der Post keinen Vorteil mehr haben. Oder anders herum - wer nicht aus irgendeinem Grund auf was anderes angewiesen ist, dreht heute raw, wenigstens bei einer kommerziellen Produktion, bei Hobbyfilmern mag das anders sein, schon allein wegen der üblichen "gut genug" Mentalität.
Was auf jeden Fall immer ne schlechte Idee ist: die Kombination aus 8bit und LOG/FLAT - da sollten es dann mindestens 10 bit sein.
Ist alles überholt. Und eh egal, wenn man mit 13 Blendenstufen filmt. Was nicht da ist, kann man nicht zeigen.
wobei man halt der ehlichkeit habler auch dazu fügen sollten, dass man leider mit diesen sehr stark eingeschränkten RAW-varianten wirklich kaum irgendwelche vorteile gegenüber den fertig gebackenen JPEGs od. h264 videos aus den betreffenden kameras realisieren kann.cantsin hat geschrieben: ↑Mo 08 Mär, 2021 21:38Ausnahme: Sigma fp. Die kann optional 10bit und sogar 8bit-CinemaDNG RAW aufzeichnen.pillepalle hat geschrieben: ↑Mo 08 Mär, 2021 16:49 Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe.
Gleiches für Canon-Kameras mit MagicLantern-Hack. Da geht zumindest Reduktion auf 10bit RAW.
Früher gab es auch Foto-Kameras mit 10bit-RAW-Stills, z.B. die Canon Powershot G2.
ja -- aber diesen schummel mit bezeichnungen muss man ja nicht mitmachen.
Was? Wie?
bitte lieber iasi mach dich einmal schlau, wie komplex dieser erste schritt -- also das debayering/demosaicing -- tatsächlich ist bzw. wie viele eingriffs- und verbesserungsmöglichkeiten sich hier im laufe der zeit aufgetan haben und laufend weiterentwickelt werden.iasi hat geschrieben: ↑Mo 08 Mär, 2021 22:25Hui. Da wird also das Debayering nicht in der Kamera erledigt, sondern am Rechner. Überraschenderweise geschieht dies gleich als erste Rechenoperation und erzeugt - na schau mal an - Bilder mit einer bittiefe.mash_gh4 hat geschrieben: ↑Mo 08 Mär, 2021 20:24 DANKE!
genau so ist es!
und da diesem umstand in den 20 nachfolgenden redebeiträgen nicht die geringste beachtung geschenkt wird, sondern nur weiter dieses unsinnige kindergartentehater rund um völlig vom jeweiligen verwendungskontext losgelöste bittiefen-angaben exzesse feiert, dürfte dieses faktum vermutlich ein aussagekräftigeres indirektes beurteilungskriterum über den zustand dieses forums bzw. den tatsächlichen wissenshorizont der aktiv an diskusionen beteiligten darstellen als es die auszählung der oben angekreuzten fragestellungen jemals erlauben wird.
Und mit diesen Bildern arbeitet dann die Gradingssoftware.
Es nutzt dann rein gar nichts, wenn das Debayering später stattfindet, wenn es sich um 8bit-Raw handelt.