Roki, das wird jetzt peinlich.
ja -- ich versteh das durchaus... aber es kann eben trotzdem verwirrung stifften...klusterdegenerierung hat geschrieben: ↑Sa 30 Jan, 2021 23:37 Das 4444 steht ja auch eher symbolisch in Bezug auf Raw, denn bei Raw gibt es ja keine Farbkomprimierung.
ja -- das stimmt schon!klusterdegenerierung hat geschrieben: ↑Sa 30 Jan, 2021 23:37 Das 4444 kommt ja vom ProRes 4444 und ist dort die höchste Quali und gibt keine Bittiefe mehr an, deswege gehe ich mal davon aus, dass das 4444 für kein subsampling und 16Bit steht, sofern ProRes 16Bit kann. :-)
.LOL :)Aaach, jetzt fällt es mir wie Schuppen von den Augen warum Du so darauf pochst, weil Du Dir ja extra eine Raw Cam gekauft hast, weil ja mal bei einem unglüchlich verlaufenden 8Bit Lut Grading ein unschönes banding aufgetaucht ist, wie bei mir bei 12Bit und da hast Du Dir schnelle die BMD gekauft.
OK jetzt kann ich das verstehen, man will sich ja nicht selbst in den A treten müßen. :-)
Das ist einfach nur falsch. Wie kommst du denn darauf?Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 08:14 Euch ist schon klar das etwa 80% aller Kinofilme weder in 10 Bit produziert noch jemals in 10 Bit geschaut werden, oder wurden.
Ich meine sogar Filme wie Jurasic Park....gibt es nur mit 8Bit...Um nur ein einziges ganz bescheidenes 8Bit Beispiel zu nennen.
Sind die zig tausenden anderen 8Bit Hollywood Filme deswegen jetzt schlechter, weil es jetzt 10, oder 12, oder 16 Bit gibt ?
Nein das sind sie ganz sicher nicht.
Immer die selben sinnlosen Diskussionen, hier, weil bei denen es ganz einfach kein richtig und falsch gibt. Ganz egal wie viele Male ihr das alles verdreht...;)
Und weil es ganz einfach überhaupt nicht relevant, für die aller meisten Menschen, ist spielt es doch ganz einfach auch überhaupt keine Rolle....;)))
@roki
In zwei Jahren wird dann geschrieben das 12 Bit nicht mehr genügt.
Was machst du dann ? Die Pocket weinend der Müllabfuhr mitgeben ?
Gruss Boris
Und du denkst 35mm hätte nur 8bit?Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 08:56
Es gibt unzählige Beispiele wie ich darauf kommen könnte....
Gruss Boris
Dann ist es ja offensichtlich schonmal falsch das 80% der Kinofilme nur in 8bit produziert wurden.
Keien Ahnung wie du darauf kommst, dass das ein Problem wäre. Selbst wenn man am Ende in 8bit liefert, hat man durch die Produktion und Bearbeitung in 10, 12 oder 16bit trotzdem massive Vorteile.Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 09:10 Das grösste Problem sind erst mal unsere Augen, die sehen die ganzen 12 Bit Farben nämlich gar nicht...
Ich will jetzt keine große Diskussion darüber starten, aber du behauptest hier gerade einfach irgendwas. Hast du irgendwelche Quellen dafür wie viele Filme mit 8 oder 16bit gescannt wurden?Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 09:20 @rdci
Produziert nicht, das wurde früher mit 35mm Film, aber nach dem drehen wurde früher oftmals der Film einfach erst mal so billig wie möglich auf DVDs gebrannt..
Und jetzt Heute kostet es bei den Meisten alten Filmen und Serien einfach viel zu viel, das hochwertige 35mm Material nochmals neu zu bearbeiten und mit den ganzen Bits und Farben digitalisieren;)
Gruss Boris
Eigentlich meinte ich ursprünglich dass die FX6 rechnerisch nicht Prores 4444 füllen kann.klusterdegenerierung hat geschrieben: ↑Sa 30 Jan, 2021 23:21
Keine Ahnung was Du meinst?
Klar wenn ich 16 in 12 presse ist das nicht mehr unbedingt 16, aber immer noch mehr als 8 und 10.
Hier im Forum sind wir schon soweit, dass Aufhellen und Abdunkeln ohne Raw nicht mehr geht :)Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 11:00 Ich denke er bringt es auf den Punkt....
Gruss Boris
"Beweisen"... bewiesen ist hier garnichts, nur weil jemand auf Youtube eine bestimmte Meinung hat (mit gerade mal 60.000 Abos).Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 12:08 Es gibt auch solche Leite die ja beweisen, das es weder RAW noch 10 Bit wirklich in jedem Fall auch für Profis nicht zwingend braucht.
Es ist doch heute einfach abhängig von der Arbeitsweise, aber 10Bit und RAW machen einen Film weder schöner noch besser.
Gruss Boris
Auf jeden Fall zu wenig um es als ultimative Wahrheit zu deklarieren.
Da gebe ich dir ja recht, aber es hat ja auch niemand behauptet dass man zwingend für alles 10bit braucht.Darth Schneider hat geschrieben: ↑So 31 Jan, 2021 13:14 Beweisen war das falsche Wort.
Aber wer braucht wirklich 10Bit der vor allem für YouTube und Co und die sozialen Medien und das Internet produziert ?
Gruss Boris
Auch praktisch, weil die ersten hybriden Postproduktionen mit digitalisiertem 35mm bzw. Digital Intermediate von Anfang an in höheren Bittiefen als 8bit (i.d.R. auf der Grundlage von 16bit-Scans bzw. 10bit-Cineon-Log) gemacht wurden. Der erste Film überhaupt, der mit einem Digital Intermediate (post)produziert wurde, war "O Brother, Where Art Thou" im Jahr 1999. Damals wurde das Negativmaterial mit einem Spirit DataCine gescannt: https://codex.online/news/The-history-a ... termediate
Wie oft soll ich die denn jetzt noch schicken und sagen was ich gemacht habe?
Die FX6 gibt 16Bit Raw aus und wenn der Recorder dies aufzeichnen könnet, warum könnte die FX6 dann kein PR 4444 füllen, das könnte Deine FX9 doch auch?Mantas hat geschrieben: ↑So 31 Jan, 2021 09:53Eigentlich meinte ich ursprünglich dass die FX6 rechnerisch nicht Prores 4444 füllen kann.klusterdegenerierung hat geschrieben: ↑Sa 30 Jan, 2021 23:21
Keine Ahnung was Du meinst?
Klar wenn ich 16 in 12 presse ist das nicht mehr unbedingt 16, aber immer noch mehr als 8 und 10.
Aber egal, dafür ist ist es 12bit.
Ja, ich habe da vorhin auch mal etwas gegoogelt, und habe diesen Auszug hier gfeunden:cantsin hat geschrieben: ↑So 31 Jan, 2021 14:19Auch praktisch, weil die ersten hybriden Postproduktionen mit digitalisiertem 35mm bzw. Digital Intermediate von Anfang an in höheren Bittiefen als 8bit (i.d.R. auf der Grundlage von 16bit-Scans bzw. 10bit-Cineon-Log) gemacht wurden. Der erste Film überhaupt, der mit einem Digital Intermediate (post)produziert wurde, war "O Brother, Where Art Thou" im Jahr 1999. Damals wurde das Negativmaterial mit einem Spirit DataCine gescannt: https://codex.online/news/The-history-a ... termediate
Im selben Jahr wurde auch "The Phantom Menace", der erste Film von George Lucas' Star Wars-Prequel-Trilogie als vermutlich erster volldigitaler Mainstreamfilm aufgenommen, mit einer Sony HDW F900. Da wurde aber auch nicht der Standardcodec verwendet, sondern in der Tat mit einem externen Datenrecorder RAW aufgezeichnet.
Bei in 8bit aufgenommenen Kinofilmen fallen mir eigentlich nur "Blue Is the Warmest Color" und "Victoria" ein, die AFAIK mit der C300 der ersten Generation gedreht wurden.