Na ja, noch mögen 6Bit für einige hier ausreichen aber wir haben unsere Planung vor 10 Jahren sehr bewusst so angelegt, dass eine Mehrfachverwertung des Footage auch dann noch gegeben ist, wenn 8Bit einmal Geschichte ist. Auch darf man das Tiering der Senseanstalten nicht vergessen, in dem 10Bit im Premiumbereich immer noch der Vorzug gegeben wird.glnf hat geschrieben:Wowu, du bist ja wieder einmal in Fahrt. Sollte sich der Unterschied zwischen 8 oder mehr Bits nur auf einem entsprechenden Monitor zeigen, dann reichen 8 Bits eigentlich für jede Produktion. Wer hat schon einen Fernseher oder Computermonitor, der tatsächlich 10 und mehr Bits per Farbkanal unterscheidet? Oft sind es ja sogar nur 6 Bits (wie bei mir auf dem Mac). Dann das "4K Auflösungsmärchen". Ist dir der Unterschied zwischen HD und 4K immer noch nicht begegnet?
der wesentliche unterschied dürfte in dem fall aber auch hauptsächlich auf die gänzlich unterschiedliche farbunterabtastung zurückzuführen sein. würde das 8 und 10 bit material in 4:4:4 vorliegen, würden die unterschiede vermutlich weit unspektakulärer ausfallen.-paleface- hat geschrieben:Ich habe RAW Material genommen und es einmal als 8Bit und einmal als 10Bit abgespeichert.
Danach habe ich 100% Sättigung drauf gehauen.
Nicht nur Jott:-) Es gibt noch andere, die dir Dein Geschreibsel schon lange nicht mehr abnehmen. Aber sei es drum.WoWu hat geschrieben:
Wenn Dir also der Unterschiede schon begegnet ist, immer her damit zeig doch mal den Content, der 4K Bildinformation (auf 4K Sensoren) enthält, bevor Du nur dicke Sprüche kloppst dafür ist eigentlich JOTT hier zuständig, der auch nichts anderes drauf hat, aber schon mehr Postings.
Wenn ich mich recht erinnere, jedenfalls an die 300er, dann war die auch nur für Tier 2 freigegeben und kommt mit 3K auch deutlich noch nicht an UHD1 heran.glnf hat geschrieben:Sorry Wowu, ich hab mir die Renderingwartezeiten ein wenig damit verkürzt dich zu necken. Aber sag mal, ist nicht die Canon C500 (mit externem Recorder, anders geht das ja nicht, und die C300 Mark 2) offiziell für 4K freigegeben? Ich dachte zumindest von BBC sowas gelesen zu haben.
Das stimmt ja nun nicht. Es wurde hier in den letzten 2 Jahren schon genug Material gepostet oder verlinkt. Zudem gibt es hier eine Slashcam Datenbank für 4K Geräte mit Ergebnissen aus dem Testlabor. Nur weil es anderen zu blöd ist, über dieses Thema überhaupt noch mit dir zu diskutieren, heißt das noch lange nicht, dass es kein Material gibt.WoWu hat geschrieben:[Nur hat mir noch keiner hier -und erst recht nicht, mit den Fotoapparaten- ein einziges Stück Content zeigen können, das 4K mit solchen üblichen Sensoren darstellt.
Und offenbar traut sich auch keiner an einen solch einfachen Test und alle berufen sich immer auf den Kartonaufkleber und das die Bilder viel besser aussehen.
Tiefflieger, du lebst! Lange nichts von dir gehört.Tiefflieger hat geschrieben:Aber da selbst im Kino alles nur Illusion ist, wird die Qualität überschätzt ;-
Und im digitalen Kino in 4k vorgeführt. Kein Zweifel, wenn sowas das Ziel ist, müssen wir uns höheren Auflösungen zuwenden.tundra hat geschrieben:Ich erinnere mich auch, dass "Samsara" auf 70mm entstand.
sehr schön axel, ich bin zwar nicht immer, aber sehr oft dein fan. du hast es mal wieder auf den punkt gebracht. ;-)Axel hat geschrieben:
Stattdessen sehen wir aber viel elendes Getrickse, 4k als besseres HD und zur vermeintlichen Banding-Vermeidung. Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? Vermatschter Murks oder kontrastarmer Videomüll. Da vergleicht jemand Fallobst in einem Verwesungszustand, der gar nicht mehr erkennen lässt, was das mal für eine Frucht vorstellen sollte.
Allmächtiger, lass' das bloß nicht den iasi lesen. Da gibt's dann gleich wieder Armageddon.Peppermintpost hat geschrieben:ich bin jedenfalls sehr froh das in hollywood wieder ein deutlicher trend zu zelluloid festzustellen ist und das es auch eine hand voll menschen gibt die aus digital auch noch einen film look hin bekommen, sowohl mit alexa als auch mit red, pixel und bit seinen wohl doch nicht so wichtig zu sein. für mein film empfinden jednefalls nicht.
mich hat das auch ziemlich geschockt!Axel hat geschrieben:Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner?
Hehehe..."The Hobbit" hatte jede menge pixel, jede menge fps, jede menge 3d und CC, und es war das schlimmste kino erlebniss das is jemals hatte...
Hallo Axel,Axel hat geschrieben:Tiefflieger, du lebst! Lange nichts von dir gehört.Tiefflieger hat geschrieben:Aber da selbst im Kino alles nur Illusion ist, wird die Qualität überschätzt ;-
Bei Fragen der Auflösung brauchen wir uns an Kino gar nicht mehr zu orientieren. Das Angebot regelt die Nachfrage - in Bezug auf Fernseher. Und für mich ist klar, dass ein größeres Bild ein besseres Bild ist. Das ist keine persönliche "Meinung", sondern empirisch belegt. Ein großes Bild steigert die Aufmerksamkeit und damit die Aufnahmefähigkeit des Zuschauers. Und im Kino sind die Bilder heute bereits relativ klein im Vergleich zu dem, was man daheim an TV-Sets erschwingen kann. Und natürlich sollte das ab einer gewissen Größe 4k sein. Auch mit HD oder HDready-Content. Denn in Wirklichkeit ist Upscalen viel einfacher als Downscalen.
Das predige ich schon die ganze Zeit. 4K drehen, und dann 3 mal durch einen beschissenen long GOP Codec pressen, bis sich 90% aller Bildinformationen in bunte zuckende Blobs verwandelt haben - tolle WurstAxel hat geschrieben:
Stattdessen sehen wir aber viel elendes Getrickse, 4k als besseres HD und zur vermeintlichen Banding-Vermeidung. Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? Vermatschter Murks oder kontrastarmer Videomüll.