
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Dave Dugdale - 8 Bit vs. 10 Bit (vs. 12 Bit)
ganz genau, überhaupt mal selber test durchzuführen ist das stichwort.Chrompower hat geschrieben:Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.
Bitte keine Ausreden aus welchen Gründen auch immer man mal wieder nicht im Stande ist das zu tun. Einfach einen Link mit dem selbst durchgeführten Test posten. Mal sehen was dabei rauskommt.
Ich freue mich schon darauf.
Ich habe zumindest mal vor einigen Jahren eine Trilogietestreihe zu ML bei 5DII gemacht. ;-)Peppermintpost hat geschrieben:ganz genau, überhaupt mal selber test durchzuführen ist das stichwort.
Du kannst das ja gerne immer nur auf 10Bit reduzieren, zumal es hier um 14Bit geht! Interessanter ist doch der Worklflow und die damit einhergehenden Möglichkeiten der ACR Verwendung.Angry_C hat geschrieben:Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-)
Ähm, mein Beitrag war nicht auf Dich bezogen:-)klusterdegenerierung hat geschrieben:Du kannst das ja gerne immer nur auf 10Bit reduzieren, zumal es hier um 14Bit geht! Interessanter ist doch der Worklflow und die damit einhergehenden Möglichkeiten der ACR Verwendung.Angry_C hat geschrieben:Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-)
Du kannst ja gerne darüber lächeln, aber mit den DNGs der 5DII bekommst Du aber einen riesen Unterschied zum internen qt mov!
Ich muss hier mal erklärend eingreifen - das Ganze führt immer wieder zu Missverständnissen und Irritationen:Angry_C hat geschrieben:Ähm, mein Beitrag war nicht auf Dich bezogen:-)klusterdegenerierung hat geschrieben:... Du kannst ja gerne darüber lächeln, aber mit den DNGs der 5DII bekommst Du aber einen riesen Unterschied zum internen qt mov!Angry_C hat geschrieben:Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-)
Wird nicht passieren weil die Egos hier so groß sind dass keiner sich die Blöße geben würde wenn auch nur annähernd die Möglichkeit besteht dass der Test Fehler enthalten könnte.Chrompower hat geschrieben:Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.
Macht doch sowieso keiner, fängt doch bei dem 4K Auflösungsmärchen an und hört damit auf, dass kaum jemand zwischen LOG, LUT UND LOOK unterscheidet. (oder hast Du von denen, die an 4K glauben schon mal gesehen, dass sie einen Auflösungstest gemacht haben, der ja nun wirklich simpel ist) ?Peppermintpost hat geschrieben:ganz genau, überhaupt mal selber test durchzuführen ist das stichwort.Chrompower hat geschrieben:Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.
Bitte keine Ausreden aus welchen Gründen auch immer man mal wieder nicht im Stande ist das zu tun. Einfach einen Link mit dem selbst durchgeführten Test posten. Mal sehen was dabei rauskommt.
Ich freue mich schon darauf.
Also bringt 4K, auch wenn es "nur" von Fotoapparaten generiert wird, doch Vorteile gegenüber FullHD?wolfgang hat geschrieben:Das zweite Problem ist die ständige Mischung von UHD und HD. Na klar wird das UHD 8bit Material besser wenn man es in eine HD timeline wirft.
um genau zu sein: doppelt so lange kanten! :)WoWu hat geschrieben:ja, mehr Kanten.
er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!), erlaubt -- genauer: via 8-bit + FRC... was einen unterschied allerdings trotzdem erkennen lassen sollte...WoWu hat geschrieben:Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ?
Tatsächlich. Ist mir erst bei Deinem Bild aufgefallen. Dave Dugdale und Lutz Dieckmann könnten Zwillinge sein. Wirklich überraschend.klusterdegenerierung hat geschrieben:Aber vielleicht müßen wir das ganze auch noch mal von einer ganz anderen Seite betrachten? LOL
Boah sorry, aber den konnte ich mir jetzt echt nicht verkneifen! hahaha :-))
Sorry Lutz! ;-))
Warum? Was stimmt denn mit der GTX980ti und ihren Displayports nicht?mash_gh4 hat geschrieben:er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!)...WoWu hat geschrieben:Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ?
Dann kann ich mir das allerdings auch nicht so richtig erklären.mash_gh4 hat geschrieben:er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!), erlaubt -- genauer: via 8-bit + FRC... was einen unterschied allerdings trotzdem erkennen lassen sollte...WoWu hat geschrieben:Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ?
Aber man kann doch auch auf einem 8Bit Monitor sehen das beim Grading von 10Bit die Farben beim Graden nicht so schnell ausbrechen.WoWu hat geschrieben: Wäre auch ein physikalisches Wunder, wenn dem nicht so wäre, auf einem 8Bit Monitor denn wie will ich Vorteile beurteilen, wenn ich sie gar nicht sehe ?
dazu gibt's gerade woanders interessante beispiele:-paleface- hat geschrieben:Aber man kann doch auch auf einem 8Bit Monitor sehen das beim Grading von 10Bit die Farben beim Graden nicht so schnell ausbrechen.