Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Dave Dugdale - 8 Bit vs. 10 Bit (vs. 12 Bit)



Newsmeldung von slashCAM:


In seiner bemerkenswert unaufgeregten Art hat sich Dave Dugdale wieder einmal einige Mühen bereitet, um einmal...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Dave Dugdale - 8 Bit vs. 10 Bit (vs. 12 Bit)


Space


Antwort von mash_gh4:

während ich viele anderen produktvorstellungen und -vergleiche von ihm durchaus schätze, halte ich dieses ganz konkrete beispiel leider nicht für besonders vorbildlich.

zum beispiel halte ich es für einen groben unfug, bei den unterbelichtungsbeispielen vom selben IRE messwert trotz unterschiedlicher bildprofile bzw. gamma-kurven auszugehen. von einem korrekt auf die graukarte belichteten bild auszugehen, und dann einfach bei allen kameras um die selbe anzahl an EV werten runter zu gehen, hätte ich für zweckmäßiger bzw. aussagekräftiger gehalten... usw.

Space


Antwort von klusterdegenerierung:

Er ist ja ganz sympathisch, aber all seine Tests haben immer viel mit Glauben statt Wissen zu tun, so zumindest ist immer wieder mein Eindruck.

Auch hier bekomme ich auch wieder das Gefühl das der gerne ein bisschen rumprüdellt und seine eigene Meinung bzw Wahrnemung als algemeingültig hinstellt.

Space


Antwort von Peppermintpost:

natürlich hat der test viele fehler, und auch die schlüsse die er daraus zieht sind unvollständig, aber zumindest vergleicht er verschiedene dinge mit einander und schaut sich die ergebnisse an. das tuen sehr viele hier nicht, sondern bestehen nur auf irgend welchen paradigmen die oftmals blanker unsinn sind. von daher finde ich seine tests erst mal gut.

was mMn bei seinem test sehr gut rüber kommt ist, das 10bit kein allheilmittel ist, oder der einzige faktor auf den es bei einer kamera ankommt. eine kamera ist eine sehr komplexe "blackbox" in der sehr viele dinge zusammen spielen und dann ein bild erzeugen, sich nur einen aspekt heraus zu greifen bring einfach garnichts, man muss sich das kompl. system ansehen. genau das sagt er zwar nicht, aber es wird aus den test ergebnissen ja durchaus klar.

Space


Antwort von Chrompower:

Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.

Bitte keine Ausreden aus welchen Gründen auch immer man mal wieder nicht im Stande ist das zu tun. Einfach einen Link mit dem selbst durchgeführten Test posten. Mal sehen was dabei rauskommt.

Ich freue mich schon darauf.

Space


Antwort von Peppermintpost:

Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.

Bitte keine Ausreden aus welchen Gründen auch immer man mal wieder nicht im Stande ist das zu tun. Einfach einen Link mit dem selbst durchgeführten Test posten. Mal sehen was dabei rauskommt.

Ich freue mich schon darauf. ganz genau, überhaupt mal selber test durchzuführen ist das stichwort.

Space


Antwort von klusterdegenerierung:

ganz genau, überhaupt mal selber test durchzuführen ist das stichwort. Ich habe zumindest mal vor einigen Jahren eine Trilogietestreihe zu ML bei 5DII gemacht. ;-)
Kann ich mich damit etwas rehabilitieren, auch wenn es nichts wirklich aussagt? ;-))





Space


Antwort von Peppermintpost:

ah interessant, schaue ich mir gleich an.

Space


Antwort von Angry_C:

Da haben wird das doch wieder.

10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.












;-)

Space



Space


Antwort von Mantas:

Habe eine ähnlichen Test durchgeführt. Mit a7s II unterbelichtet, einmal in 1080p und einmal in 4k. In Premiere aufgehellt un in 1080p ausgespielt. Der Unterschied ist auf jeden Fall deutlich sichtbar!

Space


Antwort von klusterdegenerierung:

Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-) Du kannst das ja gerne immer nur auf 10Bit reduzieren, zumal es hier um 14Bit geht! Interessanter ist doch der Worklflow und die damit einhergehenden Möglichkeiten der ACR Verwendung.
Du kannst ja gerne darüber lächeln, aber mit den DNGs der 5DII bekommst Du aber einen riesen Unterschied zum internen qt mov!

Space


Antwort von Angry_C:

Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-) Du kannst das ja gerne immer nur auf 10Bit reduzieren, zumal es hier um 14Bit geht! Interessanter ist doch der Worklflow und die damit einhergehenden Möglichkeiten der ACR Verwendung.
Du kannst ja gerne darüber lächeln, aber mit den DNGs der 5DII bekommst Du aber einen riesen Unterschied zum internen qt mov! Ähm, mein Beitrag war nicht auf Dich bezogen:-)

Space


Antwort von Skeptiker:

Da haben wird das doch wieder.
10 bit? Vielleicht in bunten Prospekten oder auf Kameraaufklebern. Alles nur Kundenverarsche. Selbst bei RED kommt maximal 8,5 bit raus.;-) ... Du kannst ja gerne darüber lächeln, aber mit den DNGs der 5DII bekommst Du aber einen riesen Unterschied zum internen qt mov! Ähm, mein Beitrag war nicht auf Dich bezogen:-) Ich muss hier mal erklärend eingreifen - das Ganze führt immer wieder zu Missverständnissen und Irritationen:

Angry_C macht sich einen Spass daraus, WoWu nachzuäffen äh -ahmen, der beim Thema "angebliches 4K vs. echtes 4K" immer wieder von bunten Prospekten, Werbeblabla und Kundenverarsche spricht.

Space


Antwort von klusterdegenerierung:

Ach so :-)
Ja dann sagt das doch gleich!
So wird auch ein Schuh draus :-)

Aber mal so am Rande, wo kann ich mir denn das "angebliche" 4K ansehen, oder muß ich fragen, das "echte" :-))

Space


Antwort von leonhard dy kabrio:

oder das " lebendige 4k " und später mal das " organische 4k"..
Der test ist interessant und der Gute hält sich ja bewusst zurück, sonnst
wird er womöglich von einem Shitstrompatzen getroffen...)
Was ich auch immer wunderlich find, so wie neuerdings bei einer C300, das
da einer reinbrüllt ob wir nun die ISO bis hoch drehen,und.
War meine Frage, drehen wir auch das Licht am Set ab, oder willst einen
Grobkorn-por-no, damit wir später noch was zum fixxen haben?

Bitte einmal 409.600,- dank schön .-_:)

Space


Antwort von SirRollingVonShutter:

Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht. Wird nicht passieren weil die Egos hier so groß sind dass keiner sich die Blöße geben würde wenn auch nur annähernd die Möglichkeit besteht dass der Test Fehler enthalten könnte.
Außerdem ist es doch wichtiger sich tausende Beiträge anzuschreiben anstatt mal wirklich was brauchbares zu fabrizieren.

Space


Antwort von wolfgang:

Also ich finde den Test insofern schwierig, als man über youtube ja ohnedies nur jede Menge banding sehen muss und auch sieht, egal obs nun im Originalmaterial da ist oder nicht.

Das zweite Problem ist die ständige Mischung von UHD und HD. Na klar wird das UHD 8bit Material besser wenn man es in eine HD timeline wirft. Da überrascht zu sein wundert mich schon. Da werden halt UHD-Äpfel mit HD-Birnen verglichen anstatt sauber UHD 8bit versus UHD 10bit oder HD 8bit versus HD 10bit zu testen.

Das dritte Thema ist die Vermischung von Senorgrößen. Super 35mm ist halt nicht das gleiche wie ein 35mm Sensor.

Trotzdem wirft das Video bemerkenswerte Schlußfolgerungen auf. Nimm eine 8bit Kamera mit großem Sensor, und du bekommst das bessere HD? Oder warum nimmst nicht gleiche einen 35mm Sensor mit 10 oder 12bit, dann wird das HD unerträglich gut sein? Nicht uninteressant.

Space


Antwort von WoWu:

Ich wäre dafür das jeder der hier wieder meckert und kritisiert einen eigenen, selbstverständlich makellos perfekten Vergleich / Test macht.

Bitte keine Ausreden aus welchen Gründen auch immer man mal wieder nicht im Stande ist das zu tun. Einfach einen Link mit dem selbst durchgeführten Test posten. Mal sehen was dabei rauskommt.

Ich freue mich schon darauf. ganz genau, überhaupt mal selber test durchzuführen ist das stichwort. Macht doch sowieso keiner, fängt doch bei dem 4K Auflösungsmärchen an und hört damit auf, dass kaum jemand zwischen LOG, LUT UND LOOK unterscheidet. (oder hast Du von denen, die an 4K glauben schon mal gesehen, dass sie einen Auflösungstest gemacht haben, der ja nun wirklich simpel ist) ?
Die EBU hat es gemacht ... mit dem bekannten Ergebnis.
Die Angst Einiger ist hier viel zu groß, dass ihre Kameras nicht besser sind.

Du hast da schon Recht ... es kommt immer darauf an, was man im Bild erreichen will. Ein Allheilmittel ist weder 10Bit, noch eine irgendwie geartete Übertragungsfunktion.

Völliger Käse ist in der Tat das Konglumerat an unterschiedlichen Ausgangs- und Testbedingungen, die Wolfgang angesprochen hat. Wenn man nicht in der Lage ist, vernünftige Messbedingungen als Ausgangspunkt eines objektiven Vergleiches zu schaffen, sollte man die Finger von einem Test lassen, weil die Ergebnisse nur so genau sein können, wie die schwächste Stelle im Test und hier gibt es eine Menge schwacher Stellen.
Deswegen sind solche Tests auch bestenfalls geeignet, die Anzahl der Clicks auf seiner Web-Seite zu erhöhen.

Space



Space


Antwort von Angry_C:

Das zweite Problem ist die ständige Mischung von UHD und HD. Na klar wird das UHD 8bit Material besser wenn man es in eine HD timeline wirft. Also bringt 4K, auch wenn es "nur" von Fotoapparaten generiert wird, doch Vorteile gegenüber FullHD?

Space


Antwort von WoWu:

ja, mehr Kanten.

Space


Antwort von mash_gh4:

ja, mehr Kanten. um genau zu sein: doppelt so lange kanten! :)

...und vielleicht noch ein paar krümel (hier bei uns würde man eher "brösel" sagen, aber damit noch immer etwas völlig anderes meinen, als jemand mit dieser fixierung auf eine einzelne "kachel", genau vor seinem kopf), je nach schärfe des messers.

Space


Antwort von WoWu:

Ersatzweise können sich die, die keine eigenen Auflösungstests auf die Beine stellen, ja mal die EBU Tests durchlesen.
Setzt allerdings Leseverständnis im Sachgebiet Videotechnik voraus.

Space


Antwort von -paleface-:

Nachdem ich den Film gesehen habe habe ich das Gefühl das es mehr darum geht das die Sony a7S2 eine sehr gute Kamera ist.

Bei der Gh4 zb. sieht man einen deutlichen Unterschied zwischen 4K 8Bit und 4K10Bit.

Denke es kommt einfach auf die Kamera an.

Wollte mir die FS5 auch mal kaufen...aber nachdem ich von einigen Codec Problemen gelesen habe, hab ich es gelassen und hab zu einer anderen Kamera gegriffen.

Space


Antwort von WoWu:

Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ?
Denn bei einem Vergleichstest zwischen 8 und 10 Bit ist ein 10 Bit Monitor die Minimalanforderung, ansonsten muss man sich nicht wundern. dass die Ergebnisse identisch aussehen, worauf er ja immer wieder hinweist.
Wäre auch ein physikalisches Wunder, wenn dem nicht so wäre, auf einem 8Bit Monitor denn wie will ich Vorteile beurteilen, wenn ich sie gar nicht sehe ?

Space


Antwort von klusterdegenerierung:

Womit wir dann wieder bei meinem ersten Post in diesem Thread wären! Das sind so Sachen die ich meinte.

Er hat schon mal einen ähnliche Test gemacht, ich glaube da ging es um GH4 und Shogun und ob man überhaupt was von 10Bit hat, da lief es genauso ab!

Space


Antwort von klusterdegenerierung:

Aber vielleicht müßen wir das ganze auch noch mal von einer ganz anderen Seite betrachten? LOL

Boah sorry, aber den konnte ich mir jetzt echt nicht verkneifen! hahaha :-))
Sorry Lutz! ;-))

Space


Antwort von mash_gh4:

Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ? er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!), erlaubt -- genauer: via 8-bit + FRC... was einen unterschied allerdings trotzdem erkennen lassen sollte...

Space



Space


Antwort von TonBild:

Aber vielleicht müßen wir das ganze auch noch mal von einer ganz anderen Seite betrachten? LOL

Boah sorry, aber den konnte ich mir jetzt echt nicht verkneifen! hahaha :-))
Sorry Lutz! ;-)) Tatsächlich. Ist mir erst bei Deinem Bild aufgefallen. Dave Dugdale und Lutz Dieckmann könnten Zwillinge sein. Wirklich überraschend.

Space


Antwort von Angry_C:

Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ? er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!)... Warum? Was stimmt denn mit der GTX980ti und ihren Displayports nicht?

Space


Antwort von WoWu:

Hat eigentlich irgend jemand in dem Test was darüber gehört, ob die Beurteilung auf einem 8 oder 10 Bit Monitor vorgenommen wurde ? er verwendet normalerweise einen LG 34UC97, der prinzipiell schon 10bit, allerdings ausschließlich via displayport (wobei ihm die GTX980ti im weg sein dürfte!), erlaubt -- genauer: via 8-bit + FRC... was einen unterschied allerdings trotzdem erkennen lassen sollte... Dann kann ich mir das allerdings auch nicht so richtig erklären.
Wir machen seit über 10Jahren 10 Bit und Monitoren in der Post immer zusätzlich in 8Bit, um möglichst frühzeitig Artefakte in der Unterabtastung sehen zu können. Komischerweise sind da deutliche Unterschiede in den Darstellungen. Mir unerklärlich, warum er sowas nicht sieht. Leider sagt er ja auch nichts über seinen Workflow, das Rückschlüsse zuließe.
Vielleicht hat Kluster ja Recht und er promoted nur eine Kamera.

Das mit der Bildgegenüberstellung ist ja witzig. :-))

Space


Antwort von -paleface-:

Wäre auch ein physikalisches Wunder, wenn dem nicht so wäre, auf einem 8Bit Monitor denn wie will ich Vorteile beurteilen, wenn ich sie gar nicht sehe ? Aber man kann doch auch auf einem 8Bit Monitor sehen das beim Grading von 10Bit die Farben beim Graden nicht so schnell ausbrechen.

Space


Antwort von WoWu:

Das kommt darauf an, wo die 10Bit Farblage im Verhältnis zum 8Bit Format ist.
Ich weiß aber nicht so richtig, was Du mit "ausbrechen" meinst.

Space


Antwort von klusterdegenerierung:

Ist es nicht umgekehrt, dam man beim 8Bit Moni sieht das 8Bit schneller ausfrisst oder Säume bildet?

Space


Antwort von WoWu:

Wenn Du mit "Säume" Banding meinst, ist das richtig.
Nur darf man da Ursache und Wirkung nicht verwechseln.

Space


Antwort von mash_gh4:

Aber man kann doch auch auf einem 8Bit Monitor sehen das beim Grading von 10Bit die Farben beim Graden nicht so schnell ausbrechen. dazu gibt's gerade woanders interessante beispiele:
http://www.provideocoalition.com/transc ... r-premiere

es ist gar nicht so einfach zu sagen, wie die einzelnen programme mit all den diesbezüglichen details (bspw. dem dithering) umgehen.

Space


Antwort von glnf:

Wowu, du bist ja wieder einmal in Fahrt. Sollte sich der Unterschied zwischen 8 oder mehr Bits nur auf einem entsprechenden Monitor zeigen, dann reichen 8 Bits eigentlich für jede Produktion. Wer hat schon einen Fernseher oder Computermonitor, der tatsächlich 10 und mehr Bits per Farbkanal unterscheidet? Oft sind es ja sogar nur 6 Bits (wie bei mir auf dem Mac). Dann das "4K Auflösungsmärchen". Ist dir der Unterschied zwischen HD und 4K immer noch nicht begegnet?

Space



Space


Antwort von Jott:

Offensichtlich nicht.

Space


Antwort von cantsin:

10bit Quellmaterial ist aber auch auf 8bit-Monitoren sinnvoll, wenn man das Bild gradet oder in einen anderen Farbraum bringt - also, in beiden Fällen, die Farben verbiegt. Das muss kein Extrem-Styling sein, sondern trifft bereits zu, wenn man in einem Log-Format aufnimmt und in Rec709 mastert.

Space


Antwort von Jost:

Schenken wir diesem Test nicht etwas zuviel Aufmerksamkeit?

Der Test wirkt auf mich wie ein Werk der Übergebühr - wie die Fragestellung: Wieviele Engel haben auf der Spitze einer Stecknadel Platz?

Im Grunde geht es hier doch um die Frage:

Wird die Belichtung komplett versemmelt, spielt es dann eine Rolle, ob in 8-, 10- oder 12-Bit aufgenommen wurde?

Dass es immer rauscht, - mal mehr, mal weniger - wenn ich die Tiefen anhebe - wer zweifelt ernsthaft daran?

Im Hintergrund der Testvideos verläuft ein Fluss mit Weißwasser in den Stromschnellen. Zebra auf 75 Prozent eingestellt - schon ist die saubere ETTR-Einstellung da.

Aber dagegen sperrt sich Dave Dugdale - selbst wenn ihm die Lichtmessung eines Belichtungsmessers sagt, dass er schief liegt.


Der Test wirkt auf mich wie ein synthetisches Benchmark.

An dessen Aussagegehalt gibt es absolut nichts zu deuteln - das ist so.

Aber in der Praxis versemmelt man die Belichtung nicht so sehr, dass man sich Sorgen machen muss, ob man mit 8-, 10- oder 12-Bit, Full-HD oder 4K aufgenommen hat.

Jedenfalls nicht, wenn man ETTR und Zebra unter Raw nutzt.

Space


Antwort von WoWu:

Wowu, du bist ja wieder einmal in Fahrt. Sollte sich der Unterschied zwischen 8 oder mehr Bits nur auf einem entsprechenden Monitor zeigen, dann reichen 8 Bits eigentlich für jede Produktion. Wer hat schon einen Fernseher oder Computermonitor, der tatsächlich 10 und mehr Bits per Farbkanal unterscheidet? Oft sind es ja sogar nur 6 Bits (wie bei mir auf dem Mac). Dann das "4K Auflösungsmärchen". Ist dir der Unterschied zwischen HD und 4K immer noch nicht begegnet? Na ja, noch mögen 6Bit für einige hier ausreichen aber wir haben unsere Planung vor 10 Jahren sehr bewusst so angelegt, dass eine Mehrfachverwertung des Footage auch dann noch gegeben ist, wenn 8Bit einmal Geschichte ist. Auch darf man das Tiering der Senseanstalten nicht vergessen, in dem 10Bit im Premiumbereich immer noch der Vorzug gegeben wird.
Was also in diesem Test überhaupt nicht nachgefragt wurde, weil es für Hobbyfilmer ebensowenig von Interesse ist, wie für Contenthersteller von aktuellem Material, ist die Qualität des Zielmaterials.
Dabei ist es natürlich von übergeordnete, Interesse, dass man überhaupt sieht, was man an Materialqualität hat.
Ein 6Bit+FRC mag für die Hobbyanwendung ausreichen und dann wird sich auch kaum die Frage nach 10Bit stellen und der hör besprochene Test uninteressant sein, nur testet man 10 vs. 8Bit, sollte man wenigstens in der Lage sein, Unterschiede auch sehen zu können.
Das betrifft übrigens auch, die, die sich diesen Test angesehen haben und Vergleiche dieser Art auf der Basis von YouTube anschauen und versuchen, Unterschiede zu erkennen, um sich selbst ein Bild zu machen ....
An dem, Der das ernsthaft versucht, geht das ganze Thema doch vorbei.

Und auf die Frage, ob mir der Unterschied in Bezug auf 4K und HD noch nicht begegnet ist, kann ich nur sagen ... so manchem Andern wohl auch noch nicht, sonst hätte die EBU der 4K-RED nicht bestätigt, dass sie nur HD macht und die Kamera gerade mal für Mainstream Content in die beiden 2er Tiers eingestuft.
Wenn Dir also der Unterschiede schon begegnet ist, immer her damit zeig doch mal den Content, der 4K Bildinformation (auf 4K Sensoren) enthält, bevor Du nur dicke Sprüche kloppst dafür ist eigentlich JOTT hier zuständig, der auch nichts anderes drauf hat, aber schon mehr Postings.

Space


Antwort von -paleface-:

Hier mal ein Vergleich.
Ich habe RAW Material genommen und es einmal als 8Bit und einmal als 10Bit abgespeichert.
Danach habe ich 100% Sättigung drauf gehauen.

Man sieht durchaus einen Unterschied.
Auch wenn es zugegeben nicht der MASSIVE Unterschied wie zu RAW ist.

Space


Antwort von mash_gh4:

Ich habe RAW Material genommen und es einmal als 8Bit und einmal als 10Bit abgespeichert.
Danach habe ich 100% Sättigung drauf gehauen. der wesentliche unterschied dürfte in dem fall aber auch hauptsächlich auf die gänzlich unterschiedliche farbunterabtastung zurückzuführen sein. würde das 8 und 10 bit material in 4:4:4 vorliegen, würden die unterschiede vermutlich weit unspektakulärer ausfallen.

Space


Antwort von glnf:

Sorry Wowu, ich hab mir die Renderingwartezeiten ein wenig damit verkürzt dich zu necken. Aber sag mal, ist nicht die Canon C500 (mit externem Recorder, anders geht das ja nicht, und die C300 Mark 2) offiziell für 4K freigegeben? Ich dachte zumindest von BBC sowas gelesen zu haben.

Space


Antwort von Angry_C:


Wenn Dir also der Unterschiede schon begegnet ist, immer her damit zeig doch mal den Content, der 4K Bildinformation (auf 4K Sensoren) enthält, bevor Du nur dicke Sprüche kloppst dafür ist eigentlich JOTT hier zuständig, der auch nichts anderes drauf hat, aber schon mehr Postings. Nicht nur Jott:-) Es gibt noch andere, die dir Dein Geschreibsel schon lange nicht mehr abnehmen. Aber sei es drum.

Mal angenommen, es gäbe tatsächlich Videobilder, die volle 4K aufgelöst sind, und jemand würde die hier posten, wärst du überhaupt in der Lage, das zu erkennen?

Ich meine, es gibt auch viele Menschen, die können zwischen einer unkomprimierten Audio-CD und einer 96kb/s Mp3 Kopie keinen Unterschied erkennen.

Vielleicht wäre es mal ganz gut, wenn du mal Dein FHD Video-Referenzbild einstellst, dann wissen wir ungefähr, wo deine Vorstellung hinsichtlich der machbaren (echten) Detailauflösung einer Kamera liegt.

Space


Antwort von WoWu:

Sorry Wowu, ich hab mir die Renderingwartezeiten ein wenig damit verkürzt dich zu necken. Aber sag mal, ist nicht die Canon C500 (mit externem Recorder, anders geht das ja nicht, und die C300 Mark 2) offiziell für 4K freigegeben? Ich dachte zumindest von BBC sowas gelesen zu haben. Wenn ich mich recht erinnere, jedenfalls an die 300er, dann war die auch nur für Tier 2 freigegeben und kommt mit 3K auch deutlich noch nicht an UHD1 heran.
Das heißt ja auch nicht, dass 4K nicht möglich sind.
Die RED macht ja auch knapp 4K, wenn man sie im 6K Modus betreibt.
Natürlich ist es möglich, höhere Auflösungen mit den passenden Sensoren zu erzielen, zu denen es auch Objektive gibt, die bei größeren Pixels, dann auch wieder geringer auflösen können.
Nur hat mir noch keiner hier -und erst recht nicht, mit den Fotoapparaten- ein einziges Stück Content zeigen können, das 4K mit solchen üblichen Sensoren darstellt.
Und offenbar traut sich auch keiner an einen solch einfachen Test und alle berufen sich immer auf den Kartonaufkleber und das die Bilder viel besser aussehen.
Sie sollten mal nachlesen, was in den 60er Jahren schon hinreichend erforscht wurde, warum Menschen Bilder als vermeintlich besser einstufen.
Aber solange mir niemand ein Stück Content vorlegt, der das Gegenteil zeigt, gelten für mich noch die Tests der EBU und nicht die, irgendwelcher Blogger und erst recht nicht von Sprüchekloppern, die gerade mal den roten Knopf der Kamera finden.

Space



Space


Antwort von Angry_C:

[Nur hat mir noch keiner hier -und erst recht nicht, mit den Fotoapparaten- ein einziges Stück Content zeigen können, das 4K mit solchen üblichen Sensoren darstellt.
Und offenbar traut sich auch keiner an einen solch einfachen Test und alle berufen sich immer auf den Kartonaufkleber und das die Bilder viel besser aussehen. Das stimmt ja nun nicht. Es wurde hier in den letzten 2 Jahren schon genug Material gepostet oder verlinkt. Zudem gibt es hier eine Slashcam Datenbank für 4K Geräte mit Ergebnissen aus dem Testlabor. Nur weil es anderen zu blöd ist, über dieses Thema überhaupt noch mit dir zu diskutieren, heißt das noch lange nicht, dass es kein Material gibt.

Egal, man darf eh bezweifeln, ob du dich, wenn einer entsprechendes Material liefert, damit auseinandersetzt, geschweige denn, du hast überhaupt eine gescheite 4K Abspielkette zur Verfügung.

Wenn man deine Beiträge verfolgt, liest man immer wieder etwas von "Vor 10 Jahren, seit 10 Jahren" etc.

Wir sind hier und jetzt, und die Technik bleibt leider nicht stehen. Du musst dich wohl oder übel noch etwas weiterbilden, um mitreden zu können. Aber Ist es die Mühe wert? Ich meine, genieße doch einfach die Rente in deiner Wahlheimat und ärgere Dich nicht andauernd über Blogger oder Dummschwätzer. Das geht doch auf den Blutdruck.

Space


Antwort von Tiefflieger:

Solange Farben bei Aufnahme aus dem Debayering stammen, ist 8 vs 10, 12 und 14 Bit nur eine Helligkeitsinformation im Aufnahmeformat die später in Farben umgesetzt wird.
Und wenn es stark rauscht ist nicht mal der integrale nichtlineare Helligkeitswert eines RGBG Sensel aussagekräftig.

Zur Betrachtung genügt true Color, aber auch da ist Video bereits beschnitten. Naja wenigstens im professionellen Bereich, dafür normiert.

Grundsätzlich können "Amateur" Systeme heute 24 bit 192 khz Audio und Bewegtbilder in 4K p60, 10 bit Farbtiefe und 1000 nits Helligkeit (HDR, Farbraum BT.2020) darstellen.

Aber all das muss auch bei Aufnahme "mindestens" vorhanden sein, besonders bei der nachträglichen Bearbeitung auf die Wunschmaße.
Aber da selbst im Kino alles nur Illusion ist, wird die Qualität überschätzt ;-)

Gruss Tiefflieger

Space


Antwort von tundra:

An dieser Stelle juckt es mich daran zu erinnern, dass "Broken Silence" auf Hi8 gedreht wurde. Ich erinnere mich auch, dass "Samsara" auf 70mm entstand. Bildtechnisch liegen dazwischen mehrere Welten, trotzdem sind beides herausragende Werke der Kinogeschichte. Nein, es ist mir bisher nicht gelungen, einen solchen Meilenstein abzuliefern.
Hätte Ron Fricke auch 35mm nehmen können? Vielleicht, vielleicht nicht, ganz sicher wollte er nicht. Wolfgang Panzer wiederum hatte das Geld nicht, trotzdem haben zumindest zeitweise sicher die Premium-Abnehmer auch bei ihm angerufen, nicht umgekehrt.
Ich bin dafür, das Beste zu nehmen, was man bekommen und sinnvoll einsetzen kann, aber ich finde es dann doch absurd, sich erschießen zu müssen, nur weil man sich 70mm (noch besser: 70mm quer! Ich liebe und verehre IMAX, aber allein der Testlauf der Kamera verschlang, so las ich, Filmmaterial für rund 1000 Dollar) nicht leisten kann.
Was ich damit sagen will? Vielleicht reicht echtes 10k knapp, um diese Detailauflösung digital zu erfassen. Richtig genießen kann man das dann aber erst auf der 15x22 Meter großen Leinwand. Und was ist davon noch übrig?Derzeit leider nahezu gar nichts. Die Zukunft vorherzusagen bleibt schwierig, und der Baumeister des Kölner Doms (Meister Eckart, glaube ich -- Edit: Meister Gerhard) hätte sicher auch gesagt, hör mir bloß auf mit den Dolmen und den Hinkelsteinen. Und in Bezug auf sein Werk hätte er auch recht gehabt - nur nicht absolut.

("Boah, jaaa, wir wissen, dass am Ende nur das Gesamtwerk zählt..." - ich entschuldige mich.)

Space


Antwort von motiongroup:

So isch es Tundra +1 und ich lege das immer um auf das Aha Erlebnis wenn ich so vor meinem Lieblings- Werbeplakat für Damenrasierer stehe.. 20DPI so wirds uns von der Werbeindustrie aufgetragen soll die Punktdichte sein bei Plakaten bei Jumbos noch darunter so um 10-5DPI ..und nun heißts rechnen..
:-))) kann ich nun mit meiner Bmpcc oder gh3 in 4K aufblasen oder muss ich mit ner extre gekauften 4K Ursa oder was weis ich was drehen, fotografieren um zu meinen extrem scharfen Damenrasiererplakaten zu kommen...? Das macht mich nun wirklich krank..;)

Space


Antwort von Axel:

Das Video "beweist", dass 8-bit nicht die Hölle und 10-bit nicht das Paradies sind. Das finde ich sympathisch, denn es stimmt natürlich.

Davon abgesehen frage ich mich, warum sich jemand die Mühe machen sollte, überhaupt so hässliche Bilder zu fabrizieren. Ich war ebenso erstaunt über die Canon-Fehlfarben wie über das verrauschte Red-Bild. Aber sehr praxisnah war dieser Test wohl wirklich nicht.

Kleiner (ich verspreche es) Exkurs. Vor vier Jahren kauften wir 1000 alte Fotos über Ebay, mit denen wir eine Wand in unserem Restaurant tapezierten. Eines davon gefiel uns so gut, das wir es zu unserem Logo machten. Es war ein postkartengroßes Foto zweier Kellnerinnen, auf der Rückseite stand mit Bleistift "Chemnitz 1908". Ich wollte ein Poster in 1,80m Bildhöhe davon und ließ es in einem Kopiershop mit der Anweisung scannen, das man später das Fotokorn, aber keine Pixel sehen können dürfte. Der Scan war 30 MB groß.

In Plakatgröße erkennt man Stoffstrukturen. Und, nur in der Größe, Bewegungsunschärfe in den Gesichtern. War wohl 2-3 Sekunden Belichtungszeit. Time is flowing like a river - to the sea ...

Ob wohl in 108 Jahren jemand den lilagesichtigen Dugdale an die Wand hängt?

Sieht aus wie ein Sternenflottengeneral, der einen futuristischen Geigerzähler hält, um die Strahlung auf A7rii zu messen ...
Aber da selbst im Kino alles nur Illusion ist, wird die Qualität überschätzt ;- Tiefflieger, du lebst! Lange nichts von dir gehört.

Bei Fragen der Auflösung brauchen wir uns an Kino gar nicht mehr zu orientieren. Das Angebot regelt die Nachfrage - in Bezug auf Fernseher. Und für mich ist klar, dass ein größeres Bild ein besseres Bild ist. Das ist keine persönliche "Meinung", sondern empirisch belegt. Ein großes Bild steigert die Aufmerksamkeit und damit die Aufnahmefähigkeit des Zuschauers. Und im Kino sind die Bilder heute bereits relativ klein im Vergleich zu dem, was man daheim an TV-Sets erschwingen kann. Und natürlich sollte das ab einer gewissen Größe 4k sein. Auch mit HD oder HDready-Content. Denn in Wirklichkeit ist Upscalen viel einfacher als Downscalen.
Ich erinnere mich auch, dass "Samsara" auf 70mm entstand. Und im digitalen Kino in 4k vorgeführt. Kein Zweifel, wenn sowas das Ziel ist, müssen wir uns höheren Auflösungen zuwenden.

Stattdessen sehen wir aber viel elendes Getrickse, 4k als besseres HD und zur vermeintlichen Banding-Vermeidung. Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? Vermatschter Murks oder kontrastarmer Videomüll. Da vergleicht jemand Fallobst in einem Verwesungszustand, der gar nicht mehr erkennen lässt, was das mal für eine Frucht vorstellen sollte.

Space


Antwort von Peppermintpost:


Stattdessen sehen wir aber viel elendes Getrickse, 4k als besseres HD und zur vermeintlichen Banding-Vermeidung. Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? Vermatschter Murks oder kontrastarmer Videomüll. Da vergleicht jemand Fallobst in einem Verwesungszustand, der gar nicht mehr erkennen lässt, was das mal für eine Frucht vorstellen sollte. sehr schön axel, ich bin zwar nicht immer, aber sehr oft dein fan. du hast es mal wieder auf den punkt gebracht. ;-)
wir schauen auf bilder wo eins kotziger ausschaut als das andere und das einzige was uns offensichtlich dazu einfällt ist wieviel k und wieviel bit es hat. das das meiste zeugs ausschaut wie rotz fällt aber kaum einem auf.

"The Hobbit" hatte jede menge pixel, jede menge fps, jede menge 3d und CC, und es war das schlimmste kino erlebniss das is jemals hatte. und da spreche ich noch nicht vom inhalt des films. aber das scheint ja genau der look zu sein den viele hier geil finden. na bitte, warum nicht. ich bin jedenfalls sehr froh das in hollywood wieder ein deutlicher trend zu zelluloid festzustellen ist und das es auch eine hand voll menschen gibt die aus digital auch noch einen film look hin bekommen, sowohl mit alexa als auch mit red, pixel und bit seinen wohl doch nicht so wichtig zu sein. für mein film empfinden jednefalls nicht.

Space


Antwort von Funless:

ich bin jedenfalls sehr froh das in hollywood wieder ein deutlicher trend zu zelluloid festzustellen ist und das es auch eine hand voll menschen gibt die aus digital auch noch einen film look hin bekommen, sowohl mit alexa als auch mit red, pixel und bit seinen wohl doch nicht so wichtig zu sein. für mein film empfinden jednefalls nicht. Allmächtiger, lass' das bloß nicht den iasi lesen. Da gibt's dann gleich wieder Armageddon.

Space


Antwort von mash_gh4:

Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? mich hat das auch ziemlich geschockt!
allerdings fürchte ich, dass leider sehr viele in dieser weise herumfuhrwerken, statt sich wirklich sauberer import-mechnismen für die unterschiedlichen kameras bzw. log-profile zu bedienen. mit ein paar groben änerdungen an den regler in rec709 zentrierten werkzeugen bekommt man das nicht hin.

gut, ich geb zu, dass man derartiges in normalfall wohl nur für ein paar kameras, die man wirklich gut kennt, jederzeit aus dem ärmel schütteln kann, während man sich mit ungewohntem neuen wieder mühsam damit ausseinandersetzen muss -- trotzdem: daran kommt man nicht vorbei!

Space


Antwort von Bruno Peter:

"The Hobbit" hatte jede menge pixel, jede menge fps, jede menge 3d und CC, und es war das schlimmste kino erlebniss das is jemals hatte... Hehehe...
solche 3D-Filme sollen sogar zu Epilepsie-Anfällen bei empfindlichen Menschen führen...

Noch schlimmer:

Eine TV-Moteratorin, erzählte in Ihrer Talk-Show, daß sie die Neuverfilmung von "Das Dschungelbuch" ohne 3D-Brille angesehen hat, weil Sie diese vergessen hat mitzunehmen. Die Doppelbilder hätten bei Ihr zu Kopfschmerzen und Schwindel geführt...

Die "Verblödung" eines Teils der Bevölkerung durch Umfeldfaktoren hat schon vor 10 Jahren begonnen. Die angestellten Lehrlinge aus der Grund- und Hauptschule sind immer schwächer geworden, die Firmen müssen im Werksunterricht diesen Lehrlingen sogar das Bruchrechnen nachträglich beibringen.

Nun machen gewisse Leute Ihre "Verblödimg" sogar noch in Talk-Shows öffentlich..., ja wohin führt das alles?

Space



Space


Antwort von Tiefflieger:

Aber da selbst im Kino alles nur Illusion ist, wird die Qualität überschätzt ;- Tiefflieger, du lebst! Lange nichts von dir gehört.

Bei Fragen der Auflösung brauchen wir uns an Kino gar nicht mehr zu orientieren. Das Angebot regelt die Nachfrage - in Bezug auf Fernseher. Und für mich ist klar, dass ein größeres Bild ein besseres Bild ist. Das ist keine persönliche "Meinung", sondern empirisch belegt. Ein großes Bild steigert die Aufmerksamkeit und damit die Aufnahmefähigkeit des Zuschauers. Und im Kino sind die Bilder heute bereits relativ klein im Vergleich zu dem, was man daheim an TV-Sets erschwingen kann. Und natürlich sollte das ab einer gewissen Größe 4k sein. Auch mit HD oder HDready-Content. Denn in Wirklichkeit ist Upscalen viel einfacher als Downscalen. Hallo Axel,

Ja ich lebe ganz gut :-)

Zurzeit bin ich eher ein Beobachter. Technisch läuft ausser im Ton Bereich momentan nicht sehr viel.
Solange ich (privat) meine detailreiche(n) FullHD Dreichip Kamera(s) mit 50 Voll-Bildern pro Sekunde habe, sehe ich noch kein Handlungsbedarf.

Obwohl ich im Handy ausreichendes OIS stabilisiertes 4K könnte (iPhone 6s+/Samsung S7 EDGE), hat es mich nicht mal gereizt eine Bildanalyse zu machen.

Gruss Tiefflieger

Space


Antwort von Frank Glencairn:


Stattdessen sehen wir aber viel elendes Getrickse, 4k als besseres HD und zur vermeintlichen Banding-Vermeidung. Mit Farben, die einen wirklich kotzen lassen, gleichgültig, ob das Hemd grün oder türkis ist. Sieht denn das keiner? Vermatschter Murks oder kontrastarmer Videomüll. Das predige ich schon die ganze Zeit. 4K drehen, und dann 3 mal durch einen beschissenen long GOP Codec pressen, bis sich 90% aller Bildinformationen in bunte zuckende Blobs verwandelt haben - tolle Wurst

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Dynamik Smartphone mit 10 Bit Log vs. Vollformat Standardprofil 8 Bit
16 Bit Waveform schmaler als 24 Bit Waveform?
Neue Sony A7S III filmt intern in 4K 10 Bit 4:2:2 bis 120fps - mit 15+ Dynamikumfang
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Canon EOS R5 im Praxistest: Hauttöne, 12 Bit RAW, LOG/LUT - Teil 1
Panasonic S5 in der Praxis: Hauttöne, 10 Bit 50p intern, Gimbal-Betrieb, AF, LOG/LUT ? Teil 1
Panasonic LUMIX S5 vorgestellt -- kompakte und günstige Vollformat Kamera mit 4K / 10 bit Video
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
Canon EOS R6 im Praxistest - die bessere Alternative für 4K 10 Bit LOG 50p? - Teil1
Erstes Hands On mit der Canon EOS C70: 16+ DR, 10 Bit Log, ND-Filter, XLR-Audio, Kompakt-Gehäuse uvm ...
iPhone 12 10-Bit Dolby Vision HDR auch ohne Pro?
Kamerakauf: Welche Kamera kann intern 4.2.2 8 Bit aufnehmen?
Zoom F2 Field Recorder - Audio-Zwerg mit 32-Bit-Float-Technologie
10 Bit HDR Dolby Vision Videofiles von iPhone 12 auf Mac/PC übertragen
FiLMiC Pro jetzt auch mit 10-Bit-Dolby Vision HDR auf 12er iPhones
iOS Videoschnitt-App LumaFusion: Version 2.4 bringt HDR Support und 10-Bit Processing
FiLMiC Pro 6.13 ermöglicht 10-Bit SDR Video Aufnahme mit iPhone 12




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash