Gemischt Forum



Farbtiefe 8bit vs 10bit



Der Joker unter den Foren -- für alles, was mehrere Kategorien gleichzeitig betrifft, oder in keine paßt
Antworten
sanftmut
Beiträge: 300

Farbtiefe 8bit vs 10bit

Beitrag von sanftmut »

Liebe Gemeinde,
...zu dieser immer wiederkehrenden Frage bitte ich noch mal um Erfahrungen (!) und Meinungen:

Frage 1: Ich weiß - "bei 8 bit droht banding bei starkem grading" etc - aber gibt es dazu Erfahrungen / irgendwo im Netz noch Beispiele vom End-Material (eventuell nach intensivem grading) zu sehen -also die Unterschiede von 8bit VS 10 bit VS 12 bit - oder eben wo die 8 bit 4:2:2 sichtbar ans Limit kommen?

Oder - Ende der Diskussion – sieht mind 10 Bit einfach “besser aus“ und 8bit is was für Anfänger (bewusst provokativ gefragt - ihr wisst was ich meine!?!) ???
(Ich weiß - der Workflow - und und und...)


Frage 2:
Sind denn mindestens 10 Bit "der Standard" für “professionelle“ Film-Produktionen (im TV) - oder kann man auch mit 8 Bit 4:2:2 was wirklich Gutes erreichen?


Danke!

PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen



Peppermintpost
Beiträge: 2535

Re: Farbtiefe 8bit vs 10bit

Beitrag von Peppermintpost »

wenn du im 8bit material keine offensichtlichen technischen fehler hast (wie z.B. banding) dann sieht man den unterschied im master nicht. bei der bearbeitung deines materials stellst du aber sehr oft die unterschiede fest, weil du dir einfach wesentlich schneller technische fehler generierst die du dann entweder reparieren must oder zurück rudern.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



wolfgang
Beiträge: 6683

Re: Farbtiefe 8bit vs 10bit

Beitrag von wolfgang »

Banding sieht man am laufenden Band bei diversen TV-Sendungen. Etwa bei all den hübschen Nachtaufnahmen einer Skyline einer beleuchteten Stadt. Lässt sich bei den heute vorherrschenden 8bit Panelen der gängigen HDTVs schwer vermeiden, 10bit werden erst UHT-TVs haben, und das auch erst in Zukunft. Sender spezifizieren heute eher HD mit 8bit 422 als Anforderung.

Erst wenn du einen hochwertigen workflow willst sind 10bit ein Muss. Hat aber mehr Reserven, und oft wird der verständliche Standpunkt vertreten heute eher nicht mehr 8bit Geräte zu kaufen. Ein Standpunkt dem sicher derzeit eine Mehrheit eher nicht folgen dürfte. Die Frage ist eher was dein Anspruch ist; und warum. Über Story und Emotionen sagt diese technische Fragestellung ohnedies wenig bis kaum was aus.
Lieben Gruß,
Wolfgang



Uwe
Beiträge: 1310

Re: Farbtiefe 8bit vs 10bit

Beitrag von Uwe »

sanftmut hat geschrieben:...
PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen
Ein abschließendes Urteil wirst Du wohl auch hier nicht bekommen. Die Meinungen von ernstzunehmenden Usern, die damit auch echte Erfahrungen gemacht haben, sind doch teilweise ziemlich kontrovers. Bei DV Info wurde es vor ein paar Jahren auch mal diskutiert:
http://www.dvinfo.net/forum/general-hd- ... ition.html

Und Michael Reichmann von Luminous Landscape meint dazu:
But do be careful not to become too trapped in the numbers game. Yes, 10 bit 4:2:2 has more bit depth and colour manipuability than 8 bit 4:2:0. But unless you are doing green-screen work, or anticipate doing heavy image grading, you literally will not see the difference. So, while I, like you, want 10 bit 4:2:2, and will likely buy a Shugun this fall, having to use a bulky rig for run-and-gun shooting (which is mostly what I do) isn't that appealing, and won't make much if any difference to the work that we do most of the time.
Gruss Uwe



axl*
Beiträge: 229

Re: Farbtiefe 8bit vs 10bit

Beitrag von axl* »

Bilde dir dein eigenes Urteil. Im nachstehhenden Link kannst du dir von meinem Demovideo eine original 10 Bit Footage downloaden:

https://www.youtube.com/watch?v=ErMny4BQyak
Mit besten Grüßen vom Axel aus Berlin



Jott
Beiträge: 23152

Re: Farbtiefe 8bit vs 10bit

Beitrag von Jott »

Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden. Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.
Zuletzt geändert von Jott am Fr 11 Sep, 2015 20:49, insgesamt 1-mal geändert.



axl*
Beiträge: 229

Re: Farbtiefe 8bit vs 10bit

Beitrag von axl* »

Jott hat geschrieben:Dass... ein privater Utlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.
Wurde in dieser Form wo behauptet?
Mit besten Grüßen vom Axel aus Berlin



Jott
Beiträge: 23152

Re: Farbtiefe 8bit vs 10bit

Beitrag von Jott »

Das schwebt als heiliges Mantra über diesem Forum.



axl*
Beiträge: 229

Re: Farbtiefe 8bit vs 10bit

Beitrag von axl* »

Verstehe... :-))
Mit besten Grüßen vom Axel aus Berlin



Peppermintpost
Beiträge: 2535

Re: Farbtiefe 8bit vs 10bit

Beitrag von Peppermintpost »

Jott hat geschrieben:Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden.
jott ich hab ja inzwischen genau so lange mit D1 und DigiBeta gearbeitet wie file basiert und daher kann ich dir aus eigener erfahrung sagen das der vergleich aus verschiedenen gründen nicht fair ist.

zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.

zum anderen gab es damals farbkorrektur an 2 stellen, entweder in der telecine oder an der flame. an beiden kisten wurde damals zu 99% schön 35mm film material gegradet weil die produktionen die schon auf video drehen mussten sicherlich kein budget hatten was sie dann im grading verblasen konnten. das bild material aus der zeit war auch deutlich öfter richtig belichtet als das heute der fall ist, und es wurde der ganze bild verbiege lut scheissdreck einfach nicht benutzt, ausser cineon log bei einem film scan, der war dann aber auch nicht 8bit.

die "farbkorrektur" für die billo produktionen wurden wenn überhaupt im after effects oder im avid gemacht und die haben dann auch genau so ausgesehen.

und ne xdcam hd war auch so ein ober scheiss, den hat ja auch keiner gekauft. die ganzen 8bit hd kameras waren ja sehr erfolglos, aber, das verdrängen die meisten heute ja auch gerne, die erste red war auch so ein ober kernschrott, damit würde ich in der tat noch nicht einmal meinen urlaubsfilm drehen wollen. also die anfagszeit von digitaler hd aufzeichnung war keine glanzstunde der broadcast industrie. ;-)
oder wie wowu sagen würde, da stand hd auch nur auf dem karton.
Jott hat geschrieben: Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.
tja, da kann ich nichts zu sagen, da stimme ich dir 100%tig zu.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



dirkus
Beiträge: 1165

Re: Farbtiefe 8bit vs 10bit

Beitrag von dirkus »

Ich hab den Unterschied erst gemerkt, als ich 8Bit Material und 12 Bit Material im AE Rotoskopieren oder Keyen wollte.

Bei 12 Bit waren deutlich feinere Nuoncen zu sehen.

Bei 8Bit hatte ich immer noch Ränder an den ge - keyten Frames. Bei 12 Bit war alles sauber.

Kurz gesagt:
Wenn man alles so lassen will, wie es aufgenommen wurde, dann macht es keinen (sichtbaren) Unterschied...

...fängt man allerdings an, an irgendwelchen Reglern zu drehen, dann wird der Unterschied schon deutlich.



TheBubble
Beiträge: 2076

Re: Farbtiefe 8bit vs 10bit

Beitrag von TheBubble »

sanftmut hat geschrieben: PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen
Es kommt darauf an, was Du tun willst. Letztlich kann man das einfach mal mathematisch betrachten und dann wie folgt zusammenfassen, ausgehend von der Annahme, dass das Endprudukt immer nur 8 Bit Farbtiefe besitzt und 10/12 Bit Ausgangsmaterial auch wirklich die angegebene Auflösung hat und in den unteren Bits nicht nur Rauschen vorhanden ist:

- Wenn Farben/Helligkeiten zusammengeschoben werden (Kontrastverringerung, Helligkeitsabsenkung, Sättigung reduzieren, usw.), dann hat man von mehr als 8 Bit im Ausgangsmaterial eher wenig.

- Wenn Farben/Helligkeiten auseinandergezogen/gespreizt werden, dann profitiert man von höher aufflösendem Ausgangsmaterial. Macht man das allerdings nicht zu stark, dann merkt vermutlich kein Zuschauer einen Unterschied und wenn, dann am wahrscheinlichsten anhand von Banding in größeren Flächen mit an sich weichem Übergang.

Noch eine Anmerkung:

Grade bei nur kleineren Änderungen sollte man auch bedenken, dass ein stark komprimierender Codecs vermutlich stärkere Artefakte einbaut, als eine leichte Farbkorrektur und von der Investition beim Zuschauer weniger Nutzen ankommt, als man selbst bei der Bearbeitung wahrnimmt.



cantsin
Beiträge: 17145

Re: Farbtiefe 8bit vs 10bit

Beitrag von cantsin »

Man könnte es (leicht zynisch) auch so formulieren, dass das Aufzeichnen eines wirklich guten 8bit-Bilds "out of the camera" wesentlich aufwändiger ist als z.B. Aufzeichnen eines mittelmäßigen 10bit-Bilds, aus dem man in der Nachbearbeitung händisch gutes 8bit macht.

Deswegen produzieren praktisch nur Profikameras mit aufwändiger interner Signalverarbeitung, wie die erste Canon C300, gute 8bit-Videobilder, während die Videobilder, die aus Consumerkameras kommen, da nicht ansatzweise heranreichen, obwohl deren Sensoren nicht unbedingt schlechter sind.

Würden alle Consumerkameras Bilder auf dem Niveau der C100/C300 liefern, bräuchten wir uns über 10bit im Amateur-/DIY-sektor nicht zu unterhalten.



Peppermintpost
Beiträge: 2535

Re: Farbtiefe 8bit vs 10bit

Beitrag von Peppermintpost »

dirkus hat geschrieben:Ich hab den Unterschied erst gemerkt, als ich 8Bit Material und 12 Bit Material im AE Rotoskopieren oder Keyen wollte.

Bei 12 Bit waren deutlich feinere Nuoncen zu sehen.

Bei 8Bit hatte ich immer noch Ränder an den ge - keyten Frames. Bei 12 Bit war alles sauber.

Kurz gesagt:
Wenn man alles so lassen will, wie es aufgenommen wurde, dann macht es keinen (sichtbaren) Unterschied...

...fängt man allerdings an, an irgendwelchen Reglern zu drehen, dann wird der Unterschied schon deutlich.
sehe ich auch so, gerade beim keyen ist die hohe farbtiefe wirklich hilfreich, in der farbkorrektur kann ich auch mit 8bit schöne bilder bauen, auch banding im himmel bekomme ich irgendwie beseitigt, aber beim keyen jedes haar händisch freistellen ist eine arbeit für jemanden der nicht alle auf dem zaun hat. ne dirk, da können wir beide ja ein lied von singen, ich sag nur weisse haare vor weissen tracking markern ;-)
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



Jott
Beiträge: 23152

Re: Farbtiefe 8bit vs 10bit

Beitrag von Jott »

"und ne xdcam hd war auch so ein ober scheiss, den hat ja auch keiner gekauft. die ganzen 8bit hd kameras waren ja sehr erfolglos, aber, das verdrängen die meisten heute ja auch gerne"

Hm? Falscher Planet? XDCAM HD 422 (8Bit-Format) ist seit Jahren weltweit führend im Broadcastbereich. Hat keiner gekauft? Der größte Erfolg von Sony nach Betacam. Wovon redest du, Peppermint?



Peppermintpost
Beiträge: 2535

Re: Farbtiefe 8bit vs 10bit

Beitrag von Peppermintpost »

kann sein das ich mich irre, hast du irgend welche stückzahlen was den verkauf angeht? ich hab so ein ding noch niemals in natura gesehen (ausser auf ner messe). gefühlt würde ich sagen es gibt sogar mehr alexas als xdcam (was natürlich bestimmt nicht stimmt), aber weder hab ich so eine kamera jemals gesehen, noch footage von der kamera bekommen.

aber wie gesagt, ist gut möglich das meine einschätzung da falsch ist. ich kenne keinen offiziellen zahlen.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



Roland Schulz
Beiträge: 3565

Re: Farbtiefe 8bit vs 10bit

Beitrag von Roland Schulz »

Jott hat geschrieben:Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden. Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.
Wenn ich mir alleine meine 8-bit FHD/UHD "Urlaubsfilme" mal (aufnahmetechnisch, bei für die jeweilige Kamera ausreichendem Licht) angucke und mit egal welcher TV-Produktion vergleiche fallen mir bei dem Schrott der zuhause egal wie ankommt doch in 99% der Fälle die Zähne aus ;-)!!
Ein TV-Endprodukt heute noch qualitativ als Vergleich anzuziehen passt kaum noch, das ist fast alles Dreck, da liefert ne LX100 mehr!!
Die wenigen Aufnahmen die wirklich sitzen (Studio mit HDC-1500++) sind leider sehr selten.


Es spielt auch keine Rolle ob die Kette am Ende nur 8-bit hat (Player, TV selbst). Wenn ein 8-bit Signal aus der Cam noch mal entsprechend ggf. "stark" gegraded wird werden Zwischenabstufungen in der Graduation eben benachbarten Werten zugeschoben, dann gibt's Abrisse oder auch Banding. Bei 10-bit hat man einfach schon mal die 4-fache Reserve bevor Abrisse entstehen.
Zugegeben fällt sowas vielen oder in vielen Motiven auch gar nicht auf, wenn's aber da ist (nahezu homogener Himmel etc.) ist's nicht "schön".

8-bit vs. 10-bit ist einfach nur eine Preisfrage, fast jede Cam würde dadurch aufgewertet. Die höhere Quantisierung macht immer dann Sinn wenn das Rauschen der Cam geringer ist als die Quantisierungsstufen.


Wenn man beim Dreh aber alles richtig macht (und vor allem die Bedingungen es erlauben), da stimme ich zu, kann man auf mehr als 8-bit verzichten, wenn nämlich hinterher gar kein Grading mehr erforderlich wird.



Roland Schulz
Beiträge: 3565

Re: Farbtiefe 8bit vs 10bit

Beitrag von Roland Schulz »

Peppermintpost hat geschrieben:
....zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.
Häää?! Hääää?! Hääääää?!?!?! Falscher Planet!!! Da hat das eine mit dem anderen aber sowas von nix mit zu tun - und, wie war das nochmal mit der Farbabtastung bei der "ESSDEEE" Digibeta?!?!

Wenn man eine Abhängigkeit zwischen Bildauflösung und Banding ableiten wollte dann trifft Umgekehrtes zu, dass bei einer höheren Auflösung und gleichem Abbildungsmaßstab Pixel kleiner werden, damit der durch Rauschen bedingte Dithereffekt ein Banding durch kleinere Pixel eher "verschleiert".

Ohne Rauschen ändert sich der Effekt aber in Abhängigkeit der Auflösung kein Stück!!



Jott
Beiträge: 23152

Re: Farbtiefe 8bit vs 10bit

Beitrag von Jott »

Peppermintpost hat geschrieben:kann sein das ich mich irre, hast du irgend welche stückzahlen was den verkauf angeht? ich hab so ein ding noch niemals in natura gesehen (ausser auf ner messe). gefühlt würde ich sagen es gibt sogar mehr alexas als xdcam (was natürlich bestimmt nicht stimmt), aber weder hab ich so eine kamera jemals gesehen, noch footage von der kamera bekommen.

aber wie gesagt, ist gut möglich das meine einschätzung da falsch ist. ich kenne keinen offiziellen zahlen.

http://www.sony.de/pro/product/broadcas ... /overview/

Die PDW-Serie ist seit vielen, vielen Jahren weltweit so allgegenwärtig (klassische 2/3"-TV-Schultercam), dass ich deine Einlassung gar nicht glauben kann. Die berühmten technischen Anforderungen und Pflichtenhefte der Broadcaster wurden und werden durch diese Kameraserie exakt abgedeckt (böse Zungen behaupten sogar, Sony habe bei der Verfassung selbiger die Finger im Spiel gehabt). Frag irgend jemanden, der mit TV-Beiträgen zu tun hat. Die einzige Konkurrenz ist Panasonic mit ähnlich aufgebauten P2-Kameras, die sich aber weniger durchsetzen konnten.

Eine Ablösung ist nicht in Sicht. Von neueren Codecs wie XAVC wollen Sender nichts wissen. Was der Bauer nicht kennt .... daher tickt die Broadcastwelt weitgehend in 8 Bit. Irgendwann, in einer fernen Galaxis, mag sich das mal ändern. Man träumt ja immerhin von UHD, Rec.2020 und so was, während nebenan in der Realität noch die guten alten MAZen klackern und selbst DVCPro (SD, DV-Codec!) noch nicht tot ist.

Wenn's mal schick und hochwertig sein darf, kommt inzwischen auch mal die Amira zum Zug, misstrauisch beäugt von den Hütern der Regeln und Normen.



wolfgang
Beiträge: 6683

Re: Farbtiefe 8bit vs 10bit

Beitrag von wolfgang »

Wenn man beim Dreh alles richtig macht - dann kann man also bei 8bit Banding vermeiden?? DAS wäre definitiv falsch. Seltsam dass das so häufig in diversen TV Sendungen auftaucht, und seltsam wie konsequent das hier verdrängt und ignoriert wird. Da haben viele gelernt das zu ignorieren.

Und ebenso seltsam das 10bit plötzlich zum Amateurfeature erklärt wird. Denn DAS ist es sicherlich nicht. Man zeige mir 5 Amateurkameras mit 10bit.

Mir kommt halt eher vor als werden hier alte 8bit Profigeräte "verteidigt". Betonung auf "alt". Denn die UHD/4K Zukunft ist sicher in 10bit.
Lieben Gruß,
Wolfgang



Axel
Beiträge: 17098

Re: Farbtiefe 8bit vs 10bit

Beitrag von Axel »

Vor ein paar Jahren war der Begriff "Grading" noch ein Fremdwort. Heute muss alles, um amtlich zu sein, durch Resolve gezogen werden. Überspitzt formuliert.

Früher gab es Farbkorrektur, und die ist fast immer angesagt. Es gibt praktisch keine Bilder, die ohne leichte Anpassungen perfekt sind. Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma. Während der Berechnung von Änderungen wird in jedem Bearbeitungsschritt so getan, als handele es sich um Material mit gigantischer Farbtiefe. Und erst ganz am Schluss, beim Rendern zu dem 8-bit Ausgabevideo, wird wieder auf integere Zahlen gerundet. Dabei kommt es zwangsläufig zu "Rundungsfehlern". Aber solange man nicht versucht, die Nacht zum Tage zu machen (Extrem-Grading) wird niemand sehen können, dass es solche Fehler gibt. Mit anderen Worten: kein Banding.

Meines Erachtens sollte man versuchen, in der Aufnahme möglichst dem erwünschten Endlook nahe zu kommen. Das hat mit Sorgfalt zu tun, aber auch mit der richtigen Kamera. Ein gutes, schön korrigiertes 8-bit-Video wird sich von einem guten, schön korrigierten 10-bit-Video nicht unterscheiden lassen.

Denn "Grading" ist nicht nur eine Technik. Es lässt sich in gewisser Hinsicht mit Kochen vergleichen. Was wir von den beliebten Kochpornos im TV lernen können ist, dass Haute cuisine mit Rezepten nichts zu tun hat, dass das Handwerkliche (Grading-Tuts) unverzichtbare Grundlage ist, Pflicht, dass die Kür jedoch wenigen Talentierten mit erlesenem Geschmack vorbehalten ist. Es gibt wenige Beispiele im Netz, in denen aufwändiges Grading zu einem Ergebnis geführt hat, dass an schön aufgenommenes und schön korrigiertes 8-bit - überspitzt formuliert - heranreicht.

Mit UHD und zukünftigen neuen Wiedergabegeräten werden 10-bit vermutlich zum Standard. Wer einen Himmel auf einem gigantischen "TV" betrachtet, wird irgendwann erkennen können, dass 8-bit-Video "irgendwie" nicht lebendig genug ist. Aber das wird noch Jahre brauchen, und die berühmte Zukunftssicherheit ist ein Widerspruch in sich.

Fazit: Lieber gutes 8-bit als vermurkstes 10-bit.



Roland Schulz
Beiträge: 3565

Re: Farbtiefe 8bit vs 10bit

Beitrag von Roland Schulz »

wolfgang hat geschrieben:Wenn man beim Dreh alles richtig macht - dann kann man also bei 8bit Banding vermeiden?? DAS wäre definitiv falsch.
Wenn man behauptet dass im Broadcastbereich (also bis nach hause auf die Glotze) "Banding" überhaupt nicht vermeidbar ist (max. 8-bit) gebe ich Dir (halb) Recht, eigentlich aber nicht.

Jetzt ist es so dass man nur dann von Banding sprechen "sollte", wenn Abstufungen zwischen Tonwerten durch Skalierung verloren gehen und dieser Verlust auch flächenweise Auswirkung zeigt - denn nur dann wäre es als Solches überhaupt erkennbar.

Fast jede heutige Kamera arbeitet intern ab dem Sensor mit mehr als der ausgegebenen 8-bit und führt Kontrastanpassungen, Linearisierungen, WB etc. mit größerer Quantisierung durch. Das Ausgabematerial kann dann sehr wohl schon das Endprodukt sein, welches kein weiteres Grading erfordert. Dann hätten wir nach obiger Auffassung kein Banding.

Punkt 2: Durch Rauschen oder bewusstest Dithern kann man die optischen Auswirkungen von Banding verschieben oder "verschleiern", spätestens hinter der Kompression ist's dann noch nicht mal mehr nachweisbar.

Definiert ist "Banding" nicht, von daher kann hier jeder irgendwas fordern was nicht einzuhalten ist und es dann als Banding hinstellen.


Am Ende ist die Reduktion auf 8-bit Ausgabe bei Kameras heute nur noch Politik der Hersteller, teurere Geräte zu rechtfertigen!! 10-bit sind im Post IMMER von Vorteil bzw. nie ein Nachteil (man kann die LSBs im Zweifelsfall einfach weglassen und hat 8-bit)!!
Kein Rechner ist irgendwo mehr auf 8-bit (char statt int) begrenzt, von daher ist bei richtiger Programmierung auch kein Performanceverlust zu erwarten. Die 20% mehr an Nettodatenvolumen kann man auch vernachlässigen, schraubt man die Kompression ggf. etwas höher.


Den Sonyansatz mit kostenpflichtigen Freischaltungen finde ich gut (F55, X70...). Wenn ich bei ner X70 kein UHD brauche spare ich mir die ~500€, sonst kaufe ich das dazu.
Aber bitte macht das konsequent - die Mühle ist zu gut als dass man auf 10-bit verzichten sollte - ich würde noch mal 500€ für 10-bit ausgeben. Genau so sollte man eine FS5 nicht versauen. Warum keine 10-bit UHD bei >200Mbps, mindestens nach Einwurf zusätzlicher Münzen?!?!



Roland Schulz
Beiträge: 3565

Re: Farbtiefe 8bit vs 10bit

Beitrag von Roland Schulz »

Axel hat geschrieben: Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma. Während der Berechnung von Änderungen wird in jedem Bearbeitungsschritt so getan, als handele es sich um Material mit gigantischer Farbtiefe. Und erst ganz am Schluss, beim Rendern zu dem 8-bit Ausgabevideo, wird wieder auf integere Zahlen gerundet. Dabei kommt es zwangsläufig zu "Rundungsfehlern". Aber solange man nicht versucht, die Nacht zum Tage zu machen (Extrem-Grading) wird niemand sehen können, dass es solche Fehler gibt. Mit anderen Worten: kein Banding.
8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.
Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht, das ginge schon arg auf die Performance. Viel eher werden 8-bit/10-bit CHAR/INT Werte auf bis zu DOUBLE (64-bit) skaliert und weiterverarbeitet, das geht noch recht flott in ner 64-bit Umgebung. In den meisten Fällen wird aber auch noch bei WORD (32-bit) Schluss sein, weil einfach noch viel alter Code mitgeschleppt wird und nicht alles "in Null Zeit" angepasst werden konnte...



axl*
Beiträge: 229

Re: Farbtiefe 8bit vs 10bit

Beitrag von axl* »

Es ist queerbeet in allen Foren das Gleiche bei Technologiefortschritten. So lange die Mehrheit nicht über die neueren Technologien verfügt, so lange wird das Vorhandene schöngeredet.
Mit besten Grüßen vom Axel aus Berlin



dienstag_01
Beiträge: 14710

Re: Farbtiefe 8bit vs 10bit

Beitrag von dienstag_01 »

Wenn das alles so klar wie Kloßbrühe wäre, gäb es schon längst den ultimativen 8bit - 10 bit Vergleich.
Gibts aber nicht ;)

Kann man ja auch mal drüber nachdenken, z.B., was es noch für Parameter gibt, die Einfluss auf die Bildqualität haben. (Der hier schon mehrmals beschriebene Vorteil beim Keying ist eher auf die Unterschiede im Fabsampling zurückzuführen - 4:2:2 gegen 4:2:0 - denke ich)

(Sichtbares) Banding entsteht durch Datenreduktion. So wie im Internet.
Ich glaube nicht, dass YT sich davon beeindrucken lässt, ob dein Video in 8 oder 10bit aufgenommen wurde. Aber klar, GLAUBEN kann mans ;)



Axel
Beiträge: 17098

Re: Farbtiefe 8bit vs 10bit

Beitrag von Axel »

Axel hat geschrieben:Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma.
Roland Schulz hat geschrieben:8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.
Äh, ja, Flüchtigkeitsfehler.
Roland Schulz hat geschrieben:Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht...
Das wäre dann aber kein Gerücht mehr, sondern eine offene Lüge. Die Softwarehersteller behaupten "32-bit floating point accuracy", sogar das kostenlose Resolve.
axl* hat geschrieben:Es ist queerbeet in allen Foren das Gleiche bei Technologiefortschritten. So lange die Mehrheit nicht über die neueren Technologien verfügt, so lange wird das Vorhandene schöngeredet.
Hallo Namensvetter. Ich rede nichts schön. 8-bit ist das Hinterletzte. Poste mal einen Link zu einem Video, in dem 10-bit glänzen!

Gruß aus der Provinz ...



cantsin
Beiträge: 17145

Re: Farbtiefe 8bit vs 10bit

Beitrag von cantsin »

In unserer Diskussion scheinen gerade zwei Dinge fröhlich durcheinandergewürfelt zu werden: 10bit als Aufnahme- und Masteringfarbtiefe und 10bit als Abspielfarbtiefe.

Ich behaupte: 10bit beim Abspielen ist "nice to have", aber niemand wird abstreiten, dass man auch in heutiger 8bit-BluRay-Qualität Filme anständig ansehen kann.

Bei Aufnahme und Mastering ist 8bit allerdings eine echte Einschränkung, vor allem, wenn man keine Kamera hat, die ein perfektes 8bit-Bild direkt aufzeichnet.

Das fängt schon bei der Belichtung an - eine Blende unterbelichtet, um Abrndstimmung richtig wiederzugeben, und schon hat man 7bit-Material. Auch sonst dürfte aus den üblichen DSLRs und Spiegellosen nach (selbst nur simplen) Farbkorrekturen und diversen Reencodingschritten nur 7bit oder weniger übrig bleiben.



Roland Schulz
Beiträge: 3565

Re: Farbtiefe 8bit vs 10bit

Beitrag von Roland Schulz »

Axel hat geschrieben:
Roland Schulz hat geschrieben:8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.
Äh, ja, Flüchtigkeitsfehler.
Roland Schulz hat geschrieben:Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht...
Das wäre dann aber kein Gerücht mehr, sondern eine offene Lüge. Die Softwarehersteller behaupten "32-bit floating point accuracy", sogar das kostenlose Resolve.
...ich dachte eigentlich Du meintest "floating point", und nicht das was BMD hier bewirbt...

Das hier ist eher eine WORD Transformation die ich ansprach - die aber völlig ausreichend ist. Echtes FP ist das nicht!!



axl*
Beiträge: 229

Re: Farbtiefe 8bit vs 10bit

Beitrag von axl* »

@cantsin

Es gibt also doch User, die es verstehen. ( thumb up )

Wenn man sich nun noch ins Gedächtnis ruft, dass die ganze H264 Geschichte zunächst als ein reines Distributionsformat ins Leben gerufen wurde...
Mit besten Grüßen vom Axel aus Berlin
Zuletzt geändert von axl* am Sa 12 Sep, 2015 11:13, insgesamt 1-mal geändert.



Rick SSon
Beiträge: 1624

Re: Farbtiefe 8bit vs 10bit

Beitrag von Rick SSon »

Sobald man in h.264 rendert wird das Bild doch ohnehin in 8 Bit verwurschtelt.

Das ist der Moment in dem ich immer ein wenig traurig werde, das niemand im www je sehen wird, wie schön mein 10 bit Material noch im NLE aussah :D



cantsin
Beiträge: 17145

Re: Farbtiefe 8bit vs 10bit

Beitrag von cantsin »

Rick, h264 kann auch 10bit.



ennui
Beiträge: 1212

Re: Farbtiefe 8bit vs 10bit

Beitrag von ennui »

Manche Leute wollen mit dem glänzen, was sie machen und können. Da reichen 8 Bit oft, zb. für Fernsehserien, Dokus, Kinofilme, Musikvideos usw. Einschränkungen gibt es dann natürlich beim Graden und wilden Bildverbiegen.

Manche Leute wollen mit dem glänzen, was sie sich neues gekauft, geleistet haben. Da reichen 8 Bit nicht, denn das hat ja jeder -> langweilig! Wegen diesen Leuten steht auf den 10Bit-Kameras fett "10 Bit", "Mega", "vollkrasssuperduper" und sowas auf einem Aufkleber, oft lassen sie den dann auch extra dran.



schwarznachtfilmer
Beiträge: 138

Re: Farbtiefe 8bit vs 10bit

Beitrag von schwarznachtfilmer »

und des 2015...???

Trommelbremsen werden wieder verbaut ( 8bit)..
Und natürlich wird das ganze böse böse Internet abgeschafft, die
gemeinen user kommen in die Hirnwäsche und die ZDF und ORF
G E B Ü H R E N werden um 300% zwangserhöht..is des so.

Do reibt sich der Amazon/Netflix die Nudel und..ja.

Ich bekomme mit 8 bit weil ich weiss was ich wann und wo und bei
welchem Licht und die Linse und und... alles super sauber hin.
Aber tut es weh, eine normalen Hosengacklercodec ( Xahvzeeh)(Sony)
mit 10 bit auszustatten der rödelt auf die gepriesene interne Karte
( weil manche keinen exteren Recorder finanzieren) und als normaler
10 bit-Xahvzeeh Schwachmat bin ich beim Blümchen doku film 2016
in den weiten Welten von und so weiter häppy, hab noch etwas Fleisch
und Resolve macht spass..

Ich bin für Tasten-telefone mit Kabelanschluss und ATARRI wird wieder
eingeführt.. dan 480erpal mit 10 Frames und weil ich es liebe
nur und einzig SCHWARZ WEISS... und Röhre..dazu KOks ( das zum heizen!) und mit dem Vergaser-kadett geht es ins Büro.. des is es..
jo :)
Dunkelheit ist die hellste Form der Erleuchtung



schwarznachtfilmer
Beiträge: 138

Re: Farbtiefe 8bit vs 10bit

Beitrag von schwarznachtfilmer »

ICH BIN EIN POTENTIELLER FS-5 KUNDE!

wos mochts jetzt bei SONY WIEN? ha?

2015 net 2005
Dunkelheit ist die hellste Form der Erleuchtung



cantsin
Beiträge: 17145

Re: Farbtiefe 8bit vs 10bit

Beitrag von cantsin »

ennui hat geschrieben:Manche Leute wollen mit dem glänzen, was sie machen und können. Da reichen 8 Bit oft, zb. für Fernsehserien, Dokus, Kinofilme, Musikvideos usw. Einschränkungen gibt es dann natürlich beim Graden und wilden Bildverbiegen.

Manche Leute wollen mit dem glänzen, was sie sich neues gekauft, geleistet haben. Da reichen 8 Bit nicht, denn das hat ja jeder -> langweilig! Wegen diesen Leuten steht auf den 10Bit-Kameras fett "10 Bit", "Mega", "vollkrasssuperduper" und sowas auf einem Aufkleber, oft lassen sie den dann auch extra dran.
[size=0][/size]

Ennui, sorry - aber das ist totaler Unsinn. Erstens gibt es überhaupt noch keine Consumerkameras, die 10bit aufzeichnet; einzige Ausnahme ist die GH4, die 10bit an HDMi liefert (aber auch nicht intern aufzeichnen kann).

Und nenne mir mal bitte eine Fernsehserie, die in 8bit aufgezeichnet wird - ausser vielleicht Daily Soaps. Früher war Super 16mm der Standard für Fernsehserien, heute ist es die Alexa.

Und da, wo im professionellen Bereich (Dokus etc.) in 8bit gedreht wird, mit C300 und ähnlichen Kameras, ist 8bit 4:2:2 in hochwertigen Codecs Mindeststandard der Sender. Das hat wenig mit dem Consumer 8bit 4:2:0 zu tun, das DSLRs und Spiegellose aufzeichnen.



 Aktuelle Beiträge [alle Foren]
 
» Minimale Belichtungszeit
von shellbeach - So 14:20
» SCHLECHTE FILME trotz besserem Equipment? Mit WOLFGANG M. SCHMITT
von cantsin - So 13:42
» ezff - vereinfachte Kommandozeile für ffmpeg
von cantsin - So 13:23
» Photoshop: Internetnutzer "entschwärzen" die Epstein-Files
von Bildlauf - So 13:13
» USA verbieten neue Drohnen aus China - und dem Rest der Welt
von philr - So 13:02
» Slop ist Wort des Jahres 2025
von cantsin - So 12:41
» RIP: Brigitte Bardot
von Bluboy - So 12:28
» Linsen (Vintage, Anamorphic & Co.)
von iasi - So 9:14
» Coca-Cola gibt KI als Kreativität aus und lässt Weihnachts-Werbespot generieren
von Blackbox - So 2:09
» Blackmagic PYXIS 12K - Sensor-Test - Rolling Shutter und Dynamik
von Mantas - Sa 21:34
» Was schaust Du gerade?
von Darth Schneider - Sa 19:33
» Sensorreinigung
von Ingole - Sa 18:12
» Hitachi Kassettendeck manuell öffnen?
von kupferfischle - Sa 16:21
» Vor 50 Jahren wurde die erste digitale Handkamera gebaut
von Jott - Sa 14:54
» Der letzte seiner Art: Keine Blu-ray-Player mehr von LG
von Bluboy - Sa 10:37
» Monitore unter oder über Monitoren? :)
von pillepalle - Sa 7:57
» Frohe Weihnachten - und ein Übrigens
von Darth Schneider - Fr 15:28
» Insta360 Updates für X5, Ace Pro 2 und Insta Studio bringen viele neue Funktionen
von KeineCloud - Do 18:18
» **BIETE** iPhone 13 Pro
von ksingle - Do 16:19
» Was hast Du zuletzt gekauft?
von ruessel - Do 15:50
» Christopher Nolans "The Odyssey" - offizieller Trailer
von Darth Schneider - Do 14:39
» Fuji XT-3 Gebrauchtkauf
von tomschubi - Do 14:29
» DJI Neo 2: Verbesserte Mini-Drohne für Solo-Creator und Einsteiger
von Alex - Do 9:22
» Neue IMAX Keighley 70mm Filmkamera ist um ein Drittel leiser
von CineMika - Mi 22:08
» Gopro Hero 11 Black - Akku-Laufzeit unterirdisch schlecht?!
von ElSaso - Mi 11:48
» Das mitführen einer Kamera im Flugzeug zerstört Pixel
von Darth Schneider - Mi 9:24
» Lav Mic und Funkstrecke - Kaufempfehlung
von Darth Schneider - Di 22:28
» Wer ist Profi?
von Jalue - Di 22:21
» Wie professionell sind die slashcAM-User
von tom - Di 17:39
» Neue Gerüchte: Nvidia soll die GPU-Produktion 2026 um 30-40% runterfahren
von DKPost - Di 15:13
» Wie erreiche ich diesen Look? (Panasonic S9)
von Darth Schneider - Di 14:27
» LGs 6K Monitor UltraFine evo 32U990A mit Thunderbolt 5 ist endlich da
von slashCAM - Di 13:57
» Verlosung der Sony FX2 - Gewinner steht fest
von slashCAM - Mo 21:51
» Sony Alpha 7 V Sensor-Test - Dynamik, Debayering und Rolling Shutter
von Tscheckoff - Mo 18:00
» Sony A7 V in der Praxis: Mix aus Sony A1 und FX3 zum halben Preis?
von rob - Mo 16:50