Logo Logo
/// 

Farbtiefe 8bit vs 10bit



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Frage von sanftmut:


Liebe Gemeinde,
...zu dieser immer wiederkehrenden Frage bitte ich noch mal um Erfahrungen (!) und Meinungen:

Frage 1: Ich weiß - "bei 8 bit droht banding bei starkem grading" etc - aber gibt es dazu Erfahrungen / irgendwo im Netz noch Beispiele vom End-Material (eventuell nach intensivem grading) zu sehen -also die Unterschiede von 8bit VS 10 bit VS 12 bit - oder eben wo die 8 bit 4:2:24:2:2 im Glossar erklärt sichtbar ans Limit kommen?

Oder - Ende der Diskussion – sieht mind 10 BitBit im Glossar erklärt einfach "besser aus" und 8bit is was für Anfänger (bewusst provokativ gefragt - ihr wisst was ich meine!?!) ???
(Ich weiß - der Workflow - und und und...)

Frage 2:
Sind denn mindestens 10 BitBit im Glossar erklärt "der Standard" für "professionelle" Film-Produktionen (im TV) - oder kann man auch mit 8 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt was wirklich Gutes erreichen?

Danke!

PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen



Antwort von Peppermintpost:

wenn du im 8bit material keine offensichtlichen technischen fehler hast (wie z.B. banding) dann sieht man den unterschied im master nicht. bei der bearbeitung deines materials stellst du aber sehr oft die unterschiede fest, weil du dir einfach wesentlich schneller technische fehler generierst die du dann entweder reparieren must oder zurück rudern.



Antwort von wolfgang:

Banding sieht man am laufenden Band bei diversen TV-Sendungen. Etwa bei all den hübschen Nachtaufnahmen einer Skyline einer beleuchteten Stadt. Lässt sich bei den heute vorherrschenden 8bit Panelen der gängigen HDTVs schwer vermeiden, 10bit werden erst UHT-TVs haben, und das auch erst in Zukunft. Sender spezifizieren heute eher HD mit 8bit 422 als Anforderung.

Erst wenn du einen hochwertigen workflow willst sind 10bit ein Muss. Hat aber mehr Reserven, und oft wird der verständliche Standpunkt vertreten heute eher nicht mehr 8bit Geräte zu kaufen. Ein Standpunkt dem sicher derzeit eine Mehrheit eher nicht folgen dürfte. Die Frage ist eher was dein Anspruch ist; und warum. Über Story und Emotionen sagt diese technische Fragestellung ohnedies wenig bis kaum was aus.





Antwort von Uwe:

...
PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen

Ein abschließendes Urteil wirst Du wohl auch hier nicht bekommen. Die Meinungen von ernstzunehmenden Usern, die damit auch echte Erfahrungen gemacht haben, sind doch teilweise ziemlich kontrovers. Bei DV Info wurde es vor ein paar Jahren auch mal diskutiert:
http://www.dvinfo.net/forum/general-hd- ... ition.html

Und Michael Reichmann von Luminous Landscape meint dazu:

But do be careful not to become too trapped in the numbers game. Yes, 10 bit 4:2:24:2:2 im Glossar erklärt has more bit depth and colour manipuability than 8 bit 4:2:0. But unless you are doing green-screen work, or anticipate doing heavy image grading, you literally will not see the difference. So, while I, like you, want 10 bit 4:2:24:2:2 im Glossar erklärt, and will likely buy a Shugun this fall, having to use a bulky rig for run-and-gun shooting (which is mostly what I do) isn't that appealing, and won't make much if any difference to the work that we do most of the time.



Antwort von axl*:

Bilde dir dein eigenes Urteil. Im nachstehhenden Link kannst du dir von meinem Demovideo eine original 10 BitBit im Glossar erklärt Footage downloaden:

https://www.youtube.com/watch?v=ErMny4BQyak



Antwort von Jott:

Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden. Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.



Antwort von axl*:

Dass... ein privater Utlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.
Wurde in dieser Form wo behauptet?



Antwort von Jott:

Das schwebt als heiliges Mantra über diesem Forum.



Antwort von axl*:

Verstehe... :-))



Antwort von Peppermintpost:

Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden.

jott ich hab ja inzwischen genau so lange mit D1 und DigiBeta gearbeitet wie file basiert und daher kann ich dir aus eigener erfahrung sagen das der vergleich aus verschiedenen gründen nicht fair ist.

zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.

zum anderen gab es damals farbkorrektur an 2 stellen, entweder in der telecine oder an der flame. an beiden kisten wurde damals zu 99% schön 35mm film material gegradet weil die produktionen die schon auf video drehen mussten sicherlich kein budget hatten was sie dann im grading verblasen konnten. das bild material aus der zeit war auch deutlich öfter richtig belichtet als das heute der fall ist, und es wurde der ganze bild verbiege lut scheissdreck einfach nicht benutzt, ausser cineon log bei einem film scan, der war dann aber auch nicht 8bit.

die "farbkorrektur" für die billo produktionen wurden wenn überhaupt im after effects oder im avid gemacht und die haben dann auch genau so ausgesehen.

und ne xdcam hd war auch so ein ober scheiss, den hat ja auch keiner gekauft. die ganzen 8bit hd kameras waren ja sehr erfolglos, aber, das verdrängen die meisten heute ja auch gerne, die erste red war auch so ein ober kernschrott, damit würde ich in der tat noch nicht einmal meinen urlaubsfilm drehen wollen. also die anfagszeit von digitaler hd aufzeichnung war keine glanzstunde der broadcast industrie. ;-)
oder wie wowu sagen würde, da stand hd auch nur auf dem karton.

Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.

tja, da kann ich nichts zu sagen, da stimme ich dir 100%tig zu.



Antwort von dirkus:

Ich hab den Unterschied erst gemerkt, als ich 8Bit Material und 12 BitBit im Glossar erklärt Material im AE Rotoskopieren oder Keyen wollte.

Bei 12 BitBit im Glossar erklärt waren deutlich feinere Nuoncen zu sehen.

Bei 8Bit hatte ich immer noch Ränder an den ge - keyten Frames. Bei 12 BitBit im Glossar erklärt war alles sauber.

Kurz gesagt:
Wenn man alles so lassen will, wie es aufgenommen wurde, dann macht es keinen (sichtbaren) Unterschied...

...fängt man allerdings an, an irgendwelchen Reglern zu drehen, dann wird der Unterschied schon deutlich.



Antwort von TheBubble:


PS: ich hatte wirklich einiges im Netz gelesen, bin aber immer noch nicht zu einem abschließenden Ergebnis gekommen

Es kommt darauf an, was Du tun willst. Letztlich kann man das einfach mal mathematisch betrachten und dann wie folgt zusammenfassen, ausgehend von der Annahme, dass das Endprudukt immer nur 8 BitBit im Glossar erklärt Farbtiefe besitzt und 10/12 BitBit im Glossar erklärt Ausgangsmaterial auch wirklich die angegebene Auflösung hat und in den unteren Bits nicht nur Rauschen vorhanden ist:

- Wenn Farben/Helligkeiten zusammengeschoben werden (Kontrastverringerung, Helligkeitsabsenkung, Sättigung reduzieren, usw.), dann hat man von mehr als 8 BitBit im Glossar erklärt im Ausgangsmaterial eher wenig.

- Wenn Farben/Helligkeiten auseinandergezogen/gespreizt werden, dann profitiert man von höher aufflösendem Ausgangsmaterial. Macht man das allerdings nicht zu stark, dann merkt vermutlich kein Zuschauer einen Unterschied und wenn, dann am wahrscheinlichsten anhand von Banding in größeren Flächen mit an sich weichem Übergang.

Noch eine Anmerkung:

Grade bei nur kleineren Änderungen sollte man auch bedenken, dass ein stark komprimierender Codecs vermutlich stärkere ArtefakteArtefakte im Glossar erklärt einbaut, als eine leichte FarbkorrekturFarbkorrektur im Glossar erklärt und von der Investition beim Zuschauer weniger Nutzen ankommt, als man selbst bei der Bearbeitung wahrnimmt.



Antwort von cantsin:

Man könnte es (leicht zynisch) auch so formulieren, dass das Aufzeichnen eines wirklich guten 8bit-Bilds "out of the camera" wesentlich aufwändiger ist als z.B. Aufzeichnen eines mittelmäßigen 10bit-Bilds, aus dem man in der Nachbearbeitung händisch gutes 8bit macht.

Deswegen produzieren praktisch nur Profikameras mit aufwändiger interner Signalverarbeitung, wie die erste Canon C300, gute 8bit-Videobilder, während die Videobilder, die aus Consumerkameras kommen, da nicht ansatzweise heranreichen, obwohl deren Sensoren nicht unbedingt schlechter sind.

Würden alle Consumerkameras Bilder auf dem Niveau der C100/C300 liefern, bräuchten wir uns über 10bit im Amateur-/DIY-sektor nicht zu unterhalten.



Antwort von Peppermintpost:

Ich hab den Unterschied erst gemerkt, als ich 8Bit Material und 12 BitBit im Glossar erklärt Material im AE Rotoskopieren oder Keyen wollte.

Bei 12 BitBit im Glossar erklärt waren deutlich feinere Nuoncen zu sehen.

Bei 8Bit hatte ich immer noch Ränder an den ge - keyten Frames. Bei 12 BitBit im Glossar erklärt war alles sauber.

Kurz gesagt:
Wenn man alles so lassen will, wie es aufgenommen wurde, dann macht es keinen (sichtbaren) Unterschied...

...fängt man allerdings an, an irgendwelchen Reglern zu drehen, dann wird der Unterschied schon deutlich.

sehe ich auch so, gerade beim keyen ist die hohe farbtiefe wirklich hilfreich, in der farbkorrektur kann ich auch mit 8bit schöne bilder bauen, auch banding im himmel bekomme ich irgendwie beseitigt, aber beim keyen jedes haar händisch freistellen ist eine arbeit für jemanden der nicht alle auf dem zaun hat. ne dirk, da können wir beide ja ein lied von singen, ich sag nur weisse haare vor weissen tracking markern ;-)



Antwort von Jott:

"und ne xdcam hd war auch so ein ober scheiss, den hat ja auch keiner gekauft. die ganzen 8bit hd kameras waren ja sehr erfolglos, aber, das verdrängen die meisten heute ja auch gerne"

Hm? Falscher Planet? XDCAM HD 422 (8Bit-Format) ist seit Jahren weltweit führend im Broadcastbereich. Hat keiner gekauft? Der größte Erfolg von Sony nach Betacam. Wovon redest du, Peppermint?



Antwort von Peppermintpost:

kann sein das ich mich irre, hast du irgend welche stückzahlen was den verkauf angeht? ich hab so ein ding noch niemals in natura gesehen (ausser auf ner messe). gefühlt würde ich sagen es gibt sogar mehr alexas als xdcam (was natürlich bestimmt nicht stimmt), aber weder hab ich so eine kamera jemals gesehen, noch footage von der kamera bekommen.

aber wie gesagt, ist gut möglich das meine einschätzung da falsch ist. ich kenne keinen offiziellen zahlen.



Antwort von Roland Schulz:

Man muss immer wieder mal dran erinnern: die (sauteuren) Standardkameras für TV-Produktion (XDCAM HD) arbeiten mit 8Bit. Nein, es geht nicht nur um's Aktuelle, so entstehen zum Beispiel auch hochwertige Dokus rund um die Welt, die natürlich auch gegradet werden. Frech gesagt: wer beim Drehen weiß, was er tut, der kommt problemlos klar mit 8Bit. Dass parallel dazu ein privater Urlaubsfilm unter 10Bit undenkbar sein soll, ist schon spannend.

Wenn ich mir alleine meine 8-bit FHD/UHD "Urlaubsfilme" mal (aufnahmetechnisch, bei für die jeweilige Kamera ausreichendem Licht) angucke und mit egal welcher TV-Produktion vergleiche fallen mir bei dem Schrott der zuhause egal wie ankommt doch in 99% der Fälle die Zähne aus ;-)!!
Ein TV-Endprodukt heute noch qualitativ als Vergleich anzuziehen passt kaum noch, das ist fast alles Dreck, da liefert ne LX100 mehr!!
Die wenigen Aufnahmen die wirklich sitzen (Studio mit HDC-1500++) sind leider sehr selten.

Es spielt auch keine Rolle ob die Kette am Ende nur 8-bit hat (Player, TV selbst). Wenn ein 8-bit Signal aus der Cam noch mal entsprechend ggf. "stark" gegraded wird werden Zwischenabstufungen in der Graduation eben benachbarten Werten zugeschoben, dann gibt's Abrisse oder auch Banding. Bei 10-bit hat man einfach schon mal die 4-fache Reserve bevor Abrisse entstehen.
Zugegeben fällt sowas vielen oder in vielen Motiven auch gar nicht auf, wenn's aber da ist (nahezu homogener Himmel etc.) ist's nicht "schön".

8-bit vs. 10-bit ist einfach nur eine Preisfrage, fast jede Cam würde dadurch aufgewertet. Die höhere QuantisierungQuantisierung im Glossar erklärt macht immer dann Sinn wenn das Rauschen der Cam geringer ist als die Quantisierungsstufen.

Wenn man beim Dreh aber alles richtig macht (und vor allem die Bedingungen es erlauben), da stimme ich zu, kann man auf mehr als 8-bit verzichten, wenn nämlich hinterher gar kein Grading mehr erforderlich wird.



Antwort von Roland Schulz:



....zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.

Häää?! Hääää?! Hääääää?!?!?! Falscher Planet!!! Da hat das eine mit dem anderen aber sowas von nix mit zu tun - und, wie war das nochmal mit der Farbabtastung bei der "ESSDEEE" Digibeta?!?!

Wenn man eine Abhängigkeit zwischen Bildauflösung und Banding ableiten wollte dann trifft Umgekehrtes zu, dass bei einer höheren Auflösung und gleichem Abbildungsmaßstab PixelPixel im Glossar erklärt kleiner werden, damit der durch Rauschen bedingte Dithereffekt ein Banding durch kleinere PixelPixel im Glossar erklärt eher "verschleiert".

Ohne Rauschen ändert sich der Effekt aber in Abhängigkeit der Auflösung kein Stück!!



Antwort von Jott:

kann sein das ich mich irre, hast du irgend welche stückzahlen was den verkauf angeht? ich hab so ein ding noch niemals in natura gesehen (ausser auf ner messe). gefühlt würde ich sagen es gibt sogar mehr alexas als xdcam (was natürlich bestimmt nicht stimmt), aber weder hab ich so eine kamera jemals gesehen, noch footage von der kamera bekommen.

aber wie gesagt, ist gut möglich das meine einschätzung da falsch ist. ich kenne keinen offiziellen zahlen.

http://www.sony.de/pro/product/broadcas ... /overview/

Die PDW-Serie ist seit vielen, vielen Jahren weltweit so allgegenwärtig (klassische 2/3"-TV-Schultercam), dass ich deine Einlassung gar nicht glauben kann. Die berühmten technischen Anforderungen und Pflichtenhefte der Broadcaster wurden und werden durch diese Kameraserie exakt abgedeckt (böse Zungen behaupten sogar, Sony habe bei der Verfassung selbiger die Finger im Spiel gehabt). Frag irgend jemanden, der mit TV-Beiträgen zu tun hat. Die einzige Konkurrenz ist Panasonic mit ähnlich aufgebauten P2-Kameras, die sich aber weniger durchsetzen konnten.

Eine Ablösung ist nicht in Sicht. Von neueren Codecs wie XAVC wollen Sender nichts wissen. Was der Bauer nicht kennt .... daher tickt die Broadcastwelt weitgehend in 8 Bit. Irgendwann, in einer fernen Galaxis, mag sich das mal ändern. Man träumt ja immerhin von UHD, Rec.2020 und so was, während nebenan in der Realität noch die guten alten MAZen klackern und selbst DVCPro (SD, DV-Codec!) noch nicht tot ist.

Wenn's mal schick und hochwertig sein darf, kommt inzwischen auch mal die Amira zum Zug, misstrauisch beäugt von den Hütern der Regeln und Normen.



Antwort von wolfgang:

Wenn man beim Dreh alles richtig macht - dann kann man also bei 8bit Banding vermeiden?? DAS wäre definitiv falsch. Seltsam dass das so häufig in diversen TV Sendungen auftaucht, und seltsam wie konsequent das hier verdrängt und ignoriert wird. Da haben viele gelernt das zu ignorieren.

Und ebenso seltsam das 10bit plötzlich zum Amateurfeature erklärt wird. Denn DAS ist es sicherlich nicht. Man zeige mir 5 Amateurkameras mit 10bit.

Mir kommt halt eher vor als werden hier alte 8bit Profigeräte "verteidigt". Betonung auf "alt". Denn die UHD/4K Zukunft ist sicher in 10bit.



Antwort von Axel:

Vor ein paar Jahren war der Begriff "Grading" noch ein Fremdwort. Heute muss alles, um amtlich zu sein, durch Resolve gezogen werden. Überspitzt formuliert.

Früher gab es FarbkorrekturFarbkorrektur im Glossar erklärt, und die ist fast immer angesagt. Es gibt praktisch keine Bilder, die ohne leichte Anpassungen perfekt sind. Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma. Während der Berechnung von Änderungen wird in jedem Bearbeitungsschritt so getan, als handele es sich um Material mit gigantischer Farbtiefe. Und erst ganz am Schluss, beim RendernRendern im Glossar erklärt zu dem 8-bit Ausgabevideo, wird wieder auf integere Zahlen gerundet. Dabei kommt es zwangsläufig zu "Rundungsfehlern". Aber solange man nicht versucht, die Nacht zum Tage zu machen (Extrem-Grading) wird niemand sehen können, dass es solche Fehler gibt. Mit anderen Worten: kein Banding.

Meines Erachtens sollte man versuchen, in der Aufnahme möglichst dem erwünschten Endlook nahe zu kommen. Das hat mit Sorgfalt zu tun, aber auch mit der richtigen Kamera. Ein gutes, schön korrigiertes 8-bit-Video wird sich von einem guten, schön korrigierten 10-bit-Video nicht unterscheiden lassen.

Denn "Grading" ist nicht nur eine Technik. Es lässt sich in gewisser Hinsicht mit Kochen vergleichen. Was wir von den beliebten Kochpornos im TV lernen können ist, dass Haute cuisine mit Rezepten nichts zu tun hat, dass das Handwerkliche (Grading-Tuts) unverzichtbare Grundlage ist, Pflicht, dass die Kür jedoch wenigen Talentierten mit erlesenem Geschmack vorbehalten ist. Es gibt wenige Beispiele im Netz, in denen aufwändiges Grading zu einem Ergebnis geführt hat, dass an schön aufgenommenes und schön korrigiertes 8-bit - überspitzt formuliert - heranreicht.

Mit UHD und zukünftigen neuen Wiedergabegeräten werden 10-bit vermutlich zum Standard. Wer einen Himmel auf einem gigantischen "TV" betrachtet, wird irgendwann erkennen können, dass 8-bit-Video "irgendwie" nicht lebendig genug ist. Aber das wird noch Jahre brauchen, und die berühmte Zukunftssicherheit ist ein Widerspruch in sich.

Fazit: Lieber gutes 8-bit als vermurkstes 10-bit.



Antwort von Roland Schulz:

Wenn man beim Dreh alles richtig macht - dann kann man also bei 8bit Banding vermeiden?? DAS wäre definitiv falsch.

Wenn man behauptet dass im Broadcastbereich (also bis nach hause auf die Glotze) "Banding" überhaupt nicht vermeidbar ist (max. 8-bit) gebe ich Dir (halb) Recht, eigentlich aber nicht.

Jetzt ist es so dass man nur dann von Banding sprechen "sollte", wenn Abstufungen zwischen Tonwerten durch Skalierung verloren gehen und dieser Verlust auch flächenweise Auswirkung zeigt - denn nur dann wäre es als Solches überhaupt erkennbar.

Fast jede heutige Kamera arbeitet intern ab dem Sensor mit mehr als der ausgegebenen 8-bit und führt Kontrastanpassungen, Linearisierungen, WB etc. mit größerer QuantisierungQuantisierung im Glossar erklärt durch. Das Ausgabematerial kann dann sehr wohl schon das Endprodukt sein, welches kein weiteres Grading erfordert. Dann hätten wir nach obiger Auffassung kein Banding.

Punkt 2: Durch Rauschen oder bewusstest Dithern kann man die optischen Auswirkungen von Banding verschieben oder "verschleiern", spätestens hinter der KompressionKompression im Glossar erklärt ist's dann noch nicht mal mehr nachweisbar.

Definiert ist "Banding" nicht, von daher kann hier jeder irgendwas fordern was nicht einzuhalten ist und es dann als Banding hinstellen.

Am Ende ist die Reduktion auf 8-bit Ausgabe bei Kameras heute nur noch Politik der Hersteller, teurere Geräte zu rechtfertigen!! 10-bit sind im Post IMMER von Vorteil bzw. nie ein Nachteil (man kann die LSBs im Zweifelsfall einfach weglassen und hat 8-bit)!!
Kein Rechner ist irgendwo mehr auf 8-bit (char statt int) begrenzt, von daher ist bei richtiger Programmierung auch kein Performanceverlust zu erwarten. Die 20% mehr an Nettodatenvolumen kann man auch vernachlässigen, schraubt man die KompressionKompression im Glossar erklärt ggf. etwas höher.

Den Sonyansatz mit kostenpflichtigen Freischaltungen finde ich gut (F55, X70...). Wenn ich bei ner X70 kein UHD brauche spare ich mir die ~500€, sonst kaufe ich das dazu.
Aber bitte macht das konsequent - die Mühle ist zu gut als dass man auf 10-bit verzichten sollte - ich würde noch mal 500€ für 10-bit ausgeben. Genau so sollte man eine FS5 nicht versauen. Warum keine 10-bit UHD bei >200Mbps, mindestens nach Einwurf zusätzlicher Münzen?!?!



Antwort von Roland Schulz:


Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma. Während der Berechnung von Änderungen wird in jedem Bearbeitungsschritt so getan, als handele es sich um Material mit gigantischer Farbtiefe. Und erst ganz am Schluss, beim RendernRendern im Glossar erklärt zu dem 8-bit Ausgabevideo, wird wieder auf integere Zahlen gerundet. Dabei kommt es zwangsläufig zu "Rundungsfehlern". Aber solange man nicht versucht, die Nacht zum Tage zu machen (Extrem-Grading) wird niemand sehen können, dass es solche Fehler gibt. Mit anderen Worten: kein Banding.

8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.
Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht, das ginge schon arg auf die Performance. Viel eher werden 8-bit/10-bit CHAR/INT Werte auf bis zu DOUBLE (64-bit) skaliert und weiterverarbeitet, das geht noch recht flott in ner 64-bit Umgebung. In den meisten Fällen wird aber auch noch bei WORD (32-bit) Schluss sein, weil einfach noch viel alter Code mitgeschleppt wird und nicht alles "in Null Zeit" angepasst werden konnte...



Antwort von axl*:

Es ist queerbeet in allen Foren das Gleiche bei Technologiefortschritten. So lange die Mehrheit nicht über die neueren Technologien verfügt, so lange wird das Vorhandene schöngeredet.



Antwort von dienstag_01:

Wenn das alles so klar wie Kloßbrühe wäre, gäb es schon längst den ultimativen 8bit - 10 bit Vergleich.
Gibts aber nicht ;)

Kann man ja auch mal drüber nachdenken, z.B., was es noch für Parameter gibt, die Einfluss auf die Bildqualität haben. (Der hier schon mehrmals beschriebene Vorteil beim KeyingKeying im Glossar erklärt ist eher auf die Unterschiede im Fabsampling zurückzuführen - 4:2:24:2:2 im Glossar erklärt gegen 4:2:04:2:0 im Glossar erklärt - denke ich)

(Sichtbares) Banding entsteht durch Datenreduktion. So wie im Internet.
Ich glaube nicht, dass YT sich davon beeindrucken lässt, ob dein Video in 8 oder 10bit aufgenommen wurde. Aber klar, GLAUBEN kann mans ;)



Antwort von Axel:

Resolve, aber auch die meisten NLEs, führen diese Korrekturen nicht mit den ganzen Zahlen 0-256 von 8-bit durch, sondern mit vielen Stellen hinter dem Komma.

8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.

Äh, ja, Flüchtigkeitsfehler.

Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht...

Das wäre dann aber kein Gerücht mehr, sondern eine offene Lüge. Die Softwarehersteller behaupten "32-bit floating point accuracy", sogar das kostenlose Resolve.

Es ist queerbeet in allen Foren das Gleiche bei Technologiefortschritten. So lange die Mehrheit nicht über die neueren Technologien verfügt, so lange wird das Vorhandene schöngeredet.

Hallo Namensvetter. Ich rede nichts schön. 8-bit ist das Hinterletzte. Poste mal einen Link zu einem Video, in dem 10-bit glänzen!

Gruß aus der Provinz ...



Antwort von cantsin:

In unserer Diskussion scheinen gerade zwei Dinge fröhlich durcheinandergewürfelt zu werden: 10bit als Aufnahme- und Masteringfarbtiefe und 10bit als Abspielfarbtiefe.

Ich behaupte: 10bit beim Abspielen ist "nice to have", aber niemand wird abstreiten, dass man auch in heutiger 8bit-BluRay-Qualität Filme anständig ansehen kann.

Bei Aufnahme und Mastering ist 8bit allerdings eine echte Einschränkung, vor allem, wenn man keine Kamera hat, die ein perfektes 8bit-Bild direkt aufzeichnet.

Das fängt schon bei der Belichtung an - eine BlendeBlende im Glossar erklärt unterbelichtet, um Abrndstimmung richtig wiederzugeben, und schon hat man 7bit-Material. Auch sonst dürfte aus den üblichen DSLRs und Spiegellosen nach (selbst nur simplen) Farbkorrekturen und diversen Reencodingschritten nur 7bit oder weniger übrig bleiben.



Antwort von Roland Schulz:


8-bit stellt 2^8 Werte zur Verfügung, das sind 256 Werte, Wertebereich also 0-255.

Äh, ja, Flüchtigkeitsfehler.

Dass interne Bearbeitung mit "FLOAT" durchgeführt wird halte ich für ein Gerücht...

Das wäre dann aber kein Gerücht mehr, sondern eine offene Lüge. Die Softwarehersteller behaupten "32-bit floating point accuracy", sogar das kostenlose Resolve.

...ich dachte eigentlich Du meintest "floating point", und nicht das was BMD hier bewirbt...

Das hier ist eher eine WORD Transformation die ich ansprach - die aber völlig ausreichend ist. Echtes FP ist das nicht!!



Antwort von axl*:

@cantsin

Es gibt also doch User, die es verstehen. ( thumb up )

Wenn man sich nun noch ins Gedächtnis ruft, dass die ganze H264 Geschichte zunächst als ein reines Distributionsformat ins Leben gerufen wurde...



Antwort von Rick SSon:

Sobald man in h.264 rendert wird das Bild doch ohnehin in 8 BitBit im Glossar erklärt verwurschtelt.

Das ist der Moment in dem ich immer ein wenig traurig werde, das niemand im www je sehen wird, wie schön mein 10 bit Material noch im NLE aussah :D



Antwort von cantsin:

Rick, h264 kann auch 10bit.



Antwort von ennui:

Manche Leute wollen mit dem glänzen, was sie machen und können. Da reichen 8 BitBit im Glossar erklärt oft, zb. für Fernsehserien, Dokus, Kinofilme, Musikvideos usw. Einschränkungen gibt es dann natürlich beim Graden und wilden Bildverbiegen.

Manche Leute wollen mit dem glänzen, was sie sich neues gekauft, geleistet haben. Da reichen 8 BitBit im Glossar erklärt nicht, denn das hat ja jeder -> langweilig! Wegen diesen Leuten steht auf den 10Bit-Kameras fett "10 Bit", "Mega", "vollkrasssuperduper" und sowas auf einem Aufkleber, oft lassen sie den dann auch extra dran.



Antwort von schwarznachtfilmer:

und des 2015...???

Trommelbremsen werden wieder verbaut ( 8bit)..
Und natürlich wird das ganze böse böse Internet abgeschafft, die
gemeinen user kommen in die Hirnwäsche und die ZDF und ORF
G E B Ü H R E N werden um 300% zwangserhöht..is des so.

Do reibt sich der Amazon/Netflix die Nudel und..ja.

Ich bekomme mit 8 bit weil ich weiss was ich wann und wo und bei
welchem Licht und die Linse und und... alles super sauber hin.
Aber tut es weh, eine normalen Hosengacklercodec ( Xahvzeeh)(Sony)
mit 10 bit auszustatten der rödelt auf die gepriesene interne Karte
( weil manche keinen exteren Recorder finanzieren) und als normaler
10 bit-Xahvzeeh Schwachmat bin ich beim Blümchen doku film 2016
in den weiten Welten von und so weiter häppy, hab noch etwas Fleisch
und Resolve macht spass..

Ich bin für Tasten-telefone mit Kabelanschluss und ATARRI wird wieder
eingeführt.. dan 480erpal mit 10 Frames und weil ich es liebe
nur und einzig SCHWARZ WEISS... und Röhre..dazu KOks ( das zum heizen!) und mit dem Vergaser-kadett geht es ins Büro.. des is es..
jo :)



Antwort von schwarznachtfilmer:

ICH BIN EIN POTENTIELLER FS-5 KUNDE!

wos mochts jetzt bei SONY WIEN? ha?

2015 net 2005



Antwort von cantsin:

Manche Leute wollen mit dem glänzen, was sie machen und können. Da reichen 8 BitBit im Glossar erklärt oft, zb. für Fernsehserien, Dokus, Kinofilme, Musikvideos usw. Einschränkungen gibt es dann natürlich beim Graden und wilden Bildverbiegen.

Manche Leute wollen mit dem glänzen, was sie sich neues gekauft, geleistet haben. Da reichen 8 BitBit im Glossar erklärt nicht, denn das hat ja jeder -> langweilig! Wegen diesen Leuten steht auf den 10Bit-Kameras fett "10 Bit", "Mega", "vollkrasssuperduper" und sowas auf einem Aufkleber, oft lassen sie den dann auch extra dran.

Ennui, sorry - aber das ist totaler Unsinn. Erstens gibt es überhaupt noch keine Consumerkameras, die 10bit aufzeichnet; einzige Ausnahme ist die GH4, die 10bit an HDMi liefert (aber auch nicht intern aufzeichnen kann).

Und nenne mir mal bitte eine Fernsehserie, die in 8bit aufgezeichnet wird - ausser vielleicht Daily Soaps. Früher war Super 16mm der Standard für Fernsehserien, heute ist es die Alexa.

Und da, wo im professionellen Bereich (Dokus etc.) in 8bit gedreht wird, mit C300 und ähnlichen Kameras, ist 8bit 4:2:24:2:2 im Glossar erklärt in hochwertigen Codecs Mindeststandard der Sender. Das hat wenig mit dem Consumer 8bit 4:2:04:2:0 im Glossar erklärt zu tun, das DSLRs und Spiegellose aufzeichnen.



Antwort von ennui:

Was du schon wieder denkst, ich red doch nicht von Amateuren. Oder drehen die gewöhnlich Dokus, Fernsehserien und Kinofilme? Ich red von den Leuten, die sowas machen oder machen wollen und womit sie ihre Kundschaft beeindrucken wollen. Siehe auch große Hochzeitsfilmerkameras. Quatsch ist aber natürlich, dass das eine das andere ausschließt. Jedenfalls war/ist die c300 ja nicht der Verleihschlager, weil das 8 BitBit im Glossar erklärt so greislig aussieht. Wer umgekehrt irgendwo liest, ach, da gibt es jetzt 10 BitBit im Glossar erklärt, das kauf ich mir, das ist bestimmt noch besser, ist ja 2 BitBit im Glossar erklärt mehr, das haben die anderen nicht, da sind die dann neidisch, und meine Filme schauen gleich viel besser aus - das wird so ja nicht funktionieren.

Mit den 8 BitBit im Glossar erklärt DSLRs konnte und kann man dagegen bekanntlich tolle Filme drehen, die sich auch auf einer Leinwand nicht verstecken müssen. Das Problem war bei den Canons eher das nicht-mal-HD...



Antwort von Rick SSon:

Rick, h264 kann auch 10bit.

youtube und facebook haben 10bit h.264? Und was ist mit dem durchschnittlichen Panel?



Antwort von cantsin:

Rick, h264 kann auch 10bit.

youtube und facebook haben 10bit h.264? Und was ist mit dem durchschnittlichen Panel?

Das sind Beschränkungen von YouTube, Facebook und durchschnittlichen TFT-Panels, nicht von h.264.



Antwort von dienstag_01:

Das sind Beschränkungen von YouTube, Facebook und durchschnittlichen TFT-Panels, nicht von h.264.
Ja, aber darauf läuft letztlich alles hinaus.
Zumindest fast ;)



Antwort von wolfgang:

H.264 gibt in 10bit, nur kommt eher XAVC für 10bit zur Anwendung bei Aufzeichnungen. Oder eben ProResProRes im Glossar erklärt oder raw. Was ist daran schlecht? Der aufwendigere workflow? Die Frage ist eher ob man das braucht, ist ja ein gewisser Aufwand.

Und zum Banding: mir drehts bei jedem Vorspann von House of Cards den Magen um, das ist voll von Banding. Und das waren sicher Profigeräte. Ob sich das beim Rausrechnen zum Sendeformat vermeiden ließe - na offenbar nicht so leicht. Ich weiss aber trotzdem dass über 32bit floating point aus einem 10bit Projekt heraus gerechnetes Material weniger Banding aufweisen kann als wenn man das nicht so hochwertig errechnet. Youtube kann ja eh nur 8bit - das ist ohnedies kaum ein Maßstab.



Antwort von cantsin:

H.264 gibt in 10bit, nur kommt eher XAVC für 10bit zur Anwendung bei Aufzeichnungen.
XAVC ist h.264.



Antwort von Jalue:

@ennui. Also bei meiner Mühle steht '10 Bit' nicht auf dem Gehäuse, ist also nix mit Posereffekt :-( Dafür helfen mir die '2 BitBit im Glossar erklärt mehr' schön beim Geld verdienen. Immer dann, wenn ein Kunde auf 10Bit Anlieferung besteht, was -du wirst es nicht glauben- so einige sind, bis hin zu Energy-Drink Spin Offs aus Ösiland. Okay, jetzt kommt garantiert wieder:

"Also ich hab mit meiner XY 8 BitBit im Glossar erklärt Mühle schon Z Reportagen für die ARD..."

Sicher, auch DAS gibt es, aber im Regelfall erwarten die Sender von Zulieferern, dass sie die TecSpecs einhalten, selbst bei profanen News Beiträgen. Ist das Quatsch, überflüssig, Overkill? Vielleicht, aber mir herzlich Wumpe, der Kunde will es und basta.



Antwort von wolfgang:

H.264 gibt in 10bit, nur kommt eher XAVC für 10bit zur Anwendung bei Aufzeichnungen.
XAVC ist h.264.

Sag mir was Neues!



Antwort von dienstag_01:

Und zum Banding: mir drehts bei jedem Vorspann von House of Cards den Magen um, das ist voll von Banding. Und das waren sicher Profigeräte.
Merkst du eigentlich, dass das gerade KEIN Argument für 10bit bei der Aufnahme ist ;)



Antwort von Starshine Pictures:

Ich bin da auch bei dienstag_01. Banding wie wir es kennen und meinen ist doch meist auf eine zu niedrige DatenrateDatenrate im Glossar erklärt und damit verbundener starker KompressionKompression im Glossar erklärt verbunden. Ich habe noch nie Banding im Material gesehen dass direkt aus meinen DSLRs kam. Erst nach der KompressionKompression im Glossar erklärt durchs NLE oder später in Vimeo/Youtube tritt das Problem auf. Deshalb rendernrendern im Glossar erklärt wir unser Material auch mindestens in 50Mbit aus Premiere raus weil es sonst schneller zu Kompressionsartefakten kommt.

Grüsse, Stephan von Starshine Pictures



Antwort von wolfgang:

Ganzes Posting lesen. Nicht nur den Teil der dir gerade gefällt.



Antwort von dienstag_01:

Ja, Wolfgang, könnte man. Aber da wirds noch abstuser:
Youtube kann ja eh nur 8bit - das ist ohnedies kaum ein Maßstab.
TV kann wohl mehr?!



Antwort von Jott:

Bringen wir's mal auf den Punkt: keine Kamera produziert Banding, egal ob 8Bit oder 10Bit, wie Starshine richtig erkannt hat. Das passiert nur, wenn man die Post Production verkackt.



Antwort von WoWu:

Das liegt aber im Wesentlichen daran, dass in solchen 8Bittern oft nicht mehr als 5 Blenden dargestellt werden.
keine Kamera produziert Banding
Das ist natürlich Quatsch denn grundsätzlich stellt jede Kamera Banding da denn Banding ist nichts anderes, als dass Quantisierungsstufen in einem digitalen Signal so gross werden, dass der Werteschritt sichtbar wird.
Es entsteht in einem Kamerasignal eigentlich immer, weil das Signal in Stufen wiedergegeben wird, weil Sinusschwingungen aufgelöst werden und lediglich noch durch Zwischenwerte beschrieben sind.
Die Frage ist also nur, wann es für den Menschen sichtbar wird, wann also die Quantisierungsschritte fein genug sind, um vom Menschen als "flüssig" wahrgenommen zu werden.
Über die Zahl der tatsächlich benötigten Stufen gibt es keine absolute Aussage.
Nach dem Weber’schen Gesetz würden für eine BlendeBlende im Glossar erklärt Dynamikumfang (entspricht 100 % Signaländerung) 50 bis 100 Helligkeitsstufen ausreichen, damit der Betrachter keine Stufen wahrnimmt.
Bei einem Dynamikumfang von 10 bis 11 Blenden reichen also 10 bit (1024 Stufen.
Andere Wissenschaftler (Hunt) geben die, vom Menschen gleichzeitig unterscheidbare Zahl an Stufen mit nur 90 an, sodass 7 bit für die Codierung ausreichend wären.
Beide Aussagen stimmen.
Dabei muss bedacht werden, dass der interne darstellbare Kontrast in einem Bild bei der Wiedergabe durch Streulicht drastisch reduziert wird.
So wird der Kontrast von Film bei der Wiedergabe im Kino durch einen Streulichtanteil von 0,5 % von 10000:1 auf 200:1 reduziert.
Für einen derartigen Kontrast würden also 8 bit ausreichen.
Da der Streulichtanteil in der Realität meistens höher ist, ist die Aussage von Hunt korrekt.
Berücksichtigt man solche Effekte nicht, stimmt die Aussage nach dem Weber"schen Gesetz.
Stellt man also relativ wenig Dynamik da und rechnet man die Kontrastreduktion bei der Wiedergabe ein, reichen 7 Bit.
Heutige Kameras rühmen sich aber damit, 12 oder mehr Blenden zu beherrschen ... dabei werden selbst 10 BitBit im Glossar erklärt bereits eng.
Übrigens hatte Film auch rd. 10 BitBit im Glossar erklärt, nur mal so zum Vergleich.
Wer also in die Region möchte, ist mit 10 BitBit im Glossar erklärt deutlich besser beraten, als mit 8Bit, was das Thema Banding betrifft.
Mit der Verarbeitungstiefe (32 Float) hat das ganze übrigens herzlich wenig zu tun und auch künstlich aufgebrachtes DitherDither im Glossar erklärt sorgt nur solange für Verdeckung, wie man das Signal auf seinem NLE betrachtet ... ein nachlaufender Übertragungskanal sorgt schon dafür, dass sich die Verdeckung wieder in Luft auflöst.



Antwort von Starshine Pictures:

Hier mal ein ziemlich extremes Beispiel. Die Tür wurde schnell aufgerissen und dahinter war es ziemlich dunkel. Das ist eine Aufnahme aus der C100 mk II. Im Original kann man NoiseNoise im Glossar erklärt erkennen. Im anschliessend mit ziemlich niedriger DatenrateDatenrate im Glossar erklärt (glaub ca. 5Mbit waren das) gerenderten Beispiel sieht man massives Banding. Wie könnte man so was vermeiden? Natürlich mit sehr hoher DatenrateDatenrate im Glossar erklärt zu rendern. Dann könnte man das Problem sicher stark eindämmen. Ob man es weg bekommt kann ich ja mal bei Gelegenheit probieren.

Direkt aus der Kamera
zum Bild http://img5.fotos-hochladen.net/uploads ... 2fqalh.png

Gerendert
zum Bild http://img5.fotos-hochladen.net/uploads ... zay6tc.png

Edit: Hier noch mal die 50Mbit Version. Man sieht es noch aber es ist schon deutlich besser.
zum Bild http://img5.fotos-hochladen.net/uploads ... 9q6fil.png

Grüsse, Stephan von Starshine Pictures



Antwort von Jott:

Hochkomprimiertes H.264 direkt in noch höher komprimiertes H.264 zu verwursten ist halt keine gute Idee. Hui, das ist ein Stich ins Wespennest.



Antwort von WoWu:

H264 ist nicht höher komprimiert als ältere Codecs, sondern lediglich effizienter und erzeugt bei identischer DatenrateDatenrate im Glossar erklärt deutlich bessere Bilder.
Man darf geringere BandbreiteBandbreite im Glossar erklärt nicht mit höherer KompressionKompression im Glossar erklärt verwechseln.



Antwort von iasi:

H264 ist nicht höher komprimiert als ältere Codecs, sondern lediglich effizienter und erzeugt bei identischer DatenrateDatenrate im Glossar erklärt deutlich bessere Bilder.
Man darf geringere BandbreiteBandbreite im Glossar erklärt nicht mit höherer KompressionKompression im Glossar erklärt verwechseln.

Man kann es aber eben auch so sehen:
Für identische Bildqualität sind geringere Datenraten nötig.



Antwort von Peppermintpost:



....zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.

Häää?! Hääää?! Hääääää?!?!?! Falscher Planet!!! Da hat das eine mit dem anderen aber sowas von nix mit zu tun - und, wie war das nochmal mit der Farbabtastung bei der "ESSDEEE" Digibeta?!?!

Wenn man eine Abhängigkeit zwischen Bildauflösung und Banding ableiten wollte dann trifft Umgekehrtes zu, dass bei einer höheren Auflösung und gleichem Abbildungsmaßstab PixelPixel im Glossar erklärt kleiner werden, damit der durch Rauschen bedingte Dithereffekt ein Banding durch kleinere PixelPixel im Glossar erklärt eher "verschleiert".

Ohne Rauschen ändert sich der Effekt aber in Abhängigkeit der Auflösung kein Stück!!

hallo roland,
natürlich hat die auflösung massiv mit banding zu tuen. wenn du 255 abstufungen von 0-255 auf 768(ich gehe mal von square pixeln aus nicht d1 pixeln) verteilst, dann hast du ein banding von 3 pixel breite.
wenn du die gleichen 255 abstufungen aber auf 1920 verteilst, dann hast du ein banding von 7,5 pixeln.
wenn du das mit 720 pixeln anstatt 768 rechnest wird es noch deutlicher, da bin ich aber technisch zu wenig versiert um zu sagen ob man es mit d1 oder square pixeln rechnen muss also hab ich das beispiel zu deinen gunsten gerechnet.



Antwort von WoWu:

H264 ist nicht höher komprimiert als ältere Codecs, sondern lediglich effizienter und erzeugt bei identischer DatenrateDatenrate im Glossar erklärt deutlich bessere Bilder.
Man darf geringere BandbreiteBandbreite im Glossar erklärt nicht mit höherer KompressionKompression im Glossar erklärt verwechseln.

Man kann es aber eben auch so sehen:
Für identische Bildqualität sind geringere Datenraten nötig.
So kann man es auch sehen, aber das bedeutet ebenfalls, dass kein höherer Kompressionsgrad sondern lediglich eine höhere Effizienz vorliegt.
Das ist ein gewaltiger Unterschied.



Antwort von Peppermintpost:


So kann man es auch sehen, aber das bedeutet ebenfalls, dass kein höherer Kompressionsgrad sondern lediglich eine höhere Effizienz vorliegt.
Das ist ein gewaltiger Unterschied.

das konnte man ja über die letzten jahre auch sehr schön in der praxis feststellen, ich für meinen teil musste immer weniger mit kompressions artefakten kämpfen ohne das die datenraten explodiert sind.

inzwischen gibt es projekte bei denen ich sogar meine intermediates kompremiert rechne, ohne das es visuell zu beeinträchtigungen führt.

ist nicht schön, funktioniert aber.



Antwort von WoWu:

Klar funktioniert das und auch die I-Frame only haben sich bald überlebt und sind eigentlich nur noch der ständig zunehmenden spatialen Auflösung geschuldet.



Antwort von iasi:

H264 ist nicht höher komprimiert als ältere Codecs, sondern lediglich effizienter und erzeugt bei identischer DatenrateDatenrate im Glossar erklärt deutlich bessere Bilder.
Man darf geringere BandbreiteBandbreite im Glossar erklärt nicht mit höherer KompressionKompression im Glossar erklärt verwechseln.

Man kann es aber eben auch so sehen:
Für identische Bildqualität sind geringere Datenraten nötig.
So kann man es auch sehen, aber das bedeutet ebenfalls, dass kein höherer Kompressionsgrad sondern lediglich eine höhere Effizienz vorliegt.
Das ist ein gewaltiger Unterschied.

Höhere Effizienz ermöglicht eine höhere KompressionsrateKompressionsrate im Glossar erklärt - das hängt schon miteinander zusammen ...
Aber wenn man genau ist, handelt es sich um höhere Effizienz - da hast du schon recht.



Antwort von Axel:

Wie auch immer es korrekt heißt, solange im Netz (und auch im VoD-Netz) immer höhere Auflösungen unterstützt werden, das aber - wohl aufgrund von Übertragungsbandbreiten, zu hohe Effizienz - zu sichtbaren Artefakten führt, ist irgendwas schlecht gelaufen und eine anspruchsvolle Debatte über Farbtiefen (kenne selbst auch Raw und 10-bit, bin also nicht verdächtig, meinen Popelskram zu verteidigen) ist hypothetisch.



Antwort von WoWu:

@Iasi
Nicht wirklich. Eine höhere KompressionKompression im Glossar erklärt würde zu einer weiteren Degenerierung des Bildes führen, als zum Verlust von Bildinhalten oder der weiteren Zusammenfassung von Bilddetails.
Insofern ist beispielsweise MPEGMPEG im Glossar erklärt 2 deutlich höher komprimiert als MPEGMPEG im Glossar erklärt 4, weil allein schon die Makroblöcke deutlich gröber sind als die von MPEG4.
(Das ist aber nur ein Beispiel, von diversen Möglichkeiten, die neue Codecs nur effizienter, aber geringer komprimierter machen).
Kompression wird oft mit geringerer BandbreiteBandbreite im Glossar erklärt gleichgesetzt.
Ein typischer Amateurfehler.

@Axel
immer höhere Auflösungen unterstützt werden, das aber - wohl aufgrund von Übertragungsbandbreiten, zu hohe Effizienz - zu sichtbaren Artefakten führt, ist irgendwas schlecht gelaufen
Du sitzt demselben Fehler auf.
Die Effizienz führt dazu, dass Du überhaupt noch etwas siehst und die ArtefakteArtefakte im Glossar erklärt sind auf die eigentlich (aufgrund der höheren Bildauflösung) nötige, aber nicht erfolgte Erhöhung der BandbreiteBandbreite im Glossar erklärt zurück zu führen.
Beispiel, das in den USA heute noch läuft:
Digitales SD Fernsehen in MPEG2MPEG2 im Glossar erklärt in 20Mbit/s



Antwort von TheBubble:

Nun reitet mal alle nicht auf ein paar Begriffen rum.

Ihr habt beide Recht:

WoWo kann von besserer Effizienz sprechen, wenn bei gleicher Datenreduktion (auf eine feste Datenrate) mehr relevante Informationen erhalten werden.

Man spricht (insbesondere umgangssprachlich) aber ebenfalls von besserer KompressionKompression im Glossar erklärt, wenn eine feste Menge an Informationen stärker verdichtet wird. Im Ergebnis können dann bei fester DatenrateDatenrate im Glossar erklärt, dank besserer KompressionKompression im Glossar erklärt, mehr relevante Informationen übertragen werden.



Antwort von wolfgang:

Ich finde es erstaunlich wie sehr hier Äpfel mit Birnen verwechselt werden. Weder hat das was mit Datenraten noch mit Codecs zu tun (es sei den wir reden von Codecs die eben gar nicht 10 bit oder mehr können). Weder hat das was mit heutigen 8bit Darstellungsketten zu tun, und schon gar nicht produziert man Banding nur in der Postpro (auch wenn das passieren kann wenn man die Stufen noch schöner in der Postpro heraus arbeitet). Und auch youtube liefert nur 8bit - also wie kann es über 10bit irgendetwas aussagen? youtube ist daher mit 8bit wirklich kein Maßstab - und ebenso wenig unsere heutigen 8bit HDTV Panele die es einfach nicht besser können.

Danke mal an WoWu für die hier recht präzise Klarstellung. Irgendwie ist es faszinierend dass man Banding täglich in kommeziellen Sendungen sehen kann - wenn man nur will. Wir haben offenbar alle gerlernt "wegzusehen".

Man filme eben mit einem 8bit System eine am Abend beleuchtete Stadt und lasse den Himmel im Bild, der zunehmens dünkler wird sodass sich das Licht in dem Schwarz der Nacht verliert. Wie man das in geradezu katastrophalem Umfang eben bei dem Vorspann des House of Cards sieht.

Erst fortgeschrittene UHD-TVs mit 10bit (und das haben derzeit nur die neueren Topmodelle) wie auch UHD-Monitore mit 10bit zeigen was hier möglich ist. Was daran schwer zu verstehen ist ist mir schleierhaft - ja, wir werden nach und nach eine Technologie bekommen die auf Banding nicht mehr so anfällig ist wie die heutige 8bit Technologie. Na klar dauert das. aber es wird kommen.

Und klar macht das erst Sinn wenn man statt einem 8bit workflow eben einen 10bit workflow und 10bit Panele verwenden wird. Eigentlich trivial.

Allerdings ist es spannend zu sehen wie viele den Kopf in den Sand stecken weil sie eh mit 8bit gut auskommen - klar: in Situationen wo das nicht schlagend wird geht das ja auch. Nur sollte man sich halt der Grenzen eines jeden Systems bewußt sein, und dieses Bewußtsein ist hier offenbar doch nicht mehr überall vorhanden.



Antwort von WoWu:

@TheBubble
Da stimme ich nicht so ganz zu.
Nimm nur ein Beispiel:
Bei MPG2 musste bei einem Schwenk der Vektor jedes einzelnen Pixels übertragen werden. Eine Flut an Daten.
Bei MPEGMPEG im Glossar erklärt 4 wird nur eineinziger Vektor für das gesamte Bild übertragen und erreicht dasselbe Ziel.
Das hat mit KompressionKompression im Glossar erklärt nichts zu tun und ist eine reine Frage der Effizienz, weil es nicht zur Bilddegenerierung beiträgt.
Und gerade aus solchenr "umgangssprachlichn Benutzung" entstehen dann nämlich solche laienhaften Vorstellungen, die Bildqualität gehe einher mit der benutzten Bandbreite.
Es ist einfach falsch und wird auch durch Hüdchenspielertricks nicht richtiger und auch durch "umgangssprachlich" nicht zu rechtfertigen.
Wie ich oben schon sagte ... nur Amateure unterscheiden da nicht so genau und sitzen dann solchen Irrtümern auf.



Antwort von iasi:

@TheBubble
Da stimme ich nicht so ganz zu.
Nimm nur ein Beispiel:
Bei MPG2 musste bei einem Schwenk der Vektor jedes einzelnen Pixels übertragen werden. Eine Flut an Daten.
Bei MPEGMPEG im Glossar erklärt 4 wird nur eineinziger Vektor für das gesamte Bild übertragen und erreicht dasselbe Ziel.

Na ja - es ist auch nur eine mathematische Methode, um die notwendigen Datenmengen zu reduzieren.
Das hat dann auch rein gar nichts mit "Amateure" und "nicht Amateure" zu tun.

Es ist nun einmal der Sinn und Zweck dieser Codecs die Datenmenge zu reduzieren - und man kann eben durchaus das Ergebnis all dieser Maßnahmen im Verhältnis von Ausgangsdatenmenge und Enddatenmenge sehen - und dies dann als Komprimierung bezeichnen.

Und natürlich ist es eine Effizienzsteigerung, wenn ein CodecCodec im Glossar erklärt hierbei höhere Komprimierungsraten bei gleicher Bildqualität zulässt.
Oder eben bessere Bildqualität bei gleicher Komprimierungsrate.

Mit 8bit oder 10bit hat unsere kleine Diskussion aber wirklich nichts zu tun.

8bit ist für mich etwas für Leute, die am Set und in der Kamera das fertige Bild zaubern wollen und können - mir liegt das nicht so.

10bit gibt eben noch etwas Gestaltungsspielraum in der Post.
Wer diesen nicht nutzen will, kann auch mit 8bit sehr gute Ergebnisse
erzielen.



Antwort von dienstag_01:

10bit gibt eben noch etwas Gestaltungsspielraum in der Post.
Dafür hätte ich gerne mal ein Beispiel, denn darum geht es eigentlich ;)



Antwort von merlinmage:

Grading?



Antwort von dienstag_01:

Zeigen, nicht schwafeln ;)



Antwort von WoWu:

Hochkomprimiertes H.264 direkt in noch höher komprimiertes H.264 zu verwursten ist halt keine gute Idee. Hui, das ist ein Stich ins Wespennest.
@Iasi,

ist schon Recht, nur bin ich die falsche Beschwerdestelle dafür.
Ich weiss ja, wie"s funktioniert und kann eine falsche Bezeichnung schon einordnen.
Beschwer Dich aber lieber bei denen, die dann so einen gequirlten Quatsch schreiben.
(Der nebenbei gesagt auch nichts mit dem Thema zu tun hat).
Und sowas kann bei denen, die mit Datenkompressionen vielleicht noch auf Kriegsfuss stehen, leicht in den falschen Hals kommen und das Niveau des Forums auch nicht gerade heben.
So ein Schwachsinn steht schon in genügend Blogs.



Antwort von merlinmage:

Zeigen, nicht schwafeln ;)

Was willste da bitte zeigen? Frag halt mal ein paar Coloristen, oder biste nur nen Hobbyfilmer?



Antwort von dienstag_01:

oder biste nur nen Hobbyfilmer?
Selbstverständlich ;)
Aber frag doch mal deinen Coloristen, ob die besserer Verarbeitung von 10bit Material nicht am besseren Farbsampling liegt.
Selber wirst du ja keine Antwort wissen ;)



Antwort von TheBubble:

@WoWu

Kompressionsverfahren kann man immer als Black-Box betrachten: Man steckt Daten rein, das Verfahren eliminiert nach Möglichkeit Redundanzen und gibt einen im Idealfall wieder weniger Daten aus (mit Pech allerdings auch mehr). Wie sich die Datenmenge verändert, gibt der KompressionsfaktorKompressionsfaktor im Glossar erklärt wieder, also Ausgabebitanzahl = KompressionsfaktorKompressionsfaktor im Glossar erklärt * Eingabebitanzahl.

Der KompressionsfaktorKompressionsfaktor im Glossar erklärt wäre also quasi der Kehrwert der umgangssprachlichen "Kompression".

Bei verlustbehafteten Verfahren kommen halt noch Betrachtungen hinzu, welche Daten man mit dem geringsten "Schaden" weglassen kann.

Nimm nur ein Beispiel:
Bei MPG2 musste bei einem Schwenk der Vektor jedes einzelnen Pixels übertragen werden. Eine Flut an Daten.
Bei MPEGMPEG im Glossar erklärt 4 wird nur eineinziger Vektor für das gesamte Bild übertragen und erreicht dasselbe Ziel.

Klar, MPEGMPEG im Glossar erklärt 4 ist in dem Beispiel eben geschickter und kann so mehr Redundanzen eliminieren, was sich in einem kleineren Kompressionsffaktor wiederspiegelt. Für den außen stehenden Betrachter verdichtet/komprimiert MPEGMPEG im Glossar erklärt 4 das "Bewegungsfeld" daher stärker.

Ich finde schon, dass man daher von besserer (stärkerer, höherer, ...) KompressionKompression im Glossar erklärt sprechen kann und jeder sollte wissen, was gemeint ist.

Die Verwirrungen entstehen bei Nicht-Fachleuten in der Regel doch insbesondere bei verlustbehafteten Verfahren, denn viel interessanter als die reine DatenrateDatenrate im Glossar erklärt ist doch, wie viel von einem Lossy-Codec unwiederbringlich weggeputzt wird. Nur wird das im Alltag eben alles vermengt, so dass "hohe Videokompression" oder "x Mbit" bei CodecCodec im Glossar erklärt A eine gute Qualität bedeuten kann, während CodecCodec im Glossar erklärt B nur noch Mosaikmuster speichert.



Antwort von WoWu:

Das musst Du mir nicht erklären ... Da finden sich hier im Forum sicher andere Aspiranten.
ich stimme auch mit dem Terminus "Verwirrung" nicht überein, denn der setzt voraus, dass man alle Varianten kennt und sie nur verwechselt.
Einige haben aber nicht mal die Grumdkenntnis, wie solche Systeme funktionieren, posten aber dessen ungeachtet so einen Blössinn und einige Foren sind voll davon.
Es kann daher nicht schaden, dass Thema "Effizienz" einmal aufzunehmen, auch wenn es nicht zum Threadthema gehört aber Vielleicht kommt das nächste Mal dann nicht mehr so ein Blödsinn.



Antwort von Wurzelkaries:

Das musst Du mir nicht erklären ... Da finden sich hier im Forum sicher andere Aspiranten.
ich stimme auch mit dem Terminus "Verwirrung" nicht überein, denn der setzt voraus, dass man alle Varianten kennt und sie nur verwechselt.
Einige haben aber nicht mal die Grumdkenntnis, wie solche Systeme funktionieren, posten aber dessen ungeachtet so einen Blössinn und einige Foren sind voll davon.
Es kann daher nicht schaden, dass Thema "Effizienz" einmal aufzunehmen, auch wenn es nicht zum Threadthema gehört aber Vielleicht kommt das nächste Mal dann nicht mehr so ein Blödsinn.

So.... jetzt habe ich erst mal Dein Buch gekauft... ich verstehe nämlich nur Bahnhof

:-)

LG

Stefan



Antwort von iasi:

Hochkomprimiertes H.264 direkt in noch höher komprimiertes H.264 zu verwursten ist halt keine gute Idee. Hui, das ist ein Stich ins Wespennest.
@Iasi,

ist schon Recht, nur bin ich die falsche Beschwerdestelle dafür.
Ich weiss ja, wie"s funktioniert und kann eine falsche Bezeichnung schon einordnen.
Beschwer Dich aber lieber bei denen, die dann so einen gequirlten Quatsch schreiben.
(Der nebenbei gesagt auch nichts mit dem Thema zu tun hat).
Und sowas kann bei denen, die mit Datenkompressionen vielleicht noch auf Kriegsfuss stehen, leicht in den falschen Hals kommen und das Niveau des Forums auch nicht gerade heben.
So ein Schwachsinn steht schon in genügend Blogs.

Dass du"s weisst, ist klar.
Du kannst das Niveau des Forums aber eben auch heben, indem du die Zusammenhänge einfach verständlich erklärst.
Eigentlich müsste man ja erst einmal definieren, was man unter bestimmten Begriffen genau verstehen will - "Datenkompression" kann man z.B. eng und weit fassen.

Jeder lernt gern dazu - deshalb führt man doch auch Diskussionen. Und wenn jemand gut und ausführlich argumentiert - mit guten Begründungen - dann bringt das allen etwas.
Gerade weil ich denke, dass du viel weisst, versuche ich möglichst viel von deinem Wissen herauszukitzeln.



Antwort von iasi:

Das musst Du mir nicht erklären ... Da finden sich hier im Forum sicher andere Aspiranten.
ich stimme auch mit dem Terminus "Verwirrung" nicht überein, denn der setzt voraus, dass man alle Varianten kennt und sie nur verwechselt.
Einige haben aber nicht mal die Grumdkenntnis, wie solche Systeme funktionieren, posten aber dessen ungeachtet so einen Blössinn und einige Foren sind voll davon.
Es kann daher nicht schaden, dass Thema "Effizienz" einmal aufzunehmen, auch wenn es nicht zum Threadthema gehört aber Vielleicht kommt das nächste Mal dann nicht mehr so ein Blödsinn.

Hier zeigt sich eben leider auch, dass du vielleicht etwas an deinem Stil ändern solltest:
Amateure, Blödsinn, ohne Grundkenntnisse ...
Das ist keine gute Basis für eine ertragreiche Diskussion.



Antwort von iasi:

10bit gibt eben noch etwas Gestaltungsspielraum in der Post.
Dafür hätte ich gerne mal ein Beispiel, denn darum geht es eigentlich ;)

Na ja - wenn du eben z.B. ein Gesicht etwas aufhellen möchtest oder die Mitten etwas hochgezogen werden müssen, da du bei der Aufnahme die Lichter schützen musstest, also unschönes Clippen vermeiden wolltest.

Bei 8bit, sollte man eben schon während der Aufnahme das Gesicht und die Mitten aufhellen - nur ist das eben nicht immer so einfach und kann auch zu Einschränkungen während des Drehs führen.
So kann dann die Darstellerin z.B. den Kopf nicht so weit drehen oder die Kamera nicht so frei bewegt werden.



Antwort von WoWu:

@ Iasi

Das Hauptproblem scheint mir zu sein, dass die Diskussionen sich immer weiter vom Bildinhalt entfernen und sich einwenig verselbstständigen.

Bei mir hat immer noch die Auswirkung auf das Bild den Vorrang, ob es nun die Auflösung, die Dynamik oder, wie hier, die KompressionKompression im Glossar erklärt ist.
Ein CodecCodec im Glossar erklärt, der mit einer ziemlich schlechten Bildqualität und ausserdem noch zusätzlich mit einer höheren DatenrateDatenrate im Glossar erklärt aufwartet komprimiert (im Sinne einer schlechteren Darstellung) die Bildinhalte stärker als ein CodecCodec im Glossar erklärt, der Bilder aufgelöster in jeder Hinsicht wiedergibt und dazu noch bei geringerer BandbreiteBandbreite im Glossar erklärt aufweist.

Genauso halte ich es mit der Bildauflösung, wie Du weist ... mir ist ziemlich egal, was da auf dem Karton steht denn ich orientiere mich immer am Bild und wenn da nicht die Auflösung entsteht, die auf dem Karton steht, dann ist das für mich "in die Tasche" Lügerei.

Und auch solche Rechenkünste, die technisch aus 8 BitBit im Glossar erklärt 10 oder 12 und aus 4:2:04:2:0 im Glossar erklärt dann 4:4:44:4:4 im Glossar erklärt machen, sind für mich Taschenspielertricks, die sich im Bild nicht reproduzieren.
Und was die Schärfe angeht, .... nun ja, ich habe lieber Dynamik in den Schatten, als harte Kanten aus Nachberechnungen.
Das ist Geschmackssache, aber ich bin da ziemlich altmodisch und wenn das Objektiv keine harten Kanten gesehen hat, will ich sie auch nicht im Bild haben.

Und wenn man das ganze Verfahren hier KompressionKompression im Glossar erklärt nennen will und nicht differenziert, ist das auch ok für mich, solange dabei keine so schwachsinnigen Sprüche bei herauskommen und wirklich jeder versteht, was gemeint ist.

Und wenn ich das Kind beim Namen nenne, dann hat das schon seine Berechtigung, denn jeder kann sich ausreichend informiert, bevor er etwas schreibt und wenn er das nicht tut, ist das eben u.U. Blödsinn oder Quatsch.
Etwas Information zu dem Thema, zu dem jemand was schreibt, hat noch nie geschadet.
Und mit Manchen will ich auch gar nicht diskutieren, weil die gemeinsame Basis gar nicht vorhanden ist und sie -trotz jahrelanger Präsenz im Forum- immer noch auf der Stelle treten.



Antwort von dienstag_01:

@iasi
Wenn es so einfach ist, dann zeig das doch mal.

Ich glaub nämlich nicht, dass du das hinbekommst ;)



Antwort von mash_gh4:

was vielen hier nicht klar sein dürfte, ist die tasächliche konsequenz von luxuriöserer farbunterabtastung und 10bit wortbreite für die datenrate.

selbst also, wenn man damit u.u. gar kein größere bildinfomation übertragt, muss man im 4:2:24:2:2 im Glossar erklärt 10bit format mit 2-4fachen datenmengen/übertragungsbandbreiten rechnen, um auch nur die selbe bildqualität wie bei gebräuchlicheren consumer 4:2:04:2:0 im Glossar erklärt 8bit h.264 settings zu erzielen.

nachdem aber für zukünftige 8k HDR aufzeichnung und übertragung bereits ernsthaft über 16bit nachgedacht wird, wirkt es ohnehin fast lächerlich, diesen aktuellen 10bit-kompromiss als ultimative lösung zu begreifen. man orientiert sich vielmehr am augenblicklich sinnvoll umsetzbaren -- in der industrie, wie auch als vernünftiger anwender.



Antwort von WoWu:

Auch 10 BitBit im Glossar erklärt werden heute in 2 Byte übertragen.
Man darf die Übertragungsrate nicht mit der Dynamik verwechseln.
Ich hatte das so verstanden, dass es in dem Thread um die Dynamik geht.



Antwort von mash_gh4:

Auch 10 BitBit im Glossar erklärt werden heute in 2 Byte übertragen.

naja -- wenn kompression auch noch im spiel ist, kann man das leider so einfach nicht mehr sagen.

im prinzip wollte ich aber auf's selbe hinaus:
der winzige sprung von 8 auf 10bit fällt in puncto übertragungseffizienz unangenehmer aus als man das gemeinhin erwarten würde.



Antwort von WoWu:

Unangenehmer fällt das an solchen Schnittstellen wie HDMIHDMI im Glossar erklärt auf, denn egal, ob da 8, 10 oder Mehr BitBit im Glossar erklärt übertragen werden, liegen die immer nur im ersten Byte, also in 8 BitBit im Glossar erklärt und das Mehr an Daten wird über die Clock erledigt.
Geschwindigkeit ist heutzutage immer noch schwerer zu machen, als Bandbreite.
Die beiden Bits 9 und 10 sind technische Bits, sodass die Gesamtbreite immer 2 Byte auf der Schnittstelle ist.
Wer also 10 BitBit im Glossar erklärt über HDMIHDMI im Glossar erklärt machen will, sollte sich besser vergewissern, dass sein Empfangsgerät das Handshake versteht sonst kommen da nämlich auch nur noch (default) 8Bit (Dynamik) rüber.



Antwort von Rick SSon:

Die meisten Leute gucken ihre Videos auf mobilen Endgeräten und ihr pixelbeept hier rum, als ginge es um den heiligen Gral der Videotechnik :D

Sogut wie kein Consumer nimmt das Banding wahr, 50% der Leute die ich kenne erkennen den Unterschied zwischen HD und SD nur, wenn ich ihnen direkt den Unterschied zeige ... und das auf meiner 8m Beamerwand.

Solange ihr nicht fürs Kino produziert, könnt ihr genauso gut alles mit GoPros und Handys filmen.



Antwort von WoWu:

Das solltest Du mal der Industrie sagen ...
Vielleicht wissen die das noch nicht.



Antwort von Roland Schulz:



....zum einen war ja die 8bit zeit auch gleichzeitig die sd zeit und ein hd bild hat nunmal fast die 3fache hotizontale auflösung, neigt also 3 mal so schnell zum banding wie sd.

Häää?! Hääää?! Hääääää?!?!?! Falscher Planet!!! Da hat das eine mit dem anderen aber sowas von nix mit zu tun - und, wie war das nochmal mit der Farbabtastung bei der "ESSDEEE" Digibeta?!?!

Wenn man eine Abhängigkeit zwischen Bildauflösung und Banding ableiten wollte dann trifft Umgekehrtes zu, dass bei einer höheren Auflösung und gleichem Abbildungsmaßstab PixelPixel im Glossar erklärt kleiner werden, damit der durch Rauschen bedingte Dithereffekt ein Banding durch kleinere PixelPixel im Glossar erklärt eher "verschleiert".

Ohne Rauschen ändert sich der Effekt aber in Abhängigkeit der Auflösung kein Stück!!

hallo roland,
natürlich hat die auflösung massiv mit banding zu tuen. wenn du 255 abstufungen von 0-255 auf 768(ich gehe mal von square pixeln aus nicht d1 pixeln) verteilst, dann hast du ein banding von 3 pixel breite.
wenn du die gleichen 255 abstufungen aber auf 1920 verteilst, dann hast du ein banding von 7,5 pixeln.
wenn du das mit 720 pixeln anstatt 768 rechnest wird es noch deutlicher, da bin ich aber technisch zu wenig versiert um zu sagen ob man es mit d1 oder square pixeln rechnen muss also hab ich das beispiel zu deinen gunsten gerechnet.

Sorry, hat damit überhaupt nichts zu tun: auf einer gleich großen Wiedergabefläche (Display) spielt es keine Rolle, ob x cm auf dem Bildschirm in der gleichen "Farbe" nun aus 3, 7.5 oder 100 Pixeln bestehen! Es sind immer die gleichen x cm oder welche Größeneinheit auch immer!



Antwort von Peppermintpost:

ach so, ja gut dann ist banding ja wirklich kein problem, ich muss nur einen kleinen bildschirm nehmen, das ist der trick. gute idee.
vor allem weil ja über die letzten jahre die fernseher immer kleiner geworden sind.

besonders lustig ist in dem zusammenhang das du mich fragst auf welchem planeten ich lebe.

naja jedem das seine.



Antwort von kundesbanzler:

Kleiner Tipp in die Runde:

einfach mal ein wenig nachdenken, anstatt zu versuchen den eigenen Stuss mit Sarkasmus zu überspielen.

Sonst findet man am Ende zwischen all dem Stuss und Sarkasmus die relevanten Informationen gar nicht mehr.



Antwort von axl*:

Man darf die Übertragungsrate nicht mit der Dynamik verwechseln
Ausrufezeichen.

Ich hatte das so verstanden, dass es in dem Thread um die Dynamik geht.
Der TE hatte zur "8 BitBit im Glossar erklärt Banding" Thematik gefragt. "Banding" beschreibt jedoch etwas ganz anderes und er hat wohl Tonwertabrisse gemeint. Nutzt man diesen korrekten Begriff, dann erklärt sich ganz von selbst worum es geht: Zwei hoch acht, also 256 mögliche Abstufungen sind wenig und manchmal eben zu wenig. Zwei hoch zehn also 1024 mögliche Abstufungen sind mehr. Vier mal mehr tatsächlich vorhandene Abstufungen also. Es sollte eigentlich zu verstehen sein, dass dies besser ist. Genau so verhält es sich mit dem Chromasubsampling. 4:2:24:2:2 im Glossar erklärt hat die doppelte Farbauflösung von 4:2:0. Es sollte eigentlich zu verstehen sein, dass dies besser ist.

Genau deswegen, um damit auf die zweite Frage des TE einzugehen, verlagen die Broadcaster auch zwingend die Anlieferung von 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Material. Nicht etwa weil es besser aussieht, sondern weil sie damit in der Post den nötigen Spielraum haben.

Zusammenfassung: 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt ist ein DISTRBUTIONSFORMAT, dass in der Lage ist sehr gute Ergebnisse WIEDERZUGEBEN. Für die Bearbeitung war es ursprünglich nicht gedacht, jedoch ist es mit den bekannten Einschränkungen möglich. 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt ist dafür selbsterklärend besser geeignet.



Antwort von dienstag_01:

@axl*
Interessant ;)
Aber einen Vergleich von 8 und 10bit Material, bei dem man den Unterschied in der Verarbeitung sieht, hast du auch nicht, oder?

Übrigens, um dich mal auf den neuesten Stand zu bringen, es gibt auch 8bit 4:2:2. Mindestens seit 10 Jahren.
;)



Antwort von Roland Schulz:

ach so, ja gut dann ist banding ja wirklich kein problem, ich muss nur einen kleinen bildschirm nehmen, das ist der trick. gute idee.
vor allem weil ja über die letzten jahre die fernseher immer kleiner geworden sind.

besonders lustig ist in dem zusammenhang das du mich fragst auf welchem planeten ich lebe.

naja jedem das seine.

JAAAA, auf einem kleineren Bildschirm ist Banding "in der Praxis" natürlich weniger "auffällig"!!!

NOCHMAL - wenn Du eine Fläche von zum Beispiel 5x5 mit Pixeln in der gleichen Farbe hast, daneben eine Fläche von 5x5 mit einer homogenen, ähnlichen Farbe von der man den Unterschied zur ersten Farbe erkennt, dann erkennt man hier "Banding", den Abriss oder was auch immer.

Es spielt nicht die geringste Rolle aus wievielen Pixeln die beiden 5x5 großen, homogenen Flächen bestehen!!

Es spielt nur eine Rolle wie nah sich die zweite Farbe Aufgrund der begrenzten QuantisierungQuantisierung im Glossar erklärt (Aufnahme) nach Transformation oder Multiplikation mit Faktoren (Grading, FarbkorrekturFarbkorrektur im Glossar erklärt was weiß ich) der ersten annähern kann.

Ist das jetzt auch auf dem Mond lustig und verständlich angekommen (bitte nicht persönlich nehmen ;-) )?!?!



Antwort von Rudolf Max:

Hallo,

Ich kenne Banding primär von meinem alten Photoshop, der von mir stets nur Bilder in 8Bit zu fressen bekommt. Die (Foto)Kamera kann eben nicht mehr...

Ich lebe seit Jahren damit und in den allermeisten Fällen merken meine Freunde und auch meine Kunden nichts von alledem, die loben mich vielmehr über meine saubere grafische Gestaltung und solchen Sachen...

Es käme mir nie in den Sinn, wegen so einem lächerlich kleinen "Problemchen" einen Glaubenskrieg anzuzetteln. Solche Glaubenskriege über irgendwelche vernachlässigbare Details haben schon zu richtigen Weltkriegen geführt...

Lieber einen guten Film mit zwischendurch mal einer Aufnahme mit etwas Banding, als die dauernde Massenscheisse, die da von irgendwelchen selbsternannten Messiassen der Videokunst hergestellt werden...

Deren Machwerke sind auch ohne Banding oftmals so grosse Scheisse, dass man dazu wirklich keinen grossen Fernseher braucht... da reicht ein mickriges Handymonitörchen, gekoppelt mit einem Mikroskop völlig aus...

Meine kleine Meinung...

Rudolf

P.S. Ich nenne bewusst keine Namen, halte meine Aussage lieber neutral, sonst ruft das gewisse Pixelpeeper noch auf den Plan...



Antwort von freezer:

Und zum Banding: mir drehts bei jedem Vorspann von House of Cards den Magen um, das ist voll von Banding.

Ist halt auch die Frage, ob das Banding nicht erst durch den Bildschirm des Betrachters entsteht.

Wenn ich mir den House of Cards Vorspann auf meinem kalibrierten Samsung HD-Fernseher ansehe, dann ist zB beim Einblenden des Titels House of Cards vor dem Weißen Haus extremes Banding zu sehen.

Sehe ich es mir auf meinem kalibrierten Studiomonitor an, gibt es an der Stelle nur fast nicht sichtbares Banding.

Generell sind halt sehr saubere Bilder ohne Rauschen in 8 bit viel anfälliger für Banding. Ich habe oft bei RED Material beim Rausrendern in einen 8 bit CodecCodec im Glossar erklärt ein ganz leichtes, fürs Auge fast nicht sichtbares Rauschen, eingefügt um durch dieses Dithering den Eindruck des Bandings zu verhindern.
Das klappt eigentlich sehr gut.



Antwort von axl*:

Aber einen Vergleich von 8 und 10bit Material, bei dem man den Unterschied in der Verarbeitung sieht, hast du auch nicht, oder?

Meinen Ausführungen konntest du aber in soweit folgen? Prima!

Klar habe ich den Vergleich. HIER, nämlich seit ich meine X70 habe. Die kann nämlich sowohl in h264 @ 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt als auch in h264 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt aufzeichnen. Was ich als erstes extensiv getestet habe, kannst du dir ja wohl vorstellen. Außerdem habe ich 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Footage zum Ausprobieren zur Verfügung gestellt, so dass du selbst vergleichen kannst.

Übrigens, um dich mal auf den neuesten Stand zu bringen, es gibt auch 8bit 4:2:2. Mindestens seit 10 Jahren.
;)
Ach was...



Antwort von dienstag_01:

Klar habe ich den Vergleich.
Dann zeig doch mal ;)



Antwort von freezer:

Hier mal ein Beispiel für die Ausgabe eines 8 bit Bildes.
Man achte auf den Farbverlauf oberhalb des Gesichts und im Hintergrund rechts unten in der Unschärfe das Kissen.

Vorschaubilder bitte Anklicken für Original-PNG in 1920x1080:

zum Bild http://www.loom.at/~loomdata/private/images/Abheben_8bit_03248-prev.jpg
Quelle: RED Raw, Ausgabe als 8bit PNG ohne Dithering

zum Bild http://www.loom.at/~loomdata/private/images/Abheben_8bit_03248_dithered-prev.jpg
Quelle: RED Raw, Ausgabe als 8bit PNG mit Dithering



Antwort von Axel:

Und zum Banding: mir drehts bei jedem Vorspann von House of Cards den Magen um, das ist voll von Banding.

Ist halt auch die Frage, ob das Banding nicht erst durch den Bildschirm des Betrachters entsteht.

Wenn ich mir den House of Cards Vorspann auf meinem kalibrierten Samsung HD-Fernseher ansehe, dann ist zB beim Einblenden des Titels House of Cards vor dem Weißen Haus extremes Banding zu sehen.

Sehe ich es mir auf meinem kalibrierten Studiomonitor an, gibt es an der Stelle nur fast nicht sichtbares Banding.

Bei mir (Samsung UE55H6203) und mit schnellem Internet sind einzig bei Ab- und Aufblendungen im HoC-Titel leichte Abstufungen zu sehen. Falls dies nicht der Fernseher ist (was ich fast vermute, da sowas auch teilweise bei BDs zu sehen ist), wäre es wohl ein fairer Kompromiss. Ganz anders steht es bei demselben Gerät mit Youtube- und Vimeoclips. Da ist die Mehrzahl so schlecht komprimiert (bitte nicht wieder eine Wortklauberei-Debatte), dass man nicht von einem Qualitätsgenuss sprechen könnte. Obwohl, den meisten scheint's egal zu sein.



Antwort von Peppermintpost:


JAAAA, auf einem kleineren Bildschirm ist Banding "in der Praxis" natürlich weniger "auffällig"!!!

NOCHMAL - wenn Du eine Fläche von zum Beispiel 5x5 mit Pixeln in der gleichen Farbe hast, daneben eine Fläche von 5x5 mit einer homogenen, ähnlichen Farbe von der man den Unterschied zur ersten Farbe erkennt, dann erkennt man hier "Banding", den Abriss oder was auch immer.

Es spielt nicht die geringste Rolle aus wievielen Pixeln die beiden 5x5 großen, homogenen Flächen bestehen!!

Es spielt nur eine Rolle wie nah sich die zweite Farbe Aufgrund der begrenzten QuantisierungQuantisierung im Glossar erklärt (Aufnahme) nach Transformation oder Multiplikation mit Faktoren (Grading, FarbkorrekturFarbkorrektur im Glossar erklärt was weiß ich) der ersten annähern kann.

Ist das jetzt auch auf dem Mond lustig und verständlich angekommen (bitte nicht persönlich nehmen ;-) )?!?!

hier ein 0-255 verlauf in hd und sd. schau dir den mal in 100% grösse an und du stellst fest im sd siehst du es eigendlich nicht, auch wenn das banding dort natürlich auch verhanden ist, im hd siehst du es schon deutlich. wenn du mal hinein zoomst dann siehst du auch den vergleich zwischen hd und sd banding. mehr kann ich jetzt leider nicht für dich tuen.



Antwort von axl*:

Klar habe ich den Vergleich.
Dann zeig doch mal ;)
Meine Cam, meine TimelineTimeline im Glossar erklärt, meine Kohle...
Haste mal n Euro?

;-)



Antwort von Rudolf Max:

Grauenhaft, einfach grauenhaft, diese Graukeile mit dem fürchterlichen Banding... *grins

Ich verstehe völlig, dass man mit sowas keinesfalls leben... äh... filmem kann, da kotzen einem die Zuschauer ja bei der Vorführung den Teppich voll... *grins

Muss morgen dringendst auch so eine 10Bit Kamera besorgen, mit meiner 8Bit muss ich mich ja schämen... *grins

Ach, wie ich mich freue, nach diesem Neukauf hoffentlich auch zur Gruppe der grossen Profis gehören zu dürfen... *grins



Antwort von dienstag_01:

Meine Cam, meine TimelineTimeline im Glossar erklärt, meine Kohle...
Haste mal n Euro?
Jeder findet die Ausrede, die zu ihm passt ;)
(Lass stecken, bekommst du sowieso nicht hin)



Antwort von Peppermintpost:

Grauenhaft, einfach grauenhaft, diese Graukeile mit dem fürchterlichen Banding... *grins

Ich verstehe völlig, dass man mit sowas keinesfalls leben... äh... filmem kann, da kotzen einem die Zuschauer ja bei der Vorführung den Teppich voll... *grins

Muss morgen dringendst auch so eine 10Bit Kamera besorgen, mit meiner 8Bit muss ich mich ja schämen... *grins

Ach, wie ich mich freue, nach diesem Neukauf hoffentlich auch zur Gruppe der grossen Profis gehören zu dürfen... *grins

hey Rudolf, ne darum gehts ja gerade nicht, sondern nur um die frage ob die farbauflösung mit steigender pixel auflösung zunemmen muss oder nicht.
lies dir nochmal den anfang des threads durch, da sage ich auch das man im master 8bit vs 10bit nicht sieht, wenn keine technischen fehler drin sind.
ich bin auch nicht der meinung das man 10bit zwingend braucht. aber ich sage halt auch nicht das 8 und 10 bit das gleiche sind. 10bit hat vorteile, das bedeutet nicht das man das immer zwingend benutzen muss.
wenn ich einen film drehe der immer am tag spielt und am besten noch draussen, und mein kameramann hat ne idee wie man die belichtung richtig einstellt, dann sind 8bit total ok. drehe ich einen film der in der nacht spielt, dann würde ich 8bit vermeiden wollen. also einfach mal schauen was man macht und ob es wirklich nötig ist. filme ich nur meinen vorgarten und poste auf youtube, das ist die einzige wirkliche ausnahme, dann muss es zwingend eine red oder alexa sein und mindestens 4k.



Antwort von axl*:

(Lass stecken, bekommst du sowieso nicht hin)
Ich brauche nichts hinbekommen, ich HABE hinbekommen. ;-)



Antwort von iasi:

@ Iasi

Das Hauptproblem scheint mir zu sein, dass die Diskussionen sich immer weiter vom Bildinhalt entfernen und sich einwenig verselbstständigen.

Bei mir hat immer noch die Auswirkung auf das Bild den Vorrang, ob es nun die Auflösung, die Dynamik oder, wie hier, die KompressionKompression im Glossar erklärt ist.
Ein CodecCodec im Glossar erklärt, der mit einer ziemlich schlechten Bildqualität und ausserdem noch zusätzlich mit einer höheren DatenrateDatenrate im Glossar erklärt aufwartet komprimiert (im Sinne einer schlechteren Darstellung) die Bildinhalte stärker als ein CodecCodec im Glossar erklärt, der Bilder aufgelöster in jeder Hinsicht wiedergibt und dazu noch bei geringerer BandbreiteBandbreite im Glossar erklärt aufweist.

Genauso halte ich es mit der Bildauflösung, wie Du weist ... mir ist ziemlich egal, was da auf dem Karton steht denn ich orientiere mich immer am Bild und wenn da nicht die Auflösung entsteht, die auf dem Karton steht, dann ist das für mich "in die Tasche" Lügerei.

Und auch solche Rechenkünste, die technisch aus 8 BitBit im Glossar erklärt 10 oder 12 und aus 4:2:04:2:0 im Glossar erklärt dann 4:4:44:4:4 im Glossar erklärt machen, sind für mich Taschenspielertricks, die sich im Bild nicht reproduzieren.
Und was die Schärfe angeht, .... nun ja, ich habe lieber Dynamik in den Schatten, als harte Kanten aus Nachberechnungen.
Das ist Geschmackssache, aber ich bin da ziemlich altmodisch und wenn das Objektiv keine harten Kanten gesehen hat, will ich sie auch nicht im Bild haben.

Da sind wir voll auf einer Linie.

Ich denke, nur sehen wir die Wertungen etwas anders:
RedRaw ist z.B. natürlich ein Kompromiss im Hinblick auf unkomprimiertes Raw.
Ich nehme dies aber in Kauf, da es höhere Auflösung und Frameraten bei bewältigbaren Datenraten ermöglicht.
Auch bin ich mir darüber im klaren, dass am Ende keine echten 4k herauskommen, wenn auf der Kamera 4k steht. Aber es ist eben doch noch mehr als 2k. Das ist eben wie mit den Kinokopien: Man war doch froh, wenn möglichst viel von dem auf dem Kameranegativ übrig blieb und auf der Leinwand zu sehen war.
Da bin ich ganz pragmatisch. Das Bessere ist der Feind des Guten.

10bit während der Aufnahme bringt eben auch schon etwas, selbst wenn das Ausgabeformat 8bit ist - auch wenn es nur etwas mehr Gestaltungsspielraum in der Post ist.



Antwort von Rudolf Max:

Hallo Peppermintpost ,

Ich habe nicht speziell an dich gedacht, als ich vorhin meinen Sarkasmus rausgelassen habe, das meinte ich ganz allgemein...

Wie immer man zum Thema Banding stehen mag, mich stört das eigentlich nicht, ich drehe ganz einfach mit der Kamera, die ich besitze, alles andere wäre blosse Träumerei. Zufälligerweise kann meine Kamera kein 10Bit, also erledigt sich das Thema für mich auch von dieser Sicht her ganz von alleine...

Ich verstehe, dass man gerne das letzte an Bildqualität aus seiner Kamera holen möchte, das tue auch ich. Mich belustigt eher die Diskussion über das Thema an sich, da es nämlich überhaupt nichts an der Tatsache ändert, dass hier wieder mal auf dermassen hohem Nivea geredet wird, dass man glauben könnte, wir seinen in Hollywood, wo es um Millionen geht...

Jeder muss mit der Kamera filmen, die er hat, ob die nun 8 oder 10Bit ausgeben kann. So betrachtet fachsimple ich doch liber über technische Sachen, die ich verändern kann, die für mich sinn machen und nicht über Sachen, die nun mal fix sind...

Möchte gerne mal einen Fernsehsender erleben, der mir Filme in 10Bit ins Haus liefert. Ich habe mich längst mit der Bildqualität von normalem Fernsehen arrangiert, und sehe nicht ein, dass ich als Privatperson unbedingt besser als diese Institutionen sein müsse. An solchem Grössenwahn leide ich gottseidank nicht...

In einigen Jahren habe auch ich vermutlich eine Kamera mit 10Bit, aber dann werde ich wohl schon wieder "veraltet" sein, weil dannzumal bereits 16Bit als das Nonplusultra hochgejubelt wird... ach ja, meine Kamera hat auch nur normales HD... ist also Scheisse von vorne bis hinten... aber ich kann damit leben... sogar ganz gut...

Ach, wie ich doch das Träumen von immer noch mehr liebe... demnächst stelle ich mich wohl auch drei Tage vor Ladenöffnung beim Applestore an, bloss um möglichst der erste zu sein, der sein teuer verdientes Geld für etwas ausgeben kann, was ich eigentlich gar nicht brauche...

Rudolf



Antwort von motiongroup:

@ Rudolf.... Daumen hoch



Antwort von Axel:

Dem stimme ich zu. Pixelpeeper und Farbtiefenhochstapler geschwind auf die Couch!



Antwort von iasi:

@iasi
Wenn es so einfach ist, dann zeig das doch mal.

Ich glaub nämlich nicht, dass du das hinbekommst ;)

Was zeigen?

Den Gestaltungsspielraum?
Die andere Arbeitsweise?

Wenn am Ende 8bit stehen sollen, genügt auch eine Aufzeichnung in 8bit, um gute Ergebnisse zu erzielen. Nur muss dannn eben schon während der Aufnahme das Endergebnis erreicht werden.
Da muss dann eben in der Kamera die Post erfolgen und die Ausleuchtung absolut exakt sein. Das bedeutet dann mehr Aufwand während des Drehs.

Bei 10bit ist der Spielraum etwas größer. Dreht sich ein Darsteller in den Schatten, dann kann man eben doch noch in der Post etwas aufhellen.
Will man in der Post das Bild noch etwas gestalten, so braucht es den Spielraum.

Für die perfekte Ausleuchtung fehlt in der Drehrealität doch die Zeit und auch das Material.
Zudem gibt es eben auch Einschränkungen, die man mit einer Feinjustierung der Ausleuchtung in der Post, vermeiden kann.
Der Darsteller und die Kamera können sich dadurch z.B. freier bewegen, weil sie nicht den Lampen und Reflektoren ausweichen müssen :)
Extremes Beispiel: "Birdman".

Beim Camera-Shoot-out 2012 war es ebenfalls ziemlich deutlich zu beobachten:
Die Teams mit 8bit-Kameras verwendeten weit mehr Zeit und Leuchtmittel auf die Ausleuchtung der Szene, als die Raw-Teams. Bei den Raw-Leuten war die Drehzeit kürzer und die Post-Zeit länger.
Da die Drehzeit teurer und knapper ist, bevorzuge ich daher Raw.



Antwort von Peppermintpost:


Mich belustigt eher die Diskussion über das Thema an sich, da es nämlich überhaupt nichts an der Tatsache ändert, dass hier wieder mal auf dermassen hohem Nivea geredet wird, dass man glauben könnte, wir seinen in Hollywood, wo es um Millionen geht...

ne rudolf, da liegst du falsch, in hollywood ist den leuten das scheiss egal, die benutzen auch gopro und 5d. die drehen in 720p und schneiden das einfach zwischen 4k footage, die sind da total schmerzfrei.

das problem stellt sich in erster linie hier im forum, nicht bei den zuschauern ;-)



Antwort von dienstag_01:

@iasi
Was genau versteht du am Wort *zeigen* nicht ;)



Antwort von iasi:


Mich belustigt eher die Diskussion über das Thema an sich, da es nämlich überhaupt nichts an der Tatsache ändert, dass hier wieder mal auf dermassen hohem Nivea geredet wird, dass man glauben könnte, wir seinen in Hollywood, wo es um Millionen geht...

ne rudolf, da liegst du falsch, in hollywood ist den leuten das scheiss egal, die benutzen auch gopro und 5d. die drehen in 720p und schneiden das einfach zwischen 4k footage, die sind da total schmerzfrei.

das problem stellt sich in erster linie hier im forum, nicht bei den zuschauern ;-)

na - da malt sich aber einer ein Bild der Welt, das ihm gefällt.

Man sollte sich durchaus Gedanken über 8bit vs 10bit und vor allem die Konsequenzen daraus machen.
Wer denkt, er könne mit einer 8bit-Kamera drauflosfilmen und das Material dann in der Post verbiegen, wie Raw, der macht eben einen großen Fehler.
8bit verlangt eine andere Arbeitsweise.



Antwort von iasi:

@iasi
Was genau versteht du am Wort *zeigen* nicht ;)

Willst du Bildchen sehen?

Du weißt aber schon, dass es auch Buchstaben gibt?



Antwort von dienstag_01:

Ein Bild sagt mehr als tausend Worte ;)



Antwort von Peppermintpost:


Mich belustigt eher die Diskussion über das Thema an sich, da es nämlich überhaupt nichts an der Tatsache ändert, dass hier wieder mal auf dermassen hohem Nivea geredet wird, dass man glauben könnte, wir seinen in Hollywood, wo es um Millionen geht...

ne rudolf, da liegst du falsch, in hollywood ist den leuten das scheiss egal, die benutzen auch gopro und 5d. die drehen in 720p und schneiden das einfach zwischen 4k footage, die sind da total schmerzfrei.

das problem stellt sich in erster linie hier im forum, nicht bei den zuschauern ;-)

na - da malt sich aber einer ein Bild der Welt, das ihm gefällt.

Man sollte sich durchaus Gedanken über 8bit vs 10bit und vor allem die Konsequenzen daraus machen.
Wer denkt, er könne mit einer 8bit-Kamera drauflosfilmen und das Material dann in der Post verbiegen, wie Raw, der macht eben einen großen Fehler.
8bit verlangt eine andere Arbeitsweise.

naja was soll ich sagen, im genensatz zu einigen anderen hab ich das nicht aus büchern, sondern ich musste den scheiss dann tatsächlich bearbeiten. ich hab schon, bei hollywood produktionen gesehen, das kameraleute innerhalb von einer szene die kamera von arri raw auf prores umschalten, nur aus scheiss, um mal zu sehen ob der unterschied auffällt. da gibt es sehr bekannte regisseure die lassen mit der kamera drehen wo es den grössten zuschuss des kamera herstellers gibt, auch wenn das ding noch ein pre production modell ist, scheiss egal.
ich glaube wenn apple tief genug in die tasche greift drehen die auch mit einem iphone (ok das ist jetzt nur spekulation).
ein riesen aufriss um tech specs findet im erster linie in irgend welchen foren statt, am set geht das den meisten dann da vorbei wo die sonne nicht scheint.



Antwort von iasi:

Man muss mit einer 8bit-Kamera eben wie mit einer 8-bit-Kamera drehen und sollte nicht davon träumen, dass man sie wie eine 10bit oder gar Raw-Kamera nutzen kann.

Man sollte sich auch durch 4k --> HD Rechnereien nicht täuschen lassen und seine 8-bit-Arbeitsweise einhalten.

Wer die Unterschiede zwischen 8bit, 10bit oder auch Raw irgnoriert, verschenkt entweder Potential oder produziert schlechte Ergebnisse.

Nochmal: 8bit, 10bit, Raw - jedes FormatFormat im Glossar erklärt verlangt eine andere Arbeitsweise.

Die Bilder, die am Ende herauskommen, müssen sich nicht unterscheiden.



Antwort von Peppermintpost:


Nochmal: 8bit, 10bit, Raw - jedes FormatFormat im Glossar erklärt verlangt eine andere Arbeitsweise.

ne iasi, das ist genau der punkt. das tuen sie halt nicht. nur ist leider in den köpfen einiger producer inzwischen angekommen, bei raw und 4k kann ich auch die aller grössten hirnies an die kamera stellen, weil ich kann es mir ja in der post irgendwie zurecht biegen, und die ergebnisse sehen dann am ende ja auch genau so aus wie in der post hingebogen.



Antwort von dienstag_01:

Das Wörtchen ZEIGEN lässt scheinbar doch erheblichen Interpretationsspielraum zu ;)



Antwort von axl*:

@iasi

Bemüh dich nicht weiter. Das ist ein reiner Popcornthread. Diejenigen, die es verstanden haben machen es cleverer als wir. Sie halten sich raus. Alle anderen, ob nun Nichtverstehenkönner oder Nichtverstehenwoller oder die vermeintlich Unterprivilegierten die dann immer aus ihrem Tal der Tränen gekrochen kommen: Völlig langweilig. Ich werde mich mal zu den Erstgenannten gesellen ich muss eh gleich an die Front und Footage herstellen gehen...



Antwort von dienstag_01:

Ach, nö, Peppermintpost, jetzt hat dich iasi wieder bei seinem Lieblingsthema. Als nächstes kommt eine seitenlange Abhandlung zur Arbeitsweise.
Hier wird einem auch nichts erspart ;)



Antwort von iasi:

Das Wörtchen ZEIGEN lässt scheinbar doch erheblichen Interpretationsspielraum zu ;)

nun - schau dir die Ergebnisse des Camera-Shootout 2012 an und du wirst feststellen, dass da eben keine Unterschiede zu sehen sind.

Also was soll ich denn zeigen?

Aber du kannst dir mal die Beleuchtungspläne der veschiedenen Teams ansehen - vielleicht verstehst du dann, was ich meine.

Im übrigen kannst du auch mal selbst dein 8bit-Material in ein Programm laden, in dem du die Mitten hochziehen kannst. Das mach mal kräftig, bis du siehst, was du gezeigt bekommen willst.
Zum Vergleich kannst du es auch mal mit 10bit-Material versuchen.

Ich denke, wer hier im Forum mitredet, der kann das und muss es nicht von anderen geliefert bekommen.



Antwort von dienstag_01:

Ich denke, wer hier im Forum mitredet, der kann das und muss es nicht von anderen geliefert bekommen.
Ausreden, wie üblich.



Antwort von iasi:

Ich denke, wer hier im Forum mitredet, der kann das und muss es nicht von anderen geliefert bekommen.
Ausreden, wie üblich.

Wenn du Bilderbücher suchst, dann geh in der Bücherei in die Kinderabteilung.

Ausreden brauch ich auch nicht - von mir bekommst du keine Bildchen geliefert - so ist das nun mal.



Antwort von dienstag_01:

von mir bekommst du keine Bildchen geliefert
Natürlich nicht ;)



Antwort von iasi:

von mir bekommst du keine Bildchen geliefert
Natürlich nicht ;)

bist ja auch selber groß und brauchst"s nicht



Antwort von dienstag_01:

bist ja auch selber groß und brauchst"s nicht
Doch ;)



Antwort von Peppermintpost:

den 2012er shootout kann ich nicht finden, ich finde nur "revenge of the 2012 shootout" hast du einen link?

der "revenge of the..." ist aber genau zu dem thema 10 und 8 bit schön anzusehen, weil es genau das wiederspiegelt was hier im forum passiert.
im blindtest gehen die meinungen wild auseinander was die beste kamera ist, wenn dann die kamera namen drunter stehen sind sich alle einig das die teuersten die besten sind.

was wir also dringend brauchen sind keine kareras die alle 10bit oder mehr machen, sondern ein leeres gehäuse das aussieht wie eine alexa wo man ein iphone hinein stecken kann oder eine gh2 die francis ford coppola im blindtest am besten fand. genau gh2 nicht gh4! besser als alexa, red und f65. geilomat!



Antwort von dienstag_01:

der "revenge of the..." ist aber genau zu dem thema 10 und 8 bit schön anzusehen, weil es genau das wiederspiegelt was hier im forum passiert.
Hier kommen noch die Leute dazu, die einmal Aufgeschnapptes ohne Sinn und Verstand weitergeben und andere, die ihre eigenen Tests nicht verstehen ;)
Aber bissel traurig ist das schon auch.



Antwort von Peppermintpost:



Hier kommen noch die Leute dazu, die einmal Aufgeschnapptes ohne Sinn und Verstand weitergeben und andere, die ihre eigenen Tests nicht verstehen ;)
Aber bissel traurig ist das schon auch.

das ist mega traurig, und der test ist mMn auch ein witz, das ist eher ein lustiges zusammentreffen und ne runde quatschen als ein kamera test, da fehlen nur noch die räucherstäbchen. aber das geile ist dennoch das eine kamera die im ebay ca. 300euro kostet mit einer kamera mithält (oder sie sogar schlägt) die incl optic so teuer ist wie ein einfamilienhaus ;-)

ich könnte mir in die hose machen vor lachen.



Antwort von motiongroup:


was wir also dringend brauchen sind keine kareras die alle 10bit oder mehr machen, sondern ein leeres gehäuse das aussieht wie eine alexa wo man ein iphone hinein stecken kann oder eine gh2 die francis ford coppola im blindtest am besten fand. genau gh2 nicht gh4! besser als alexa, red und f65. geilomat!
_________________

Was war das für eine Welle der Entrüstung die hier durch das Forum schwappte... Sensationell ....



Antwort von cantsin:

aber das geile ist dennoch das eine kamera die im ebay ca. 300euro kostet mit einer kamera mithält (oder sie sogar schlägt) die incl optic so teuer ist wie ein einfamilienhaus ;-)

Wir sehen in dieser verfahrenen Debatte vielleicht klarer, wenn wir mal zum Vergleich Fotografie heranziehen. Der o.g. Studiotest hätte ebensogut mit Fotokameras gemacht werden können: Dann hätte man die 300 Euro-GH2 im JPEG-Modus gegen eine Hasselblad mit RAW-schiessendem Digital-Rückteil antreten lassen. Und es hätte genau zum gleichen Ergebnis kommen können: Dass bei sorgfältiger Ausleuchtung, guter Kameraeinstellung und kompetenter Nachbearbeitung (ja, auch beim dem Zacuto-Shootout ging das Material in die Post...) die GH2-Fotos im Blindtest besser gefallen als die Hasselblad-Fotos.

Der Umkehrschluss allerdings, dass eine Hasselblad gegenüber einer GH2 weggeworfenes Geld und RAW gegenüber JPEG überflüssiger Mehraufwand ist, stimmt trotzdem nicht. (Was spätestens dann deutlich würde, wenn man nicht mehr unter optimalen Studiobedingungen fotografiert und das GH2-JPEG gegenüber dem Hasselblad-RAW schnell auseinanderfällt.)



Antwort von Axel:

Der Umkehrschluss allerdings, dass eine Hasselblad gegenüber einer GH2 weggeworfenes Geld und RAW gegenüber JPEG überflüssiger Mehraufwand ist, stimmt trotzdem nicht. (Was spätestens dann deutlich würde, wenn man nicht mehr unter optimalen Studiobedingungen fotografiert und das GH2-JPEG gegenüber dem Hasselblad-RAW schnell auseinanderfällt.)

Im "DV Rebel" sagt Stu Maschwitz, im Empfangsraum des Studios, wo er auf einer 1.00.000$ DaVinci Suite Kinospots gradete, hätte eine 5000$ - Kaffeemaschine gestanden, repräsentativ für Kunden. Er selbst könne mit einer mechanischen Kaffeemühle, einem 7$ Porzellanfilter und entsprechendem Know-How einen besseren Kaffee zubereiten. Ebenso könne er auf einem Bürorechner mit AAE und DV-Material zum selben Ergebnis (bis auf die Auflösung freilich) kommen wie in DaVinci.

Ich denke, darum geht's hier, und Rudolf Max hat Recht. Es gibt nichts Gutes, außer man tut es. Das Hinterletzte ist nicht, mit 8-bit zu drehen, sondern sich darüber die Haare zu raufen.



Antwort von iasi:

den 2012er shootout kann ich nicht finden, ich finde nur "revenge of the 2012 shootout" hast du einen link?

der "revenge of the..." ist aber genau zu dem thema 10 und 8 bit schön anzusehen, weil es genau das wiederspiegelt was hier im forum passiert.
im blindtest gehen die meinungen wild auseinander was die beste kamera ist, wenn dann die kamera namen drunter stehen sind sich alle einig das die teuersten die besten sind.

was wir also dringend brauchen sind keine kareras die alle 10bit oder mehr machen, sondern ein leeres gehäuse das aussieht wie eine alexa wo man ein iphone hinein stecken kann oder eine gh2 die francis ford coppola im blindtest am besten fand. genau gh2 nicht gh4! besser als alexa, red und f65. geilomat!

Die Ergebnisse unterscheiden sich nicht zwingend.
Es ist die Arbeitsweise, die sich unterscheidet - un eben dadurch auch die Eignung für den jeweiligen Einsatzzweck.

Es wie mit den Objektiven: Abgeblendet sind die Unterschiede meist kaum mehr zu erkennen.

Es ist übrigens dieses "Revenge of the Great Camera Shootout 2012".
Dabei finde ich die Ergebnisse gar nicht so interessant, sondern wie die Ergebnisse erzielt wurden.

http://www.zacuto.com/zvideo/RGCSO-Tech ... ion-V1.pdf



Antwort von dienstag_01:

Ich denke, darum geht's hier, und Rudolf Max hat Recht.
Wenn jemand der Unterschied zwischen 8 und 10bit egal ist, ist das alleine seine Sache. Wenn derjenige aber der Meinung ist, allen anderen müsste es ebenfalls so gehen und das auch noch auf eine sehr sarkastische - man könnte auch sagen überhebliche - Art hier kundtut, zeugt das nur von geistiger Trägheit. Mindestens ;)



Antwort von kundesbanzler:

Ebenso könne er auf einem Bürorechner mit AAE und DV-Material zum selben Ergebnis (bis auf die Auflösung freilich) kommen wie in DaVinci.
... er braucht dafür nur 50x so lange.

Darüber hinaus hat es eine gewissen Ironie, diesen Vergleich gerade in dieser Diskussion anzubringen, denn im gleichen Atemzug stellt er nämlich als wesentlichen Vorteil heraus, dass AFX obwohl viel günstiger höheres Farbsampling als die Flame gebacken bekommt.



Antwort von WoWu:

Na ja, .... Am Thema vorbei.
Der TS hat explizit nach den Unterschieden im Banding gefragt und nicht danach, wer mit einem 7$ Kaffeefilter einen super Hollywood Streifen drehen kann.

Und der Rest steht doch völlig außer Frage, dass man mit 8 BitBit im Glossar erklärt 4:2:2' wie vom TS angesprochen, auch schöne Aufnahmen machen kann.
Sowas ist eben immer eine Frage der Situation und des Anspruchs..
(Betrifft übrigens auch das Banding. Manche Sehens nicht oder es stört sie nicht. Das ändert aber nichts daran, dass es vorhanden ist.
Und zwar bei 8Bit sehr viel eher, als bei 10bit.



Antwort von wolfgang:

Es gibt nicht Gutes außer man tut es!

Also kann man gleich mit 10bit drehen. Was sind das eigentlich für Argumente? Gar keine, sondern reine Beharrungsbekenntnisse. Und es ist auch kein Argument dass irgend wer halt heute eine 8bit Kamera hat. Gestern hatte er vielleicht eine Video8 Kamera. Schön, ist ja auch ok. Aber würde er deshalb bei Video8 bleiben oder das heute noch kaufen?



Antwort von Uwe:

Sieht jemand Unterschiede:





Antwort von iasi:

Sieht jemand Unterschiede:



ja



Antwort von Peppermintpost:


Darüber hinaus hat es eine gewissen Ironie, diesen Vergleich gerade in dieser Diskussion anzubringen, denn im gleichen Atemzug stellt er nämlich als wesentlichen Vorteil heraus, dass AFX obwohl viel günstiger höheres Farbsampling als die Flame gebacken bekommt.

die flame arbeitet 16bit float AE 32bit float die unterschiede sind noch nicht einmal von akademischer natur, in der farbe ändert sich genau nichts, der unterschied ist, wenn überhaupt vorhanden z.b. in world position passes zu suchen und das kann ae garnicht. darfür ist 16bit fp genau das format was grafikkarten zum rendernrendern im Glossar erklärt nativ benutzen können, es ist also lediglich eine performance frage.

aber das genau ist der punkt, und da bist du ja nicht alleine hier im forum, die wenigsten wissen was der unterschied ist, die wenigsten wissen auf was für einem niveau wir uns befinden, aber weil auf dem papier ein produkt vermeindlich besser aussieht wird daraus die schlussfolgerung gezogen, das das andere automatisch minderwertig ist.

und die frage ob man heute noch mit video8 aufzeichnen will die stellt sich doch garnicht. wenn ich nur eine video8 habe, dann drehe ich damit, wenn ich nur eine alexa habe dann nehme ich auch die auch wenn ich die total ätzend finde (wegen kaputtem rücken nicht wegen der tech specs).



Antwort von Peppermintpost:

Sieht jemand Unterschiede:

ja klar, die sieht doch jeder, bei dem einen steht da 8bit bei dem anderen steht 10bit. ist doch gross genug geschrieben.



Antwort von kundesbanzler:

die flame arbeitet 16bit float AE 32bit float die unterschiede sind noch nicht einmal von akademischer natur, in der farbe ändert sich genau nichts, der unterschied ist, wenn überhaupt vorhanden z.b. in world position passes zu suchen und das kann ae garnicht. darfür ist 16bit fp genau das format was grafikkarten zum rendernrendern im Glossar erklärt nativ benutzen können, es ist also lediglich eine performance frage.
Zum dem Zeitpunkt als er das geschrieben hat, konnte die maximal 12bit, behauptet er zumindest. Ob er da falsch liegt, kannst du dich ja dann mit ihm drüber streiten.

Und wenn du aufmerksam lesen könntest oder würdest, hättest du gemerkt, dass ich hier lediglich eine Aussage einer dritten Person wiedergegeben habe, in dem Kontext dass sie hier ironischerweise für den auf das Detail bezogen eher gegenteiligen Standpunkt rezitiert wurde.

Aber dich mit Sarkasmus oder dem (scherzhaften?) Eingeständnis deiner mangelhaft entwickelten Grundkompetenzen aus deinen unsinnigen Aussagen rauszulawieren ist wohl deine Art, mit so Diskussionen umzugehen.



Antwort von freezer:

https://cineform.zendesk.com/entries/23 ... -precision

Falls nicht wieder allen das Ego dazwischen reinpfuscht, können wir vielleicht über die Beispiele diskutieren, die ich hier poste, anstatt dass hier jeder nach allen Seiten austeilt?

https://www.slashcam.de/forum/viewtopic.php?p=809477#809477



Antwort von cantsin:

So, "Butter bei die Fische". Hab' mal eben folgendes Experiment gemacht:

- Nr.1: 10bit-Material: eine ProResProRes im Glossar erklärt HQ-"Run-and-Gun"-Aufnahme in Blackmagic-Log, aufgenommen mit einer Blackmagic Pocket und einem Panasonic-Zoom.
- Nr.2: 8-bit Material: Umcodierung von Nr.1 nach 300Mbit/s 8bit h264 mit Adobe Media Encoder.

Import von Nr.1 und Nr.2 nach Davinci Resolve, Anwendung des "Blackmagic Cinema Camera Film to Rec709 v2"-LUT als Timeline-Node, identische Korrektur von Lift und Gain von Nr.1 und Nr.2. Export nach 16bit-TIFF, Umwandlung der TIFFs per Imagemagick zu den hier verlinken 8bit-PNGs:

- Ergebnis Nr.1, 10bit: http://data.pleintekst.nl/01-10bit.png
- Ergebnis Nr.2, 8bit: http://data.pleintekst.nl/02-8bit.png

Nr. 2 simuliert den Workflow einer Kamera wie z.B. der Sony A7R-II/A7s-II/RX10-II/RX100-II (interne oder externe Aufzeichung) jeweils in Slog2, oder mit der GH4 mit V-Log und interner Aufzeichnung. Dabei dürften die Ergebnisse hier in diesem synthetischen Test noch erheblich besser bzw. schmeichelhafter für das 8bit-Material ausfallen als im Drehalltag, weil das Runtersamplen/Interpolieren auf 8bit von PC-Software aufwändiger und genauer erledigt wird als von Kameraelektronik.

Im Vergleich der beiden Framegrabs kann man sehen, ob 10bit bei der Aufnahme in Log-Farbräumen (bzw. vergleichbaren Farbkorrektur-Szenarien) etwas bringt oder nicht - und zwar auch dann, wenn das Zielmedium bzw. vom Zuschauer gesehene Material 8bit-Video ist.

(Und bevor Ihr mich jetzt erschlagt, weil ich Log-Material als Ausgangsbasis verwendet habe: Das ist IMHO das typische Szenario, in dem man mehr als 8bit in der Kamera haben will. Und auch kein esoterisches Szenario, da z.B. Sony jetzt massiv 8bit-Kameras mit Log-Aufzeichnung auf den Markt wirft.)



Antwort von Peppermintpost:

die flame arbeitet 16bit float AE 32bit float die unterschiede sind noch nicht einmal von akademischer natur, in der farbe ändert sich genau nichts, der unterschied ist, wenn überhaupt vorhanden z.b. in world position passes zu suchen und das kann ae garnicht. darfür ist 16bit fp genau das format was grafikkarten zum rendernrendern im Glossar erklärt nativ benutzen können, es ist also lediglich eine performance frage.
Zum dem Zeitpunkt als er das geschrieben hat, konnte die maximal 12bit, behauptet er zumindest. Ob er da falsch liegt, kannst du dich ja dann mit ihm drüber streiten.

Und wenn du aufmerksam lesen könntest oder würdest, hättest du gemerkt, dass ich hier lediglich eine Aussage einer dritten Person wiedergegeben habe, in dem Kontext dass sie hier ironischerweise für den auf das Detail bezogen eher gegenteiligen Standpunkt rezitiert wurde.

Aber dich mit Sarkasmus oder dem (scherzhaften?) Eingeständnis deiner mangelhaft entwickelten Grundkompetenzen aus deinen unsinnigen Aussagen rauszulawieren ist wohl deine Art, mit so Diskussionen umzugehen.

ah das hatte ich nicht kapiert, sorry. ich dachte das wäre deine aussage.
hab gerade nochmal versucht heraus zu finden wie das mit den 32 bit AE und 16bit flame war. AE konnte 32bit seit 2006 mit version 7. bei der flame habe ich es leider nicht heraus finden können. ich glaube die kann das seit sie auf linux war (version2007 die ist glaube ich im april 2006 heraus gekommen) aber ich würde nicht drauf wetten. totsicher bin ich mir bei version2010 (release april2009). also ae konnte es vermutlich deutlich früher als die flame das stimmt. da haben wir flamer immer noch "nur" mit 12bit rum gemacht.
aber zu meiner ehrenrettung sei gesagt, wenn es richtig genau sein musste hab ich es damals sowieso mit shake gemacht und das konnte 16bit float schon seit 2000. im jahr 2000 war die flame im spielfilm schon ein auslaufmodel und wurde im grunde nur noch für tv benutzt und da reichen 10bit bekanntlich bis heute noch aus.



Antwort von dienstag_01:

Zum Test von Cantsin:

1. Bei der Frage nach den Bearbeitungsmöglichkeiten von 8 bzw. 10bit Material geht es nicht um die Beurteilung klitzekleiner Unterschiede, sondern um eine nachvollziehbare Bestätigung (oder Widerlegung) der Aussage, dass 10bit Material mehr Spielraum in der Post lässt. Man müsste also schon richtig dran drehen - vielleicht an unterbelichtetem Material - um einen signifikanten Vorteil des einen Materials zu belegen.

2. Unabhängig davon, ob es wirklich Sinn macht, das eine Material aus dem anderen Material zu generieren (müsste man nochmal in Ruhe drüber nachdenken), wäre aber mit einem Vergleich von 8bit 4:2:04:2:0 im Glossar erklärt mit 10bit 4:2:24:2:2 im Glossar erklärt noch keine Aussage über die Vor- und Nachteile von 8 vs. 10bit zu machen. Da sollte man schon einen 8bit 4:2:24:2:2 im Glossar erklärt CodecCodec im Glossar erklärt heranziehen.

Den Test von Freezer versteh ich gar nicht. Oder geht es da vornehmlich um die Vermeidung von Banding?



Antwort von cantsin:

Zum Test von Cantsin:

1. Bei der Frage nach den Bearbeitungsmöglichkeiten von 8 bzw. 10bit Material geht es nicht um die Beurteilung klitzekleiner Unterschiede,
Doch, eben gerade. Die Frage ist auch, wie klitzklein die Unterschiede sind. Aber damit stecken wir wieder in der Hautton-Debatte aus einem Parallelthread, den ich lieber nicht wieder aufmache.

Was im Umkehrschluss aber auch bedeutet: Wer die Unterschiede nicht sieht, braucht kein 10bit und kann mit den heute von Sony & Co. bis hoch zur A7s-II und FS5 angebotenen Möglichkeiten glücklich werden.

2. Unabhängig davon, ob es wirklich Sinn macht, das eine Material aus dem anderen Material zu generieren (müsste man nochmal in Ruhe drüber nachdenken)
Auch in der Kamera findet bei der 8bit-Aufzeichnung ein Downsampling statt. Dieses hier dürfte qualitativ deutlich besser sein, als das, was Kameras in der Klasse von RX100 bis A7s zustandebringen.

wäre aber mit einem Vergleich von 8bit 4:2:04:2:0 im Glossar erklärt mit 10bit 4:2:24:2:2 im Glossar erklärt noch keine Aussage über die Vor- und Nachteile von 8 vs. 10bit zu machen. Da sollte man schon einen 8bit 4:2:24:2:2 im Glossar erklärt CodecCodec im Glossar erklärt heranziehen.
Nein, eben nicht, weil es im semiprofessionellen und professionellen Bereich immer weniger 8bit gibt (auch beim aktuellen Modell der C300 nicht mehr), und im Bereich Camcorder-GoPro-DSLR/Mirrorless bis hoch zur A7s nur 8bit 4:2:0.

EDIT: Aber wenn willst, mache ich noch einmal eine Umwandlung des Kameramaterials nach 8bit 4:2:24:2:2 im Glossar erklärt mit dergleichen Bearbeitung wie oben.



Antwort von dienstag_01:

Auch in der Kamera findet bei der 8bit-Aufzeichnung ein Downsampling statt. Dieses hier dürfte qualitativ deutlich besser sein,
Das behauptest du. Mathematisch erkenne ich nur den möglichen (Rundungs-)Verlust durch eine zusätzliche Generation im Prozess.

Nein, eben nicht, weil es im semiprofessionellen und professionellen Bereich immer weniger 8bit gibt (auch beim aktuellen Modell der C300 nicht mehr), und im Bereich Camcorder-GoPro-DSLR/Mirrorless bis hoch zur A7s nur 8bit 4:2:0.
Die Frage lautet aber nicht, Consumer- vs semiprofessionelle vs profesionelle Kamera, sondern 8 vs 10 bit.



Antwort von cantsin:

Okay, dann wiederhole ich die ganze Chose eben auf unanfechtbare Weise: Ausgangsmaterial CinemaDNG-Raw, Rausrendern nach Blackmagic-Log in 10bit und 8bit 4:2:24:2:2 im Glossar erklärt, anschließendes Grading und Rausrendern nach 8bit-Rec709-4:2:0.

Dann wird der Vergleich allerdings total synthetisch, weil kein Kameraprozessor der Welt - ausser vielleicht der der Arri Alexa - in der Qualität von Resolve debayert, downsampelt und encodiert.



Antwort von dienstag_01:

Dann wird der Vergleich allerdings total synthetisch,
Dann lass ihn doch ;)



Antwort von Roland Schulz:


JAAAA, auf einem kleineren Bildschirm ist Banding "in der Praxis" natürlich weniger "auffällig"!!!

NOCHMAL - wenn Du eine Fläche von zum Beispiel 5x5 mit Pixeln in der gleichen Farbe hast, daneben eine Fläche von 5x5 mit einer homogenen, ähnlichen Farbe von der man den Unterschied zur ersten Farbe erkennt, dann erkennt man hier "Banding", den Abriss oder was auch immer.

Es spielt nicht die geringste Rolle aus wievielen Pixeln die beiden 5x5 großen, homogenen Flächen bestehen!!

Es spielt nur eine Rolle wie nah sich die zweite Farbe Aufgrund der begrenzten QuantisierungQuantisierung im Glossar erklärt (Aufnahme) nach Transformation oder Multiplikation mit Faktoren (Grading, FarbkorrekturFarbkorrektur im Glossar erklärt was weiß ich) der ersten annähern kann.

Ist das jetzt auch auf dem Mond lustig und verständlich angekommen (bitte nicht persönlich nehmen ;-) )?!?!

hier ein 0-255 verlauf in hd und sd. schau dir den mal in 100% grösse an und du stellst fest im sd siehst du es eigendlich nicht, auch wenn das banding dort natürlich auch verhanden ist, im hd siehst du es schon deutlich. wenn du mal hinein zoomst dann siehst du auch den vergleich zwischen hd und sd banding. mehr kann ich jetzt leider nicht für dich tuen.

Ich geb's auf - so ein Quatsch!! Wenn Du das SD Bild auf x*100% zoomst ist es das selbe!!!!!!!! Ich hab in der Praxis die nächste Helligkeitsabstufung auch nicht nur eine Pixelbreite weit entfernt.

Da braucht man auch nix "gucken", das ist einfaches Verständnis!! Was weiß ich was Dein Bildschirm da zusätzlich eventuell noch durch Softwarekalibrierung etc. für einen Mist (Abrisse) produziert...



Antwort von cantsin:

Dann wird der Vergleich allerdings total synthetisch,
Dann lass ihn doch ;)
Trotzdem:
http://data.pleintekst.nl/synthetic-01-10bit.png
http://data.pleintekst.nl/synthetic-02-8bit.png

Arbeitsschritte:

1.) Quellmaterial CinemaDNG aus Blackmagic Pocket, in Resolve 12 importiert, als Blackmagic Film log interpretiert, einmal rausgerendert als DNxHDDNxHD im Glossar erklärt 175-10bit-4:2:2 sowie nochmal rausgerendert als DNxHDDNxHD im Glossar erklärt 175-8bit-4:2:2. (Nur wenige Kameras dürften 10- und 8bit-Material in dieser Qualität debayern, downsampeln und encodieren - sicher keine einzige Kamera, die sich Privatpersonen leisten können.)

2.) Sowohl das 10bit, als auch das 8bit-DNxHD-Material reimportieren in Resolve, "Blackmagic Cinema Camera Film to Rec709 v2"-LUT + Colorchart-Korrektur zum Umwandeln nach Rec709, auf der allerersten Node (d.h. noch fürs Log-Material) ein leichte Gain-Absenkung, um Clipping zu verhindern. Identische Umwandlungen/Korrekturen sowohl des 10bit-, als auch des 8bit-Materials.

3.) Rausrendern zu unkomprimierten 16bit-TIFFs, Umwandlung der TIFFS zu 8bit-PNGs mit Imagemagick.

Simuliert wird also eine Kamera, die dasselbe Bild parallel in nahezu optimalem 8bit-4:2:2-Log-Material sowie in 10bit-4:2:2-Log-Material aufzeichnet, sowie die jeweilige Umwandlung beiden Materials zu 8bit-Rec709, ohne starkes Grading/Styling oder Belichtungskorrektur. (Trotzdem achte man mal auf die Hauttöne des Manns im Schatten.)



Antwort von dienstag_01:

Ja, du hast mich überzeugt, das 8bit Material bricht t o o o t a l ein ;)



Antwort von Funless:

Die Frage ist auch, wie klitzklein die Unterschiede sind. Aber damit stecken wir wieder in der Hautton-Debatte aus einem Parallelthread, den ich lieber nicht wieder aufmache.

Also ich fand den Thread äußerst aufschlussreich. Hat mir persönlich viel gebracht. :-)



Antwort von cantsin:

Ja, du hast mich überzeugt, das 8bit Material bricht t o o o t a l ein ;)

Hier das HistogrammHistogramm im Glossar erklärt für das 10bit-Material:

Hier das HistogrammHistogramm im Glossar erklärt für das 8bit-Material:





Antwort von dienstag_01:

Wie gesagt, dass das ein bisschen unterschiedlich aussieht, ist für mich vollkommen logisch. Aber Vorteile in der Post, relevante gar, damit hat das nichts zu tun.



Antwort von WoWu:

Ich weiss ja nicht, warum Dein HistogrammHistogramm im Glossar erklärt als Hüllkurve dargestellt wird,(was wenig Sinn macht) aber die Mausezähne darin deuten ziemlich auf Dynamikkompression hin.



Antwort von cantsin:

die Mausezähne darin deuten ziemlich auf Dynamikkompression hin.
Jepp, darauf wollte ich auch hinaus.



Antwort von Roland Schulz:

Ich weiss ja nicht, warum Dein HistogrammHistogramm im Glossar erklärt als Hüllkurve dargestellt wird,(was wenig Sinn macht) aber die Mausezähne darin deuten ziemlich auf Dynamikkompression hin.

Hüllkurve wäre ggf. noch ok, es kann aber keinen interpolierten Polygonzug geben ;-)!!

Die "Mäusezähne" muss man so erst mal verstehen, vor allem warum die nicht auf Amplitude 0 gehen, was sie in der 8-bit Variante eigentlich müssten. Wahrscheinlich passiert hier neben der Interpolation auch noch eine Glättung.
Die Einbrüche sind bei der 10-bit Variante viel kleiner, was auch logisch ist. Es sollten merklich weniger Tonwerte "fehlen".



Antwort von WoWu:

Ich denke, der Umstand, dass sie nicht auf Null gehen, ist nur eine Frage der Anzeige. Ich glaube nicht, dass das Signal (im Original) bearbeitet wird.
Insofern ist das, so wie es dargestellt wird, streng genommen ein Anzeigefehler.



Antwort von cantsin:

Das ist das HistogrammHistogramm im Glossar erklärt von Resolve. Ja, wahrscheinlich werden da Werte gemittelt - zumal es ja auch nicht PixelPixel im Glossar erklärt für PixelPixel im Glossar erklärt repräsentiert, sondern gröber auflöst. In einem pixelgenauen HistogrammHistogramm im Glossar erklärt wären die Ausreißer/Sägezähne sicher bei null.

@Dienstag: Es geht darum, dass in dem umgewandelten 8bit-Material schlicht Farbwerte fehlen, was sich an den Lücken im HistogrammHistogramm im Glossar erklärt zeigt.



Antwort von WoWu:

Ist ja enttäuschend, dass Resolve das so darstellt.
Ich hab mal gelernt, dass Messungen möglichst die Realität darstellen sollen und nicht hübsch aussehen müssen.
Und die Realität ist nun mal bei Punktoperationen, dass Werte zusammengelegt und andere entsprechend leer sind.
Na ja, als Resolve Nutzer wird man das durch Erfahrung substituieren.



Antwort von dienstag_01:

@cantsin
Das ist schon klar, wie sich 8bit Material verhält.
Ich hätte mir hier aber erhofft, dass mal ganz allgemein von den Leuten, denen allen so unheimlich klar ist, dass Postproduktion erst bei 10bit losgehen kann, ein nachvollziehbares Beispiel dazu gepostet wird.
Also nehmen wir dein Bild und hellen jetzt mal den Mann im Schatten mit einer Maske auf. Kontrast brauchts dann sicher auch noch. Bei 8bit sollte das ja irgendwann bei sichtbaren Abrissen enden, wohingegen die 10bit Variante uns eine Rembrandtsche Figur liefern sollte ;)
Oder wird das doch nicht so eindeutig sichtbar?



Antwort von WoWu:

Das setzt aber voraus, dass in 10 BitBit im Glossar erklärt gearbeitet wird und erst nach der Bearbeitung nach 8 BitBit im Glossar erklärt gewandelt wird.
danach repräsentieren dann die Histogramme auch den Unterschied.
Wenn das oben gscheid angezeigt Rede, wäre man auch in der Lage, den Unterschied deutlicher zu sehen.



Antwort von cantsin:

@cantsin
Das ist schon klar, wie sich 8bit Material verhält.
Nee, die Ausreisser sind auch in 8bit nicht normal. Es geht (wenn ich Deinen Kommentar richtig verstehe) nicht darum, dass in 8bit ggü. 10bit Farbwerte fehlen, sondern dass innerhalb der möglichen Farbpalette bzw. der Farbabstufungen von 8bit Ausreisser entstehen, wenn man 8bit-Kameramaterial farbkorrigiert bzw. von Log nach RGB/Rec709 wandelt, wie das hier passiert ist. In "sauberem" 8bit-Material sollte es diese Histogramm-Ausfresser nicht geben. In anderen Worten: das hier gepostete, aus 8bit gewandelte Material hat vielleicht noch 7bit oder noch weniger Farbtiefe.

Also bestätigt dieser Test, selbst unter idealisierten Labor-Bedingungen, dass man 8bit-Material exakt so aufnehmen sollte, wie man es am Schluss abspielt - und für alles andere in höheren Bittiefen aufnehmen sollte.



Antwort von dienstag_01:

@cantsin
Unterschiede, die man nur im Scope sehen kann (oder bei 1000facher Vergrößerung), sind sicherlich nicht für jeden und für jeden Fall ein Argument, oder ;)



Antwort von Jott:

Ein wenig Senf, damit die Wellen ggf. noch höher schlagen. Natürlich spricht nichts gegen 10Bit, viele neuere Kameras können das ja, aber weite Teile der Bewegtbildbranche arbeiten gemütlich mit 8Bit-Quellmaterial, auch die so qualitätsbewussten Broadcaster. Ist nun mal so, egal ob XDCAM HD 422 (das sich auch in der C300 findet), oder in Form von mutigen 5D- und GoPro-Ausflügen. Insofern ist es müßig, über 8Bit als grundsätzlich ungeeignet herzuziehen. Geht am realen Leben vorbei.

1. Bei uns zerlegt sich kein Himmel in sichtbares Banding, auch wenn das Rohmaterial aus einer 8-Bit-Kamera kommt. Bei anderen auch nicht, immerhin wurden ja zum Beispiel mit der 8-bittiigen C300 Spielfilme gedreht, die internationale Preise abgesahnt haben.

2. 8Bit Material, egal ob H.264- oder MPEG2-basiert (wie XDCAM HD 422), wird in der Post bei uns (und auch anderweitig) zunächst in einen hochwertigen 10Bit-Codec überführt. Erst ab da wird dann verwurstet und gegradet.

3. Dabei zerlegt sich dann zum Beispiel ein Himmel NICHT in grobe Treppchen. Wieso und warum das so ist, ist mir persönlich egal, mich interessiert da nur der Augenschein. Das können gerne die Pixelpeeper diskutieren.

4. Das Masterfile ist dann 10Bit und sieht einwandfrei aus, auch nach dem Grading (wobei meine Definition von "Grading" nicht die Rettung verkackter, fehlbelichteter Aufnahmen ist, sondern einfach nur Farbkorrektur).

5. Abschließend komprimiert für Kundenanwendungen, die natürlich alle 8Bit sind, entstehen in der Regel ebenfalls keine sichtbaren Probleme. Selbstverständlich sollte man superfeine Farbverläufe zum Beispiel in Grafiken im Zweifel besser lassen, aber das hat was mit den Wegen zum Endnutzer und dessen Wiedergabegeräten zu tun. So etwas sollte man als Producer schon wissen. Und das hat überhaupt nichts damit zu tun, ob am Anfang mal 8Bit, 10Bit, 12Bit oder irgendwelches Raw aus einer Kamera kam.



Antwort von wolfgang:

@ cantsin,

merkst du eigentlich wie hier mit dir Katz und Maus gespielt wird? Über 3 Seiten spielt jetzt Dienstag hier die Katze. Erst wollte er Axel zu einem Bildvergleich nötigen, dann war iasi an der Reihe - der das ganze verweigert hat. Und jetzt bist du sein "Opfer".

Und "Opfer" sage ich sehr bewußt. Denn der gute Dienstag weiß ohnedies vorab dass 10bit nur Blödsinn ist und er bei 8bit bleiben wird. Also warum gehst du ihm so am Leim? Soll er halt mit 8bit glücklich sein und gut ist es.

@ zum sachlich-fachlichem: von der Faktenlage ist es doch völlig klar dass 10 oder 12bit einen Vorteil in der Postpro bieten, verglichen zu 8bit. Ebenso wie dass man mit raw noch mehr machen kann. Ob man das dann nutzen WILL ist eine ganz andere Frage. Oft hat man keine andere Kamera, oft hat man nicht den passenden PC für einen 10bit workflow - aber egal warum. Die Bearbeitungsreserven fallen in der Reihenfolge

raw > 12bit > 10bit > 8bit ab

Selbstverständlich mag es sein, dass man mit 8bit auch durchaus gutes Material bekommt. Bestreitet keiner. Aber es geht auch um Bearbeitungsreserven.

In der Zwischenzeit wurde von jemanden v-log v Material auch mit 8bit aufgenommen publiziert.


Der hat sogar versucht bewußt über zu belichten. Das Material kann man sich mit und ohne angewendeten LUT runter laden - und weil überbelichtet macht man die Korrektur wohl besser zu Fuß. Und was beobachtet man da? Na heftige Tonwertabrisse wenn man das Material korrigiert weils nur 8bit ist. Na klar ist das Bild noch anschaubar. Aber will man sowas haben? DAS muss jeder selbst beantworten. Das ist bekanntes Wissen und bearf keiner weiteren Beweißführung.



Antwort von Jott:

P.S.

Das Verhalten von (korrekt belichtetem!) Log-Material aus einer 8Bit-Kamera, das VOR dem Entzerren zum Beispiel nach ProResProRes im Glossar erklärt (immer 10Bit) überführt wurde, muss ich noch genau anschauen. Dieses Szenario (8Bit Log) scheint ja die Hauptsorge zu sein, obwohl sich die verfügbare Anzahl von 8Bit-Kameras mit Log-Option eigentlich in engen Grenzen hält.



Antwort von dienstag_01:

Denn der gute Dienstag weiß ohnedies vorab dass 10bit nur Blödsinn ist und er bei 8bit bleiben wird.
Dumm nur, dass der dienstag - _01 übrigens - eine Kamera mit 10bit Aufzeichnung hat. ;)

Der hat sogar versucht bewußt über zu belichten.
Angesichts des Bildes, was du da gepostet hast, nenne ich das mal eine mutige Aussage ;)

Mit V-Log kenne ich mich nicht aus, ich sehe nur, dass da massiv Werte fehlen. Für mich ist das kein 8bit Signal. (Aber vielleicht liege ich damit falsch, möglich). Entwickelt, wie du es nennst, ist es jedenfalls gauslich (oder graulich ;) ).



Antwort von mash_gh4:

Der hat sogar versucht bewußt über zu belichten.
Angesichts des Bildes, was du da gepostet hast, nenne ich das mal eine mutige Aussage ;)

wenn die aufnahmen nicht ganz bewusst falsch belichtet worden wären, sondern korrekt, würden sie für tatsächliche beurteilungen mehr sinn machen. dann könnte man nämlich auch tatsächlich die vorgesehen LUTs/IDTs für's umrechnen benutzen, statt zu untauglichen mitteln zu greifen, so wie es wolfgang hier mit dem "levels"-tool ganz wunderbar demonstriert. das tut in den augen eines empfindsamen beobachters fast so weh, wie all diese fürchterlichen looks, die da manche zeitgenossen mit der feinfühligkeit von malern und anstreichern wahllos über das ausgangsmaterial klatschen...

aber mit der diskussion hier hat das ja nichts zu tun. hier geht's einfach nur darum, ob die anzahl der tonwerte nach einer derartigen spreizung aus effektivem 7bit material dem auge noch genügt?
das hängt sehr stark davon ab, auf welchen ausgabegeräten man das resultat betrachtet bzw. deren kontrastumfang...

ich bin mir jedenfalls ziemlich sicher, dass wir in den nächsten monaten jede menge tests sehen werden, in denen einfache nutzer, aber auch experten, aufzeigen werden, wie toll sich derartiges 7bit vlog material bearbeiten lässt, und dass es überhaupt keine wünsche offen lässt. erst mit ein bisserl zeitlichem abstand wird sich dann wieder die übliche ernüchterung einstellen und das urteil wieder ein klein wenig kritischer ausfallen. aber dann gibt's ohnehin sicher wieder was neues, das man unbedingt sofort kaufen muss. ;)



Antwort von Peppermintpost:

darf ich nochmal erfahren worüber wir hier genau reden?

10bit hat mehr farbinfo als 8bit. bestreitet das jemand?
10bit bietet in der post mehr reserven. damit jemand nicht einverstanden?
im master ist 8 von 10 bit optisch nicht zu unterscheiden. jemand anderer meinung?
auch aus 8bit kameras kommen gute bilder. andere meinungen?
auch in einem durchgängigen 8bit workflow kann man professionelle resultate erziehlen. jemand anderer meinung?

danke.



Antwort von Jott:

Nö, passt so.



Antwort von dienstag_01:

10bit bietet in der post mehr reserven. damit jemand nicht einverstanden?
Die Frage des TO (u.a.) und auch meine bezieht sich auf die Qualität dieser Reserve. Kann man die neben MESSEN (im Scope) auch SEHEN (im Ergebnis). Daher die Frage nach einem Bildervergleich von mir Naivem ;)



Antwort von Starshine Pictures:

Wenn sich keiner dazu hin reissen lassen möchte dann mach doch das bitte selber mal dienstag_01. Du sagtest ja du hättest da was mit 10 bit rum liegen. Würde mich echt mal interessieren. Ich bin ja stolzer Besitzer einer C100 mk II (aktuell in Reparatur) und hab mühe damit hier ständig zu lesen was ich doch für eine verkackte altmodische Mühle gekauft habe, 8bit und 4:2:04:2:0 im Glossar erklärt, maximal 35Mbit bei 60fps und das für so viel Geld. Aber wenn ich mir dann das Material anschaue was da raus kommt bin ich absolut begeistert. Ich werde das dumme Gefühl nicht los dass das alles nur theoretisches Geplapper ist, praktisch aber niemand die Unterschiede feststellen könnte. Dass 10bit vielleicht mehr Reserven in der Post aufweist als 8bit mag ja noch sein, aber ist das wirklich so markant? Gibt es da irgendwelche statistischen Aussagen? Zum Beispiel: 10bit Material kann man 20% stärker aufhellen bis die selben Bildfehler auftreten wie bei 8bit?

Grüsse, Stephan von Starshine Pictures



Antwort von Jott:

Ich würde sagen: mach dir keinen Kopf. Du siehst ja, was raus kommt bei deiner Kamera. Die anderen sehen das nicht, die mutmassen nur.



Antwort von dienstag_01:

Wenn sich keiner dazu hin reissen lassen möchte dann mach doch das bitte selber mal dienstag_01.
Dann müsste ich ja meine eigenen Zweifel ausräumen. Wäre doch Quatsch oder ;)
Ausserdem wollte ich mal wissen, was die Leute, denen der Satz mit den grösseren Reserven so flugs aus der Tastatur hoppelt, so alles an Test für ihre Erkenntnis gemacht haben. Sieht aber eher dünn aus ;)

Edit: Prinzipiell bezweifel ich einen Mehrwert von 10 gegenüber 8bit nicht, die Frage ist nur, wo genau er sich manifestiert.



Antwort von merlinmage:

Dann geh doch mal in ein Coloristenforum ;)

Aber nach diesem Thread hier werde ich auch auf jeden Fall auf einen 8bit Workflow umsteigen, da spar ich mir einiges an Zeit und Arbeit.



Antwort von WoWu:

Ihr vergesst in der ganzen Diskussion immer, dass Banding von der Eingangsdynamik, also der Szene abhängt und Die meisten Aufnahmen aus 'run n gun' nicht mehr als 5-8 Blenden überstreichen.
Die Anforderung nach 10Bit geht also immer einher mit der zu erwartenden Bilddynamik, also der Abstufungen im Bild.
Aber selbst, wenn Kameras 12 oder mehr Blenden übertragen, heißt das noch nicht, dass Szenen so ausgeleuchtet sind, dass eine hohe Dynamik entsteht, denn der Dynamikumfang hat noch nichts mit der Bilddynamik zu tun.
Ein Bild, in dem nur schwarze und weiße Flächen vorkommen und keine Schatten, hat bei korrekter Belichtung auch 12 Blenden Dynamikumfang, aber eine äußerst geringe Bild-Dynamik ... Denn die definiert sich aus der Menge unterschiedlicher Werte. Hat man aber nur 2Werte, ist die Biöddynamik entsprechend gering.
Wenn man also über 10 bzw. 8 BitBit im Glossar erklärt und deren Auswirkung spricht, darf man das nicht loslösen vom Bildinhalt., was hier aber ständig gemacht wird.
Daher wirken sich solche Umstände auch in der Post aus.
Wenn die Tonwerte nämlich über weite Stecken im Übertragungssignal ohnehin gleich sind, kann auch kein Banding entstehen, weil das Resultat sich nicht verändert. Daher ist 8Bit Material, das ohnehin nur 5-8 Blenden enthält in der Beziehung auch ziemlich robust. Nur eben auch nur von geringer Dynamik.
Nimmt man nun dieselbe Szene, die von der Ausleuchtung her nur 5-8 Blenden Dynamik hat, mit 10 BitBit im Glossar erklärt auf, hat man die identischen 5-8 Blenden Dynamik. Man hat dann zwar mehr Übertragungswerte, aber das Verhalten in der Post ist identisch.
Daher sollten solche Bildversuche auch mit Belichtungen gemacht werden, die 10 BitBit im Glossar erklärt Bildinhalt voraussetzen und erst dann mal den Unterschied zu 8 BitBit im Glossar erklärt betrachten.
wenn der TS also gar keine Anwendung für 10Bit hat, und sowieso nur (inhaltlich) kontrastreiche, also wenig dynamische Bilder aufnehmen will, dann kommt er mit 8 BitBit im Glossar erklärt doch bestens klar.

Und das Überspielen in einen 10 BitBit im Glossar erklärt CodecCodec im Glossar erklärt bringt gar nichts für's Bild, weil kein einziger Tonwert zusätzlich dadurch generiert wird.
Es bringt also weder was für den Dynamikumfang, noch für die Bilddynamik. Der einzige Vorteil läge im besseren Störabstand im Multigenerationsverhalten, nur das ist bei 8 BitBit im Glossar erklärt schon so unterirdisch, dass man bei 10 BitBit im Glossar erklärt schon 50 Bildgenerationen erstellen muss, um das noch zu toppen.



Antwort von dienstag_01:

So eine Erklärung versteh ich dann schon besser. Trotz grandioser Autokorrektur ;)
Ich bedanke mich.



Antwort von WoWu:

Sorry für die Autokorrektur .. Ich hab dann noch mal nachgebessert, aber nicht gleich alles erwischt.
Sorry.



Antwort von dienstag_01:

Eigentlich schade, tun n grün fand ich schon sensationell.



Antwort von mash_gh4:

I...Bilddynamik, also der Abstufungen im Bild.

vielleicht solltest im zusammenhang mit deinem etwas eigenwilligen gebrauch des wörtchens "dynamik" einmal nach dem problemkreis "privatsprache" googlen, damit auch die damit verbundnen probleme nicht ganz ausgeklammert werden.

mir scheints jedenfalls schon sinnvoll zw. "tonal range" und "dynamic range" -- um in eine weitere fremde sprache auszuweichen -- zu unterscheiden.

aber ich fürchte, in dem punkt werden wir wohl nie zu einer tauglichen verständigung finden.



Antwort von dienstag_01:

"tonal range" und "dynamic range"
Also, was ist jetzt was (Für den Fall, dass ich mich mal im Coloristen-Forum tummeln will.)?



Antwort von mash_gh4:

"tonal range" und "dynamic range"
Also, was ist jetzt was (Für den Fall, dass ich mich mal im Coloristen-Forum tummeln will.)?

meinen verstädnis nach -- und ich kann mich da natürlich wieder kräftig irren und blamieren:

"tonal range" -- anzahl der verschiednen genutzen farbwerte. kann wesentlich kleiner als die verfügbare farbtiefe sein -- bleibt aber, abgesehen vom zusammenfall einzelner werte durch rundungsfehler gleich, wenn man 8bit material in 10bit skalen abbildet oder einfache verscheibungen, sprezungen etc. vornimmt.

"dynamic range" würde ich tatsächlich fast immer mit den analogen licht-/kontrastverhältnissen in verbindung bringen, weil dieser aspekt gewöhnlich im vordergrund steht. natürlich kann es sich im speziellen fall der "bilddynamik" auch auf jene werteausschnitte beziehen, die der sensor bzw. die abbildungsmethode tatsächlich erfasst. es aber sofort gleichzusetzen mit der bittiefe der entsprechenden signale (bit=blendenstufe) ist ziemlich problematisch, weil das wirklich nur im linearen idealisierten modell gilt. wenn das signal aber bspw. log kodiert vorliegt, ist ein derart einfacher zusammenhang zw. bittiefe und dem umfang der abgebildeten lichtwerte nicht mehr in dieser ganz einfachen weise gegeben.

aber, um vielleicht trotzdem etwas positives aus WoWus beitrag herauszulesen, natürlich kann es fälle geben, wo wirklich nur winzige teile des wertespektrums real genutzt werden. das dürfte in der praxis sehr oft vorkommen, trotzdem werden die eigentlichen probleme, von denen hier die rede ist, eher an den rändern auftauchen, wo bspw. in rec709 kodierten 8bit aufzeichnungen ausgesprochen wenig werte praktisch zur verfügung stehen. diese reserve kann man auch bei einfachen korrekturen relativ leicht überstrapazieren. das kennt ohnehin jeder, der die entsprechenenden regler mit einem mindestmaß an gefühl bedient.

ps: wie gesagt, ich kann mich hier mit meinem verständnis durchaus irren! speziell, was den begriff "tonal range" (tonwerteumfang) betrifft, der sicher auch anders verwendet werden kann (=im sinne von möglichen abstufungen, wie es WoWu mit "bilddynamik" tut) / verwendet wird...



Antwort von dienstag_01:

Ich habe mal hier gelesen, demnach gibt es tonal range und dynamic range jeweils beides beim Sensor und beim Bild.
WoWu bringt aber die Dynamik des Bildes/der Szene in die Diksussion der Übertragung/des Signals ein. Das ist eigentlich ziemlich klar formuliert (für mich).

http://www.dpreview.com/glossary/digita ... onal-range



Antwort von mash_gh4:

Ich habe mal hier gelesen, demnach gibt es tonal range und dynamic range jeweils beides beim Sensor und beim Bild.
WoWu bringt aber die Dynamik des Bildes in die Diksussion der Übertragung/des Signals. Das ist eigentlich ziemlich klar formuliert (für mich).

http://www.dpreview.com/glossary/digita ... onal-range

meinem verständnis nach widerspricht auch die darstellung in der von dir zitierten quelle, aber auch andere gängigen erklärungen zur "bild"-dynamik, jener definition, die WoWo immer wieder einfordert:

Ein Bild, in dem nur schwarze und weiße Flächen vorkommen und keine Schatten, hat bei korrekter Belichtung auch 12 Blenden Dynamikumfang, aber eine äußerst geringe Bild-Dynamik ... Denn die definiert sich aus der Menge unterschiedlicher Werte.

zum Bild https://upload.wikimedia.org/wikipedia/ ... m_Bild.jpg

aber, wie gesagt, ich bin in diesen dingen auch nicht 100% sattelfest.
also: nur zu, falls jemand eine bessere erklärung oder exaktere begriffe kennt!
ärgerlich finde ich es nur, wenn unhaltbarer blödsinn verzapft wird...



Antwort von wolfgang:

wenn die aufnahmen nicht ganz bewusst falsch belichtet worden wären, sondern korrekt, würden sie für tatsächliche beurteilungen mehr sinn machen.

Natürlich! Aber das ist das erste 8bit Material welches halt mit v-log v von irgendwem veröffentlicht worden ist. Und das ist halt nicht ideal.

dann könnte man nämlich auch tatsächlich die vorgesehen LUTs/IDTs für's umrechnen benutzen, statt zu untauglichen mitteln zu greifen, so wie es wolfgang hier mit dem "levels"-tool ganz wunderbar demonstriert. das tut in den augen eines empfindsamen beobachters fast so weh, wie all diese fürchterlichen looks, die da manche zeitgenossen mit der feinfühligkeit von malern und anstreichern wahllos über das ausgangsmaterial klatschen...

Also mit den LUT vlogv zu rec709, der von Panasonic jetzt auch für vlogv zur Verfügung steht, kommt man bei dem Material definitiv nicht hin. Der LUT clippt das massiv viel im Weißbereich weg.

Warum dir die levels weh tun weiß ich nicht. Das ist halt ein WEg das händisch zu entwickeln. Wenn es deinem Gefühl nicht passt dann ist das halt so. Abgesehen vom clipping zeigt der LUT aber kein sonderlich anderes Bild, was etwa die Farbzusammensetzung angeht. Sind halt alles erste Versuche, nicht mehr.

aber mit der diskussion hier hat das ja nichts zu tun. hier geht's einfach nur darum, ob die anzahl der tonwerte nach einer derartigen spreizung aus effektivem 7bit material dem auge noch genügt?
das hängt sehr stark davon ab, auf welchen ausgabegeräten man das resultat betrachtet bzw. deren kontrastumfang...

ich bin mir jedenfalls ziemlich sicher, dass wir in den nächsten monaten jede menge tests sehen werden, in denen einfache nutzer, aber auch experten, aufzeigen werden, wie toll sich derartiges 7bit vlog material bearbeiten lässt

Ich weiß nicht mit welches Berechtigung du zwischen "einfachen Usern" und "Experten" klassifizierst. Sowas ist verwegen.

Ansonst ist es ziemlich egal ob jemand das vlogv Material, welches hatl bei IRE 79 abgeschnitten wird, mit levels oder color curves oder einem LUT linearisiert. In allen Fällen wird aus dem 8bit Material (welches eben gute 30% des Wertebereiches nicht ausnutzt) eine derartige Spreizung in den Tonwerten beobachtbar sein, dass es einem bei der Betrachtung des Histogramms den Magen umdreht.

Natürlich kann hier 10bit helfen - weil da hat man immer noch zirka 600 Werte verfügbar, die man halt entsprechend spreizen kann, und für 8bit reicht das auf jeden Fall. Was aber eben daran liegt dass vlogv im IRE Umfang eingeschränkt ist, was etwa bei slog oder clog nicht der Fall ist.



Antwort von wolfgang:

Dumm nur, dass der dienstag - _01 übrigens - eine Kamera mit 10bit Aufzeichnung hat. ;)

Dumm nur, dass du nun genau dort sitzt wo du hingehörst: nämlich bei der Aussage, dass du selbst die Möglichkeiten hast passende Bilder bereit zu stellen.

Na dann mach das doch einfach! Wem Anderen glaubst ja eh nicht.



Antwort von WoWu:

@mash_gh4
Ich gebe Dir ja Recht, wenn man den Dynamikumfang unmittelbea mit der Anzahl der Blenden gleichsetzt.
Präziser wäre es gewesen, das SNR hier mit ins Spiel zu bringen und so die Blenden auf die nutzbaren Blenden zu reduzieren, die den Sensorbereich oberhalb der Rauschwelle bis zum FullWell beschreibt.
Nur hätte diese Differenzierung in dieser Diskussion nichts gebracht.
Damit ist die Dynamik, was den Lichtumfang betrifft, beschrieben.

Nun sind wir dabei, den Bildinhalt zu beschreiben, dessen Graustufen unterschiedlich aufgeteilt werden, am Sensor, meinetwegen in 12 BitBit im Glossar erklärt, also 4096 Stufen und im Prozessweg, nach einer Dynamikkompression dann noch in 10 BitBit im Glossar erklärt oder 8Bit oder meinetwegen bei 709 noch in 220 Stufen.
In allen fällen ändert sich ja nichts an der Lichtmenge, die durch das Objektiv auf den Sensor fällt.
Der Dynamikumfang bleibt immer gleich, egal ob ich hinterher im Prozessweg daraus 10 oder 8 oder nur 2 BitBit im Glossar erklärt mache. Weiss bleibt immer weiss und schwarz bleibt immer Schwarz.
Nur dazwischen liegt die Bilddynamik, die sich in der Anzahl unterschiedlicher Grauwerte definiert.
Und diese Anzahl ist auch unabhängig von der Menge der benutzten Übertragungswerte denn wenn ich in 1024 Werten nur sw und ws übertrage, also die hälfte der Werte 0 haben und die andere Hälfte 255, dann hat mein Übertragungssignal zwar 10 BitBit im Glossar erklärt (1024) aber meine Bilddynamik nur 1 Bit.

Das kann doch nun wirklich nicht so schwer zu begreifen sein, auch ohne Anglizismen zur Hilfe zu holen.



Antwort von mash_gh4:

ein kleiner nachtrag meinerseits, nachdem ich auf einem kurzen spaziergang weiter drüber nachgedacht habe...

meine ausführungen zum "tonal range" (tonwerten) dürften vermutlich zu eng gefasst sein. vermutlich macht es mehr sinn, den begriff primär auf alle möglichen/verfügbaren diskreten farbabstufungen zu beziehen und jenen sonderfall, den ich in meinem ersten schnellen erklärungsversuch vorhin zu sehr herausgehoben habe dürfte, besser als "genutzte tonwerte" anzuprechen.

das ändert aber nichts an meiner grundsätrzlichen kritik an WoWus definitionsbehauptung.

diskrete tonwerte und kontrastbezogene dynamik gilt es sauber zu trennen -- auch wenn sie in der praxis natürlich möglichst gut aufeinander abgestimmt sein sollten (sensor/ad-wandler) bzw. in unseren realen geräten meist eng nebeneinander zu liegen kommen. trotzdem ist es wichtig, ihre jeweilige natur zu unterscheiden und in ihren auswirkungen nicht zu vermischen.



Antwort von mash_gh4:

sorry, wenn das jetzt ein bisserl durcheinander wirkt, weil ich für die paar zeilen oben wieder so lange gebraucht habe, dass deine antwort vorher da war....

Der Dynamikumfang bleibt immer gleich, egal ob ich hinterher im Prozessweg daraus 10 oder 8 oder nur 2 BitBit im Glossar erklärt mache. Weiss bleibt immer weiss und schwarz bleibt immer Schwarz.

genau das ist der punkt, den man so nicht stehen lassen soll.
dieses "schwarz und weiß" kann für ~0-100% lichtreflexion stehen, oder eben auch noch gegenlicht u.ä., das darüber hinaus geht (stichwort: hdr) stehen -- verschieden große kontraste bzw. abgebildeter dynamik.

und auch auf der anderen seite gibt's verschiedene darstellungsmöglichkeiten, die unterschiedlich starke kontraste wiederzugeben mögen. von ihrem kontrastumfang hängt es u.a. auch ab, wie viele werte wir sinnlich zu unterscheiden vermögen -- wo also bspw. banding zum problem wird. deshalb u.a auch die sony empfehlung für zukünftige 16bit hdr-formate.

Nur dazwischen liegt die Bilddynamik, die sich in der Anzahl unterschiedlicher Grauwerte definiert.

wie gesagt, die sinnhaftigkeit dieser definition bestreite ich.
ich würde hier besser von "tonwerteumfang" sprechen, um es von ganz zentralen anderen verwendungsweisesen des begriffs "dynamik" -- dem kontrastumfang in verschiedenen kontexten (im motiv/abbildung/wiedergabe...) -- deutlich abzugrenzen.

es ist mir schon klar, dass es für ein streng digitale beschreibung reicht, alleine das verhältniss zw. einem kleinsten zahlenwert und einem größten drastellbaren herauszugreifen, aber mit der wirklichkeit von film und fotografie hat das nicht viel gemein.



Antwort von domain:

... dass es einem bei der Betrachtung des Histogramms den Magen umdreht.

Die theoretische Videografie scheint ja ziemlich gesundheitschädlich zu sein. Der eine sieht Welten zwischen div. kleinen Unterschieden und bekommt Augenkrebs, dem anderen dreht es den Magen um und er könnte gleich kotzen.
Lieber keine Histogramme etc. mehr ansehen Wolfgang sondern das fertige Bild.
Vor kurzem habe ich ja eine gigantische Spreizung eines ultraflachen 8-Bit-Bildes gezeigt, die aber immer noch recht ansehlich war und bei dem WoWu gar nicht glauben konnte, dass die 12 angezeigten Stäbchen im HistogrammHistogramm im Glossar erklärt überhaupt noch ein herzeigbares Bild ergaben ;-)

http://forum.slashcam.de/weiter-vt12540 ... &start=105



Antwort von WoWu:

Bei aller Liebe zum Detail, aber ich glaube nicht, dass das die Semantik massgeblich zur Lösung des Problems beiträgt, weil Du hier einen Nebenschauplatz aufmachst, der gar nicht zur Diskussion steht und ob Du das nun Tonwertumfang nennst -was nicht mal richtig wäre- oder ob in China ein Sack Reiss umfällt, ist mir eigentlich egal.
Wichtig ist der Hinweis, dass die Menge der unterschiedlichen Graustufen (Tonwerte) die Dynamik des Bildes repräsentieren.

Und was die Lichtreflektion betrifft, so spielt sie nur dahingehend eine Rolle, wie der Kameramann das Bild belichtet.
Was vor der kamera passiert ist danach nämlich ziemlich egal, weil bei einer korrekten Belichtung Weiss FullWell des Sensors entsprechen würde.
Wenn der Kameramann die Vollaussteuerung auf eine Reflektion legt, verschieben sich die Werte dementsprechend.
Aber Schwarz bleibt unverändert, weil nach wie vor die erste BlendeBlende im Glossar erklärt über schwarz einem Photon entspricht.

Daher weiss ich wirklich nicht, worauf Du eigentlich hinaus willst.
Semantik ist klar, nenn das, wie Du willst aber was hat das mit der Dynamik noch zu tun ?
Oder repräsentiert 8/10/12 BitBit im Glossar erklärt in Deinem Verständnis keine Dynamik ?

@domain
Es ist alles eine Frage des Anspruchs. Wenn Dir solche Qualitäten ausreichen ... prima.
Aber schau Dir in dem Zusammenhang auch mal das Banding an.
Wenn Dir das auch ausreicht, dann solltest Du wirklich in einem Gesundheitsforum posten.
Und das Bildmaterial ist ja noch dazu alles Andere als kritisch.



Antwort von Peppermintpost:

also ich hab jetzt mal versucht nachzuvollziehen was dienstag so sagt, nämlich, das es ja schön ist das 10bit mehr daten hat, aber es fällt bei der farbkorrektur (oder allgemein in der paxis) nicht auf.

also ich hab mir axels kamera test genommen, der ja 10bit ist und dazu noch korrekt belichtet und den gesammten kontrastumfang abdeckt.
davon hab ich mir im AE ein 8bit unkompremiertes quicktime (animations codec) gerechnet. dann habe ich beide farbkorrigiert.
ergebnis: kein unterschied.

gut, kann ja nicht sein, also hab ich mir ein redraw clip genommen, den hab ich ins resolve geworfen und 2 color gradings gemacht, einmal voller kontrast, lichter und tiefen gerade eben klippen lassen, nur minimal.
dann das gleiche als low contrast also tiefen angehoben und lichter abgesenkt. das hab ich beides als 10bit und als 8bit quicktime heraus gerechnet. dann hab ich das farbkorrigiert und verglichen.

obwohl nuke mir in der 3ten stelle hinter dem komma unterschiedliche werte anzeigt, sichtbar ist es nicht. weder in der high contrast version noch in der low contrast version.

also was meinen test angeht hat dienstag recht und das ist alles bullshit und psychologie auf die wir da herein fallen, ich schliesse mich nicht aus, auch ich war immer der meinung, das gerade im grading das sofort auffällt.

so jetzt bitte nicht 20 seiten theorie, falls jemand ein beispiel hat wo es auffällt, dann bitte mal zeigen.



Antwort von sanftmut:

... Uff!
Zunächst mal Dank an alle, die hier gepostet haben!

Kleine Anmerkung Off-Topic
vereinzelt hätte ich mir etwas mehr Respekt für Andersdenkende /beziehungsweise einen respektvolleren Ton gewünscht - kommt Jungs - wir beschäftigen uns hier mit echt schönen Luxus-Themen und sollten dabei die Menschlichkeit nicht vergessen!
Und wozu machen wir Filme wenn wir nicht wertvolle Weisheiten/Schönes für andere Menschen kommunizieren wollen... Uff - jetzt schweife ich ab…

Zum Theead:
Beim Durchlesen der Posts habe ich durchaus viel dazulernen können!
Also wirklich vielen Dank für die teilweise sehr aufwendigen und sehr lehrreichen Posts!



Antwort von dienstag_01:

also ich hab jetzt mal versucht nachzuvollziehen was dienstag so sagt, nämlich, das es ja schön ist das 10bit mehr daten hat, aber es fällt bei der farbkorrektur (oder allgemein in der paxis) nicht auf.
Eigentlich hab ich das gar nicht so gesagt, sondern eher die Leute, die locker, flockig das Gegenteil behaupten, um Beispiele gebeten ;)

Ich finde ja den Einwurf von WoWu interessant, dass es auch im Bildmotiv (am Set!) eine entsprechende Dynamik geben muss, er schreibt Richtung 12 Blenden, sonst ist der 10bit Weg sozusagen oversized. Vielleicht meint er das auch nur auf Banding bezogen, aber man sollte mal einen Test machen.



Antwort von wolfgang:

... dass es einem bei der Betrachtung des Histogramms den Magen umdreht.

Die theoretische Videografie scheint ja ziemlich gesundheitschädlich zu sein. Der eine sieht Welten zwischen div. kleinen Unterschieden und bekommt Augenkrebs, dem anderen dreht es den Magen um und er könnte gleich kotzen.
Lieber keine Histogramme etc. mehr ansehen Wolfgang sondern das fertige Bild.

Nein, das ist mal wieder falsch dargestellt. Mal abgesehen dass keiner weiß was bei der Filmerei theoretisch ist wenn man Praxisbeispiele postet wie ich das getan habe. Zusätzlich kann sich ja jeder aus Bildern UND Meßdaten selbst ein Bild machen.

Und ja, bei dem HistogrammHistogramm im Glossar erklärt kann man zum Weinen anfangen wenn man sich die Tonwertabrisse anschaut, was das Diagramm aus Vegas auch klar zeigt (weil das ist keine Hüllkurve). Trotzdem werden viele zu dem mir geposteten Bilder meinen, dass die doch eigentlich ganz ok sind und daher diesen Weg sehr wohl beschreiten.

Und genau das wird das Dilemma der 8bit log files werden: beide Punkte stimmen - man generiert markante Tonwertabreisse aus dem 8bit Material, bekommt aber trotzdem noch herzeigbare Bilder. Klar - mit 10bit ist die Verarbeitung von x-log files definitiv besser weil man einfach mehr Reserven hat. Aber die Industrie "schenkt" uns ja gerade eine Menge 8bit Geräte mit x-log. Ist halt so.



Antwort von Peppermintpost:

also ich hab jetzt mal versucht nachzuvollziehen was dienstag so sagt, nämlich, das es ja schön ist das 10bit mehr daten hat, aber es fällt bei der farbkorrektur (oder allgemein in der paxis) nicht auf.
Eigentlich hab ich das gar nicht so gesagt, sondern eher die Leute, die locker, flockig das Gegenteil behaupten, um Beispiele gebeten ;)

Ich finde ja den Einwurf von WoWu interessant, dass es auch im Bildmotiv (am Set!) eine entsprechende Dynamik geben muss, er schreibt Richtung 12 Blenden, sonst ist der 10bit Weg sozusagen oversized. Vielleicht meint er das auch nur auf Banding bezogen, aber man sollte mal einen Test machen.

deswegen hab ich ja red footage so gegradet das es die dynamik hat.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen:
Keying: UHD 8Bit o. FHD 10Bit?
GH5 10bit Extern und gleichzeitig 8bit
upsampling von 8bit auf 10bit erkennen - wie?
Brauche Einsteigertipps für Premiere Pro (8bit vs. 10bit, V-LOG, HLG, etc)
10 Bit Farbtiefe - jetzt auch in Videospielen
Proleme mit der Farbtiefe in Speedgrade
WMV-Format -> Qualität eines Filmes erkennbar (Auflösung, Farbtiefe etc.)?
AOC U2790PQU: Semi-professioneller 27" 4K Monitor mit 10-Bit Farbtiefe für 350 Euro
8Bit 4:2:0 vs 8Bit 4:2:2
ATI AIW X1800XL: RGB-SCART-Bild sieht aus als hätte es nur 16 Bit Farbtiefe
Mein 8Bit Experiment!
8bit-Log nach s/w - Einschränkungen?
10 Bit 420 vs 8Bit 422
Pseudo-Information in 8bit-Rec709-Superwhites?!?
8Bit AVCHD vs 12Bit Sony Raw CDNG
6 Jahre altes 8Bit Material in moderner NLE!
Panasonic GH4 - Color Grading 8Bit-Problem?
Professioneller Workflow für 8Bit DSLR-Videos?
Canon C200 - MXF-Firmware Update Q1-2018 nur 8Bit 4:2:0?
422 - 10bit vs. 4K
An alle 10Bit peeper!!
Macbook 2017 - 10bit?
GH5 10bit 4:2:2 Export
Canon Eos R - 10Bit in 1080p ?!
10Bit Workflow Windows OpenGL
Welche Karte für 4K 10Bit Monitor?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
21-24. Mai / St. Ingbert
Bundesfestival junger Film 2020
30-31. Oktober / Espelkamp
Filmfestival SPITZiale
6-8. November / Freyung
Kurzfilmfest Dreiländereck
4. Dezember / Bünde
Bünder Kurzfilmfestival 2020
alle Termine und Einreichfristen