Frage von klusterdegenerierung:Nachdem ich hier wegen des A7SIII releases wieder so viel über 8Bit vs 10Bit gelesen habe, habe ich mich noch mal auf den Weg gemacht dies ein wenig zu dokumentieren.
Da ich meistens in 8Bit filme, obwohl ich auch 10Bit könnte, wollte ich mich nochmal pro 8Bit auf die Suche machen.
Ich weiß nicht ob das Video von Dave Dugdale hier schon mal gezeigt wurde, wenn ja nicht schlimm, denn es ist sehr sehenswert, auch wenn es etwas langatmig ist.
Dave wollte als Semi gerne wissen ob es wirklich so große Unterschiede gibt, dafür hat er einen Profi zu Rate gezogen, der sich damit auskennt.
Dieser hat Raw 12Bit, 10Bit, und 8Bit Aufnahmen extremst gegraded um den Unterschied zu dokumentieren.
Fazit ist, ja es gibt starke Unterschiede, aber die Unterschiede liegen oft eher in der Compression des verwendeten Codecs, bzw was man mit dem Material machen möchte und Matt meint, in 99% der Fälle, wo man nicht so extrem eingreift, ist ein Unterschied von den beiden nicht wirklich existent.
Ich fand das ganz schön zu sehen, denn oft wird sich hier extremst aufgeregt, wobei viele das 10Bit nicht mal wirklich bearbeiten sondern nur zu Rec konvertieren, da reicht dann auch 8Bit.
Seht es euch selbst an, es ist sehr interessant.
Dave erklärt erst mal das wieseo warum und Matt startet ab ca. 7:00min mit seinem "shit" wie er die ganze Zeit sagt.
Wer etwas Zeit hat, sollte sich das mal zu Gemüte führen! :-)
https://www.youtube.com/watch?v=AekKwgvS5K0
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Nachdem ich hier wegen des A7SIII releases wieder so viel über 8Bit vs 10Bit gelesen habe, habe ich mich noch mal auf den Weg gemacht dies ein wenig zu dokumentieren.
Da ich meistens in 8Bit filme, obwohl ich auch 10Bit könnte, wollte ich mich nochmal pro 8Bit auf die Suche machen.
Ich weiß nicht ob das Video von Dave Dugdale hier schon mal gezeigt wurde, wenn ja nicht schlimm, denn es ist sehr sehenswert, auch wenn es etwas langatmig ist.
Dave wollte als Semi gerne wissen ob es wirklich so große Unterschiede gibt, dafür hat er einen Profi zu Rate gezogen, der sich damit auskennt.
Dieser hat Raw 12Bit, 10Bit, und 8Bit Aufnahmen extremst gegraded um den Unterschied zu dokumentieren.
Fazit ist, ja es gibt starke Unterschiede, aber die Unterschiede liegen oft eher in der Compression des verwendeten Codecs, bzw was man mit dem Material machen möchte und Matt meint, in 99% der Fälle, wo man nicht so extrem eingreift, ist ein Unterschied von den beiden nicht wirklich existent.
Ich fand das ganz schön zu sehen, denn oft wird sich hier extremst aufgeregt, wobei viele das 10Bit nicht mal wirklich bearbeiten sondern nur zu Rec konvertieren, da reicht dann auch 8Bit.
Seht es euch selbst an, es ist sehr interessant.
Dave erklärt erst mal das wieseo warum und Matt startet ab ca. 7:00min mit seinem "shit" wie er die ganze Zeit sagt.
Wer etwas Zeit hat, sollte sich das mal zu Gemüte führen! :-)
https://www.youtube.com/watch?v=AekKwgvS5K0
Niemand kann den Unterschied erkennen.
Da schließt mal wieder jemand von sich auf andere. :)
In Foren erzählen sie alle nur Quatsch, während auf Youtube die großen Meister unterwegs sind. ;)
Und wieder mal: Ein Node in Resolve ist in den Augen dieser Spezialisten schon Grading.
Außerdem ist eh alles nur die Kompression.
Und eigentlich ist das auch richtig, denn 16bit werden schließlich in 8bit komprimiert.
Die anschließende Datenkomprimierung muss gar nicht mehr stärker ausfallen, um kleiner Datenmengen bei 8bit zu erreichen, denn es sind sowieso schon sehr viel weniger Daten vorhanden.
Antwort von klusterdegenerierung:
Mann bekommt in den falschen Hals, was Mann bekommen möchte!
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Nachdem ich hier wegen des A7SIII releases wieder so viel über 8Bit vs 10Bit gelesen habe, habe ich mich noch mal auf den Weg gemacht dies ein wenig zu dokumentieren.
Ich hatte komischerweise heute morgen dieselbe Idee. Ich erinnerte mich vage des von dir verlinkten Videos, wäre aber nicht mehr darauf gekommen, dass es von Dugdale war. Ich selbst kam darauf wegen rokis (seines Zeichens BMPCC HD - Fan, wenn ich jetzt nichts durcheinanderschmeiße) Kommentar zur A7SIII-Kür von Brandon Li im A7SIII - Haupthread:
roki100 hat geschrieben:
Also Brandon Li ist so eine Sache, er kann das auch mit Osmo Pocket.... Der Typ ist einfach genial.
Unter diesem Gesichtspunkt sah ich mir nochmals Passion Of Andalucia an, ja, lud ihn mir sogar in 4k runter. Die dunklen Verläufe/Differenzierungen ebenso wie den typisch problematische Himmelsverlauf kann man dort (A7iii) nicht finden:
zum Bild
zum Bild
Ich habe auch so manche Himmelsverläufe in 8-bit gefilmt, geschätzte 80-90% ohne Probleme. Ich würde über den Daumen gepeilt sagen, dass es bei eher dunklen Motiven problematischer ist. Die muss man schon in-camera richtig haben. Ob das dann eher an 8-bit oder an zu starker Kompression liegt, das weiß ich nicht. Schön, wenn beides verbessert ist.
Was Raw vs. Nicht-Raw betrifft, so handelt es sich um einen graduellen Unterschied. Die prinzipiell bessere Bearbeitbarkeit steht außer Frage, aber sie ist halt nur
relativ besser. Und in selten gewürdigtem Maße auch abhängig von den enstsprechenden Software-Entwickler-Werkzeugen. Man kann eine Religion daraus machen. Man kann es aber auch bleiben lassen.
Antwort von Jott:
Brandon Li weiß halt auch, wie und womit man 8Bit-Material bearbeitet, ohne dabei Banding zu erzeugen (in der Kamera entsteht das ja nicht).
Schwer abzustreiten, dass der geniales Zeug zeigt, gedreht mit Kameras, die manche hier nicht mal mit spitzen Fingern anfassen würden. Was lernt man daraus?
Antwort von Jörg:
Was lernt man daraus?
ich fürchte, manche hier gar nix ;-((
Antwort von Frank Glencairn:
Axel hat geschrieben:
Ich habe auch so manche Himmelsverläufe in 8-bit gefilmt, geschätzte 80-90% ohne Probleme. Ich würde über den Daumen gepeilt sagen, dass es bei eher dunklen Motiven problematischer ist. Die muss man schon in-camera richtig haben. Ob das dann eher an 8-bit oder an zu starker Kompression liegt, das weiß ich nicht. Schön, wenn beides verbessert ist.
Was Raw vs. Nicht-Raw betrifft, so handelt es sich um einen graduellen Unterschied. Die prinzipiell bessere Bearbeitbarkeit steht außer Frage, aber sie ist halt nur relativ besser. Und in selten gewürdigtem Maße auch abhängig von den enstsprechenden Software-Entwickler-Werkzeugen. Man kann eine Religion daraus machen. Man kann es aber auch bleiben lassen.
Ja, stimmt schon.
Ich bin weißgott ein hardcore Verfechter von raw, das heißt aber nicht, daß ich nicht auch mit 8bit vernünftige Bilder hin bekomme.
Das hier hab ich vor zig Jahren mit ner FS100 gedreht.
Also 8bit H264, ist dann in der Post nochmal komprimiert, wurde dann nochmal auf 480p(!) runter gerechnet (und dabei nochmal komprimiert) zu YT hochgeladen (und dabei nochmal komprimiert) und jetzt hab ich Screenshots davon gemacht und hier hochgeladen.
Der Film ist also gleich durch mehrere Fleischwölfe gegangen, und müßt nach gängiger Auffassung komplett im Eimer sein. Es ist zwar nur noch ein Schatten des original HD Materials, was die tatsächlich Bildinformation und Schärfe angeht, aber Banding-Hölle ist was anderes.
2020-08-21 13.07.59 www.youtube.com ae5bd3775c29.jpg
2020-08-21 13.07.35 www.youtube.com 76e1cdf3f46b.jpg
2020-08-21 13.05.02 www.youtube.com 98241e07e1df.jpg
2020-08-21 13.04.18 www.youtube.com 8a30cb1bd15f.jpg
Antwort von Jott:
Andere kriegen gar keine vorzeigbaren Bilder hin, egal ob mit AVCHD oder raw bis zum Abwinken. Insofern, was soll's ...
Antwort von iasi:
Axel hat geschrieben:
Was Raw vs. Nicht-Raw betrifft, so handelt es sich um einen graduellen Unterschied. Die prinzipiell bessere Bearbeitbarkeit steht außer Frage, aber sie ist halt nur relativ besser. Und in selten gewürdigtem Maße auch abhängig von den enstsprechenden Software-Entwickler-Werkzeugen. Man kann eine Religion daraus machen. Man kann es aber auch bleiben lassen.
Der Unterschied ist gravierend, wenn man die Post-Möglichkeiten wirklich ausschöpfen will und Raw vs. 10bit oder gar 8bit betrachtet.
Das hat auch nichts mit Religion zu tun, denn so gläubig sind wohl weder die Verantwortlichen der Filmstudios noch all die Fotografen, die ihre Fotos in Raw schießen.
Jede Software, die einigermaßen aktualisiert wird, unterstützt heute die gängigen Raw-Formate.
Was wohl eher eine Glaubensfrage ist, das ist das Festhalten an der Hoffnung, dass man die technische Weiterentwicklung ignorieren kann.
Man muss sich doch aber nur mal fragen, warum sich Raw bei den Fotokameras (und sogar Smartphones) durchgesetzt hat, nachdem die technischen Hürden genommen waren.
Die Fotoleute sind den Filmleuten einfach deshalb immer etwas voraus, da sie eben nur ein Bild und eben nicht mindestens 24fps aufnehmen und bearbeiten müssen.
Was jedoch mit Fotos so alles in der Bearbeitung geht, das ist eben heute auch im Filmbereich möglich.
Mancher will daraus keinen Nutzen ziehen, was ihm ja niemand ankreidet. Schade jedoch, dass sie in religöser Inbrunst immer bestreiten, dass es diese Vorteile gibt, statt einfach dazu zu stehen und zu sagen: Ich verzichte auf die Gestaltungsmöglichkeiten der Post.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Der Unterschied ist gravierend, wenn man die Post-Möglichkeiten wirklich ausschöpfen will
Ja hat man ja gesehen als er ein mega extremes grade draufgelegt hat.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Der Unterschied ist gravierend, wenn man die Post-Möglichkeiten wirklich ausschöpfen will
Ja hat man ja gesehen als er ein mega extremes grade draufgelegt hat.
Er benutzt 2 Nodes, wobei er bei einem ins Extrem geht, die Unterschiede dann aber der Komprimierung ankreidet.
Warum macht er nicht ein ordentliches Grading, ganz so als seien die Aufnahmen auch etwas wert?
Schon zu BMCC-Zeiten waren die Unterschiede zwischen RAW und 10bit-ProRes sehr gut zu erkennen - und so manches Youtube-Video gibt es auch dazu.
Warum sollte dies sich nun plötzlich geändert haben?
Man muss sich doch auch mal fragen, warum Cine-Cam-Hersteller 12bit-ProRes bieten und es nicht bei ProRes HQ belassen.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Er benutzt 2 Nodes
Man kann in einer node verherrende manipulationen anrichten, denn man kann das gesamte grading innerhalb einer node erledigen, weiß nicht was das mit nur einer node soll!
Klar arbeitet der profi in mehreren nodes, aber das hat ja nix damit zu tun das man wenn man die Curve so verdreht und das Material schrott ist, dafür mehr nodes braucht.
So extrem wie Matt das Material in einer node verbiegt, so würdes Due es nie und auch nicht in 20 nodes verbiegen, aber traurig das man Dir das in so vielen Varianten erklären muß.
Desweiteren, wer verbiegt überhaupt sein Material so extrem? Hast doch gelesen was Frank alleine mit dem FS100 Material gemacht hat, das würd doch niemand von uns mit 10bit machen. 10Bit ist überbewertet und wird als Wunderwaffe von Amateuren genutzt. Der Profi kann auch mit 8Bit, aber der Profi arbeitet mit Cams, die garkein 8Bit anbieten.
Warum sollte eine Alexa in 8Bit 420 aufzeichnen, ist doch total absurd und das die Profis nicht viel über 8Bit wissen bzw arbeiten, hat einzig genau mit dieser Tatsache zu tun, denn die kennen kaum was anderes.
Als ich damals im Studio mit der Fotografie angefangen bin, habe ich nur auf Großformat Dia gelernt, also 18x24 oder 13x18, da war selbst 6x7 Mittelformat eine Randerscheinung und was für Weicheier, garnicht zu reden von Kleinbild, ich glaub wir hatten nicht mal eine.
Dementsprechent hatte ich jahrelang null Ahnung von Kleinbild Cams und meine Kollegen die auf KB gelernt hatten, haben mich immer ausgelacht weil ich keine Ahnung von "Cams" hatte, dabei habe ich ganz andere Dinge gelernt, nämlich perspektivische Verzerrung, Scheimflug und verlängerungsfaktoren bei Großbild Cams mit langem Balgenauszug und wie man Belichtung mit einem Belichtungsmesser misst etc etc.
Heute kann ich ach mit 8Bit, sozusagen! ;-))
Antwort von Jost:
iasi hat geschrieben:
Man muss sich doch aber nur mal fragen, warum sich Raw bei den Fotokameras (und sogar Smartphones) durchgesetzt hat, nachdem die technischen Hürden genommen waren.
Nur bei denen, die nicht zeitkritisch arbeiten. Wenn es heißt, "Internet First", ist das Foto an sich wichtig. Raw bekommst Du außerdem nicht direkt in die Redaktionssysteme eingespeist. Dann ist die Post Pflicht. Wer will das mit einem Laptop machen, das auf den Knien balanciert wird?
Für das Streben nach möglichst hoher Qualität ist zumindest die Pressefotografie ein sehr schlechtes Beispiel. Dort läuft der "Roll Back" auf höchsten Touren.
Antwort von Jott:
„ Warum sollte eine Alexa in 8Bit 420 aufzeichnen, ist doch total absurd“
Bei einer Arri Amira geht das! :-)
8Bit 422 allerdings. Aber wat mutt, dat mutt, der deutsche Fernsehmacher will XDCAM.
Bin gespannt, ob sich nach dem Hinscheiden des IRT, die Quelle der gestrigen Pfichtenhefte, daran etwas ändert.
Und Iasi: du besitzt doch schon länger raw-Kameras für den „Gestaltungsspielraum“ (erzählst du jedenfalls), trotzdem drehst du nichts und wartest. Und wartest. Und wartest. Auf noch raweres raw?
Antwort von Darth Schneider:
wäscht weisser als weiss...
Da war doch mal dieser Werbespot...
Gruss Boris
Antwort von cantsin:
Tja, eben mal schnell einen Praxistest gemacht mit dem schon zuvor im Nachbarthread geteilten, von Jacques Crafford gedrehten 10bit 4:2:2 sLog3-Demomaterial aus der A7sIII:
1.) in Resolve als originales 10bit-Material importiert;
2.) sowie in DNxHR HQ-Material 8bit 4:2:2 umgewandelt und ebenfalls in Resolve importiert;
auf beide ansonsten identische Clips einen einfachen Color Space Transform mit Luminance Mapping von sLog3 + s-gamut3 nach Rec709 angewendet.
Hier das aus 10bit 4:2:2-Slog3 erzeugte 8bit-Rec709-Material (direkter Export als PNG aus Resolve):
10bit_1.1.1.T.png
Hier das aus 8bit 4:2:2-Slog3 erzeugte 8bit-Rec709-Material:
8bit_1.2.1.T.png
Detailansicht 10bit-Ausgangsmaterial:
crop-10bit_1.1.1.T.png
Detailansicht 8bit-Ausgangsmaterial:
crop-8bit_1.2.1.T.png
Tja - deutliches Color Banding im 8bit-Ausgangsmaterial, das wir hier wohl nicht weiter diskutieren müssen - obwohl sich um sehr hochwertiges 8bit mit 4:2:2-Color-Sampling handelte:
banding.png
Die Aussage in dem Dugdale-Video, dass Forenweisheiten über 8bit-Slog "shit" seien, kann man also damit kontern, dass die Aussagen über 8bit-Slog in YouTube-Influencer-Videos noch besch*ssener sind...
Antwort von cantsin:
Die Unterschiede sieht man übrigens auch sehr schön im Waveform-Monitor, vor allem links in der Mitte:
10bit-Ausgangsmaterial
Screenshot from 2020-08-21 21-32-08.png
8bit-Ausgangsmaterial
Screenshot from 2020-08-21 21-32-53.png
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Die Aussage in dem Dugdale-Video, dass Forenweisheiten über 8bit-Slog "shit" seien, ...
Jaja, kenne das, nur Du vergisst eines, auch das was der Dude bei Dave gesagt hat.
Wenn ich mit einem Landrover mit 50KM gegen einen Baum fahre ist vorne das Auto hin, wenn ich das mit einem Panda mache, ist der Panda hin.
Klar kann man machen, aber wenn man den Schaden auf dem Level des Landrovers haben möchte, fährt man keine 50KM, sondern 20KM.
Immer diese zusammenhangslosen Vergleichsbilder, klar wirken die, jeder sieht sofort boah, fiese Farbsäume, aber niemand fragt, kommen die überhaupt von 8Bit, oder von Chromasampling oder Codec oder viel wichtiger, was kann ich tun damit mir das bei 8Bit nicht passiert, das kann ich Dir sagen, nicht mit dem Panda mit 50KM gegen den Baum fahren, kann ja so schwer nicht sein.
Der Profi hat es doch vorgemacht das es bis zu einem Grad geht und wer mehr machen muß nimmt auch eh mehr als die popeligen 10Bit, der nimmt 16Bit.
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Immer diese zusammenhangslosen Vergleichsbilder, klar wirken die, jeder sieht sofort boah, fiese Farbsäume, aber niemand fragt, kommen die überhaupt von 8Bit, oder von Chromasampling oder Codec oder viel
In meinem Beispiel ganz klar von 8bit, da ich ja das originale 10bit-Material in einen der höchstqualitativen 8bit-Codecs, die es überhaupt gibt - nämlich DNxHR HQ - gewandelt habe, mit 4:2:2-Chromasampling.
Antwort von mash_gh4:
cantsin hat geschrieben:
In meinem Beispiel ganz klar von 8bit, da ich ja das originale 10bit-Material in einen der höchstqualitativen 8bit-Codecs, die es überhaupt gibt - nämlich DNxHR HQ - gewandelt habe, mit 4:2:2-Chromasampling.
das kernproblem bei bei diesen ganzen 10->8bit vergleichen und umwandlungsdemonstratiopnen ist im korrekten dithering zu suchen, das leider auch in guten verarbeitungsprogrammen oft unterbleibt oder unzureiched ausgeführt wird...
Antwort von iasi:
Jost hat geschrieben:
iasi hat geschrieben:
Man muss sich doch aber nur mal fragen, warum sich Raw bei den Fotokameras (und sogar Smartphones) durchgesetzt hat, nachdem die technischen Hürden genommen waren.
Nur bei denen, die nicht zeitkritisch arbeiten. Wenn es heißt, "Internet First", ist das Foto an sich wichtig.
Das mag ja sein, jedoch bedeutet dies doch nicht, dass es keine relevanten Unterschiede zwischen 8bit, 10bit und mehr gibt.
Fotografen, die nicht zeitkritisch arbeiten (oder den Aufwand scheuen), nutzen RAW und die Möglichkeiten am Rechner.
Es gab schon früher Unterschiede in der Arbeitsweise:
Da waren die Zonensystem-Leute, die nicht nur abwedelten und nachbelichteten, sondern auch den Entwicklungsprozess gestalterisch nutzen.
Dann die Leute in der Dunkelkammer vor dem Vergrößerer.
Und schließlich die Auslöser-drücken-und-fertig-Fraktion.
Heute bietet der Rechner weit einfachere, zahlreichere und präzisere Möglichkeiten der Gestaltung.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Er benutzt 2 Nodes
Man kann in einer node verherrende manipulationen anrichten, denn man kann das gesamte grading innerhalb einer node erledigen, weiß nicht was das mit nur einer node soll!
Klar arbeitet der profi in mehreren nodes, aber das hat ja nix damit zu tun das man wenn man die Curve so verdreht und das Material schrott ist, dafür mehr nodes braucht.
Er hätte auch einfach bis an die Grenze gehen können, um zu vergleichen, wie weit man das jeweilige Material biegen kann, bis es "bricht".
Antwort von klusterdegenerierung:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Man kann in einer node verherrende manipulationen anrichten, denn man kann das gesamte grading innerhalb einer node erledigen, weiß nicht was das mit nur einer node soll!
Klar arbeitet der profi in mehreren nodes, aber das hat ja nix damit zu tun das man wenn man die Curve so verdreht und das Material schrott ist, dafür mehr nodes braucht.
Er hätte auch einfach bis an die Grenze gehen können, um zu vergleichen, wie weit man das jeweilige Material biegen kann, bis es "bricht".
Klar, aber hat er doch irgendwie, ist doch total verdreht und man sieht doch was an Bamding raus kommt und es ist ja auch sichtbar, das ist ja nicht der Punkt, die Frage ist doch, wie auch er sagt, ab wann taucht das auf, werde ich das im normalo Betrieb überhaupt sehen?
In den meisten Fällen vielleicht eher nein und und keiner von uns spricht darüber was man dagegen tun kann bzw wie man es vermeiden kann, aber jeder 10Bit Fanboy reibt sich die Hände wenn er es darstellen kann, das wars dann aber auch schon!
Antwort von cantsin:
Man kann die ganze Diskussion so abkürzen: Wenn man in 8bit dreht, dann immer nur für Rec709 (und nicht erweiterte Farbräume wie HLG) und mit einem Bild, das schon in der Kamera so fertig wie möglich sein sollte.
Und wenn es wegen des Motiv-Kontrastumfangs unbedingt Log in 8bit sein muss, dann nur bei solchen Motiven, die möglichst keine feinen Farbabstufungen (bzw. gradients) haben.
Nur dass IMHO der Sinn von verbesserten Kameras, und dem Schließen der ehemaligen Lücke Videokamera vs. digitaler Foto- bzw. Kinokamera darin liegt, dass man auch einmal so einen Sonnenuntergang in aller Pracht ohne Clipping und Banding drehen kann...
Antwort von roki100:
Mit 10Bit: man kann nachträglich verschiedene Looks graden...
Mit 8Bit: begrenzt.
So sehe ich das.
Antwort von Jott:
„ dass man auch einmal so einen Sonnenuntergang in aller Pracht ohne ... Banding drehen kann...“
Himmel, das geht mit jeder 8Bit-Kamera, schon immer. Banding entsteht nicht in der Kamera, sondern wenn, dann in der Bearbeitung. Die, so scheint mir, offensichtlich oft falsch angegangen wird. Richtig gemacht: siehe z.B. Brandon Li und oben die FS100-Beispiele von Frank.
Ich kann‘s nicht mehr hören. Ja, 10Bit und raw sind natürlich besser, da gibt’s keine Diskussion, aber 8Bit per se führt im normalen Leben auch nicht zu Banding. Weiß ja auch jeder, der die gängigen DSLR und Spiegellosen nutzt. Oder XDCAM-Schultercams für TV, alles 8Bit. Habe gerade geschnittenes Material von einem „jungen Wilden“ bekommen, außen, People, heftige Kontraste, Sony S-Log 8Bit, alles bestens. Ist kein Zauberer, blickt nur seinen Job.
Antwort von iasi:
cantsin hat geschrieben:
Man kann die ganze Diskussion so abkürzen: Wenn man in 8bit dreht, dann immer nur für Rec709 (und nicht erweiterte Farbräume wie HLG) und mit einem Bild, das schon in der Kamera so fertig wie möglich sein sollte.
Genau - gut gesagt.
cantsin hat geschrieben:
Und wenn es wegen des Motiv-Kontrastumfangs unbedingt Log in 8bit sein muss, dann nur bei solchen Motiven, die möglichst keine feinen Farbabstufungen (bzw. gradients) haben.
Wobei dann aber auch satt belichtet werden sollte. Log und Unterbelichtung vertragen sich nicht so recht.
cantsin hat geschrieben:
Nur dass IMHO der Sinn von verbesserten Kameras, und dem Schließen der ehemaligen Lücke Videokamera vs. digitaler Foto- bzw. Kinokamera darin liegt, dass man auch einmal so einen Sonnenuntergang in aller Pracht ohne Clipping und Banding drehen kann...
Ergänzen würde ich aber eben auch, dass die fantastischen Möglichkeiten der Post sich durch das Material der Kamera voll ausgeschöpfen lassen sollte.
Der wahre Fortschritt, den Digi-Cams brachten, sind IMHO die Gestaltungsmöglichkeiten in der Post.
Wer sich schon mal in der Dunkelkammer abgemüht hat, der verfällt in Jubel, wenn er die Werkzeuge der Grading-Software sieht.
Antwort von iasi:
Jott hat geschrieben:
„ dass man auch einmal so einen Sonnenuntergang in aller Pracht ohne ... Banding drehen kann...“
Himmel, das geht mit jeder 8Bit-Kamera, schon immer. Banding entsteht nicht in der Kamera, sondern wenn, dann in der Bearbeitung. Die, so scheint mir, offensichtlich oft falsch angegangen wird. Richtig gemacht: siehe z.B. Brandon Li und oben die FS100-Beispiele von Frank.
Ich kann‘s nicht mehr hören. Ja, 10Bit und raw sind natürlich besser, da gibt’s keine Diskussion, aber 8Bit per se führt im normalen Leben auch nicht zu Banding. Weiß ja auch jeder, der die gängigen DSLR und Spiegellosen nutzt. Oder XDCAM-Schultercams für TV, alles 8Bit. Habe gerade geschnittenes Material von einem „jungen Wilden“ bekommen, außen, People, heftige Kontraste, Sony S-Log 8Bit, alles bestens. Ist kein Zauberer, blickt nur seinen Job.
Es ist eben immer die Frage, wie sehr man das Material bearbeiten will.
Was aus einer 8bit-Cam kommt, ist meist sehr gutes 8bit-Material.
Und log hilft natürlich DR zu retten. Wobei ich mich an einen Sony-Mann erinnern kann, der meinte, dass eigentlich 10bit-S-log der goldene Weg sei.
Und wie du selbst sagst: 10bit und raw sind besser.
Warum dann im Jahr 2020 noch zu einer 8bit-Cam greifen?
Das Bessere ist schließlich der Feind des Guten.
Antwort von cantsin:
Jott hat geschrieben:
„ dass man auch einmal so einen Sonnenuntergang in aller Pracht ohne ... Banding drehen kann...“
Himmel, das geht mit jeder 8Bit-Kamera, schon immer.
Du hast mich unvollständig - und daher falsch - zitiert. Ich schrieb "Clipping oder Banding". Wenn man in 8bit ein extrem kontrast- und farbabstufungsreiches Motiv wie einen Sonnenuntergang filmt, hat man - wie ich klar und unmissverständlich schrieb - die Wahl zwischen dem einen oder dem anderen:
(a) Rec709-Profil/Farben direkt aus der Kamera = Clipping . Auch das beste Wide Dynamic Range-Rec709-Profil kann das nicht verhindern bzw. erfasst nicht den vollen Dynamikumfang, den heutige Highend-Sensoren wie der der A7sIII erfasst.
(b) Log-Profil + Farbraumumwandlung = Banding.
Manchmal wird man hier schon bösartig missverstanden.
Antwort von Jott:
Ich hab beim Zitat extra die Auslassungspünktchen gesetzt - da ist nichts bösartig. Aber bitte.
Ob beim Grading von 8Bit-Material Banding entsteht oder nicht, hat der Editor in der Hand. Das ist der Knackpunkt. Es gibt Millionen von 8Bit-Kameras im Markt, sehr sehr viele davon in professioneller Hand. Dazu zum Beispiel noch Unmengen von Drohnen. Ist jeder Himmel aus deren Aufnahmen nach Korrektur unbrauchbar? Blödsinn.
Iasi - du laberst hier seit bald zehn Jahren immer das Gleiche, ohne ein Beispiel zu zeigen, was du überhaupt meinst mit deinen „Gestaltungsmöglichkeiten“. Oft geht‘s um den Verzicht von Lichtsetzung (sparen mit raw), was ja nun so gar nicht der Punkt ist. Ich denke, ich bin nicht der einzige, der dich nicht für voll nimmt.
An alle erbärmlichen Loser, die nur eine 8Bit-Kamera ihr eigen nennen: macht weiter, dreht schöne Sachen und freut euch!
Antwort von iasi:
Jott hat geschrieben:
Ich hab beim Zitat extra die Auslassungspünktchen gesetzt - da ist nichts bösartig. Aber bitte.
Ob beim Grading von 8Bit-Material Banding entsteht oder nicht, hat der Editor in der Hand. Das ist der Knackpunkt. Es gibt Millionen von 8Bit-Kameras im Markt, sehr sehr viele davon in professioneller Hand. Dazu zum Beispiel noch Unmengen von Drohnen. Ist jeder Himmel aus deren Aufnahmen nach Korrektur unbrauchbar? Blödsinn.
Iasi - du laberst hier seit bald zehn Jahren immer das Gleiche, ohne ein Beispiel zu zeigen, was du überhaupt meinst mit deinen „Gestaltungsmöglichkeiten“. Oft geht‘s um den Verzicht von Lichtsetzung (sparen mit raw), was ja nun so gar nicht der Punkt ist. Ich denke, ich bin nicht der einzige, der dich nicht für voll nimmt.
An alle erbärmlichen Loser, die nur eine 8Bit-Kamera ihr eigen nennen: macht weiter, dreht schöne Sachen und freut euch!
Blödsinn ist eigentlich vor allem, dieses Geschwätz über 8bit in professioneller Hand, denn große Produktionen nutzen heute Raw. Und auch unter ihre Drohnen schrauben Profis Raw-Kameras. Denk mal: DJI hat sogar eigene Drohnen-Kamera entwickelt, die mehr als nur 8bit liefern.
Und nur weil dir die „Gestaltungsmöglichkeiten“ nicht klar sind, bedeutet es nicht, dass sie von anderen nicht genutzt werden - vor allem von professioneller Hand.
Wer bei Raw immer reflexartig an Verzicht oder Fix-it-in-Post denkt, weiß Raw eben schlicht nicht zu nutzen.
Ja - und mach du ruhig auch so weiter wie bisher, denn schöne Sachen brauchen youtube & Co auch weiterhin. Die schönen Sachen, über die du dich freust, verlangen ja offensichtlich nicht nach mehr als 8bit.
Denkst du wirklich, dass es wichtig ist, dass gerade du etwas oder jemanden für voll nimmst. ;) :)
Antwort von Jott:
Reg dich nicht auf, du verstehst ja in deiner Theoretiker-Verblendung nicht mal im Ansatz, wovon ich rede.
Melde dich, wenn du mal eine „große Produktion“ gemacht hast. Oder irgend was anderes, wozu du die beste Kamera der Welt brauchst. Wir sind gespannt. Aber das wird nicht passieren, wetten?
Währenddessen werden munter irgendwelche visuell durchaus anspruchsvollen 30.000 Euro-Corporate-Sachen gerne ganz bewußt zum Beispiel mit einer A7 gedreht. Mag aus der Warte deines Wolkenkuckucksheims nicht „professionell“ sein, aber wen juckt das denn. Oder nimm Forenmitglied Kichiku und schau, was der mit einer C300 hinlegt. Na?
Alles okay, macht Spaß!
Antwort von Mantas:
Bis heute habe ich mit 8bit mehr verdient als mit 10 und mehr...
Also professionell und 8bit passt gut zusammen.
Antwort von klusterdegenerierung:
Ich denke was iasi meint und wo man bestimmt richtig was reissen könnte und es auch durchaus Sinn macht, ist bei der Einstiegsszene dieses Bus Videos, wo kurz am Anfang vom aus dem Parkhaus raus fahren in die Sonne es anfängt zu clippen, das wäre mit 10Bit bestimmt nicht passiert und ich schätze mal das hätte den halbstündigen Film zu einem echten Hingucker, gemacht, aber so, nur ein normales HongKong Bus Video was keinen interessiert.
Schade das solche Filmer den Benefit nicht sehen und es in 10Bit drehen, denn dann wären sie richtig erfolgreich, ja ich würde sagen, gar berühmt!
https://www.youtube.com/watch?v=652R3L7YefM
Antwort von pillepalle:
iasi macht einfach einen auf Perfektionisten. Vielleicht sollten wir ihn nur mal zur Therapie schicken :)
https://www.youtube.com/watch?v=69ctkOZ7Z9M&t=16m24s
VG
Antwort von DeeZiD:
Sagen wir es mal so.
Bei meiner GH5 und nun S1H bricht das 8 bit-Material beim Einsatz von V-Log selbst in Resolve auseinander sobald ich nur eine Kurve drauflege.
In 10 Bit gibt es auch in recht extremen Colorgrading-Sessions keinerlei Probleme.
Bei der Sony A73 war es in S-Log 2 und 3 das gleiche - nur wird hier nicht einmal 10 bit angeboten und es gibt zusätzlich zum Banding noch heftige Macroblocking- und Ghosting-Artefakte, wobei letztere interne Processing-Probleme sind und auch in 10 bit (siehe Z-Cam and Fuji X-T3/4) auftauchen können.
Fazit:
8 Bit ist nicht für echtes LOG-Gamma and Wide-Gamut geeignet. Flache Rec709 Profile wie Cine D sind so ziemlich das Höchste was man in 8 Bit speichern sollte. Mit HLG/Rec2020 Gamut kann man bei Sony-Kameras noch knapp über 10 Blenden in 8 Bit rausquetschen, wobei auch hier wieder Artefakte - wenn auch nicht im selben Umfang wie bei S-Log2/3/3.cine - auftauchen.
Wer mehr als das benötigt, sollte in mindestens 10 Bit filmen, was dank Kameras wie der Pocket 4K heutzutage günstig machbar ist.
Und auch DJI bietet mit der Mavic 2 Pro eine relativ bezahlbare 10 Bit Drohne an, die ein Bild liefert, welches sich wunderbar mit hochpreisigen bodenständigen matchen lässt.
Antwort von klusterdegenerierung:
Spitzen Video Pille!
Antwort von Jott:
Ja, die grauenhaften Artefakte. Ach bitte. Es müssen wohl doch Zauberer sind, die davon nicht betroffen sind.
Noch mal: ich „verteidige“ 8Bit nicht als vorzuziehende Technik. Unfug. Ich wehre mich nur im Sinne von vielleicht 90% aller Filmschaffenden gegen die Behauptung, man könne damit nicht arbeiten. Entgegen jeder Menge auch prominenter Beispiele. Elitäres Getue zeugt nie von Professionalität. Ganz im Gegenteil.
Antwort von klusterdegenerierung:
DeeZiD hat geschrieben:
Sagen wir es mal so.
Bei meiner GH5 und nun S1H bricht das 8 bit-Material beim Einsatz von V-Log selbst in Resolve auseinander sobald ich nur eine Kurve drauflege.
In 10 Bit gibt es auch in recht extremen Colorgrading-Sessions keinerlei Probleme.
Bei der Sony A73 war es in S-Log 2 und 3 das gleiche - nur wird hier nicht einmal 10 bit angeboten und es gibt zusätzlich zum Banding noch heftige Macroblocking- und Ghosting-Artefakte, wobei letztere interne Processing-Probleme sind und auch in 10 bit (siehe Z-Cam and Fuji X-T3/4) auftauchen können.
Fazit:
8 Bit ist nicht für echtes LOG-Gamma and Wide-Gamut geeignet. Flache Rec709 Profile wie Cine D sind so ziemlich das Höchste was man in 8 Bit speichern sollte. Mit HLG/Rec2020 Gamut kann man bei Sony-Kameras noch knapp über 10 Blenden in 8 Bit rausquetschen, wobei auch hier wieder Artefakte - wenn auch nicht im selben Umfang wie bei S-Log2/3/3.cine - auftauchen.
Wer mehr als das benötigt, sollte in mindestens 10 Bit filmen, was dank Kameras wie der Pocket 4K heutzutage günstig machbar ist.
Und auch DJI bietet mit der Mavic 2 Pro eine relativ bezahlbare 10 Bit Drohne an, die ein Bild liefert, welches sich wunderbar mit hochpreisigen bodenständigen matchen lässt.
Kann ich nicht unterschreiben!
Ein Beispiel wäre gut, denn in meiner Entwicklung bzw Professionalisierung in Filmen und Resolven, bin ich schon oft an solche Punkte gekommen, aber dann auch wieder an die Punkte wo ich realisierte, was ich da eigentlich gemacht habe und das es immer wieder du einer Destruktion des Material führte, entweder aus Unwissenheit oder aus komplexen Zusammenhängen deren Beginn man irgendwann nicht mehr nachvollziehen kann.
Ein gutes Beispiel, mein ADAC Video, gedreht mit der a6300 in Slog2, da kamen damals direkt Unkenrufe wegen des Bandig im Himmel.
Gedreht in 8Bit und bearbeitet in PR, keine Ahnung was da passiert ist, habe lediglich Lumetri benutzt.
Mich hat das aber nicht in Ruhe gelassen, denn ich wußte das es im Original nicht vorhanden war.
Habe das ganze zu Resolve exportiert und ganz clean angegangen und siehe da, kein 8Bit Banding mehr, trotz Nutzung der Curves.
Erst als ich irgendeine Lut ausprobiert hatte, kam es wieder zu diesem Problem, jedoch wußte ich zu der Zeit noch nicht, das man vor der Lut graded und nicht die lut selbt und als ich auch dies geschnackelt habe, hatte ich das banding auch trotz lut nicht, you know what i mean?
Ich denke Du hast weit aus mehr Erfahrung als ich, aber man lernt ja nie aus, oder? ;-))
|
Antwort von Jott:
Wie gesagt, Banding wird erst durch das Leben vor dem Bildschirm erzeugt. Und wenn dieses Leben seinen Workflow und sein Ergebnis mal hinterfragt, kann das so manches ändern. Ohne gleich vorhandene Kameras wegzuschmeißen und neue zu kaufen.
Ich vermute auch, dass die falsche Anwendung von LUTs oft das Problem ist. Und ich habe das Gefühl, dass erst seit deren Aufkommen als Mode-Must Have das Banding-Gejammer losging.
Antwort von Jörg:
Ich vermute auch, dass die falsche Anwendung von LUTs oft das Problem ist. Und ich habe das Gefühl, dass erst seit deren Aufkommen als Mode-Must Have das Banding-Gejammer losging.
dikutieren wir hier seit einiger Zeit.
Antwort von cantsin:
Jott hat geschrieben:
Ich hab beim Zitat extra die Auslassungspünktchen gesetzt - da ist nichts bösartig. Aber bitte.
Ob beim Grading von 8Bit-Material Banding entsteht oder nicht, hat der Editor in der Hand. Das ist der Knackpunkt. Es gibt Millionen von 8Bit-Kameras im Markt, sehr sehr viele davon in professioneller Hand. Dazu zum Beispiel noch Unmengen von Drohnen. Ist jeder Himmel aus deren Aufnahmen nach Korrektur unbrauchbar? Blödsinn.
Tja, wieder mal von Dir ein klassischer Griff in die Kiste unredlichen Argumentierens, diesmal ins Fach "whataboutism".
Nochmal, d.h. zum dritten Mal, zum langsam Mitlesen:
Ich hatte an einem konkreten Beispiel - Kameramaterial aus der A7S-iii - demonstriert, dass man deren Log-Material in 8bit nicht mehr Banding-frei nach Rec709 bringen kann, selbst wenn einer der besten 8bit-Codecs genommen wird und auch keine LUT (wieder Du weiter oben spekulierst), sondern Resolves mathematische und verlustfreie Farbraumtransformation (sogar mit aktiviertem Tone Mapping). Du hast selbst das Beispiel von Brandon Lee gebracht, der mit dem Rec709-Profil der Kamera filmt und dann zwar bei einem 8bit-Workflow kein Banding kriegen würde, aber Clipping in Kauf nimmt.
Drohnen und andere Kameras tun hier nichts zur Sache, weil die nunmal kleinere Sensoren mit geringerem Dynamikumfang haben - da stellt sich das Problem weniger stark.
Du bist doch selbst derjenige, der hier seit Jahren im Forum für 8K plädiert. Da ist es seltsam, dass Du Bildauflösung offenbar nur als spatiale Auflösung, nicht als Farbauflösung und Dynamikumfang begreifen kannst. Rec709 in 8bit 4:2:0 wurde für Röhrenmonitore entwickelt, in Zeiten, in denen Videokamerasensoren vielleicht 6-7 Blenden Dynamik schafften.
Wir haben heute, glücklicherweise, Prosumerkameras, die mehr als 12 Blenden Dynamik schaffen (und wir haben auf der Ausgabeseite HDR-Displays, sogar bei Smartphones). Dass man diese Dynamik und diese Farbauflösung in alte 8bit-Quantisierung und Röhrenmonitor-Farbräume begrenzen will - geschenkt, und jedem das seine. Aber dann darauf zu beharren, dass es da keine nennenswerten Unterschiede gibt, ist ebenso bizarr, wie die Altherren-Fernsehstandard-Fraktion, die behauptet, dass es keine sichtbaren Unterschiede zwischen SD/720p und FullHD/4K gibt.
Zumindest könntest Du Dir mal die Mühe machen, hier auch mal Beispiele zu zeigen, statt hier in Stammtisch-Manier zu argumentieren.
Antwort von mash_gh4:
wirklich absurd an dieser ganzen ständig wiederkehrenden diskussion finde ich die tatsache, dass zwar 10bit video-formate im vergleich zu 8bit vier mal mehr werte übertragen können, aber sich ansonsten nicht wesentlich unterschieden. wenn man es darauf anlegt, kann man also auch dort jederzeit ganz einfach mit minimalsten eingriffen die selben banding effekte hervorzaubern. es sind zwar eben viermal so viele banding streifen, aber das macht in wahrheit keinen so großen unterschied.
das viel bedeutendere technische problem bzw. die tatsächliche ursache für das sichtbarwerden dieser quantisierungsphänomene, hat ja eher mit unzureichender verarbeitung beim downsamplen zu tun. sehr oft kann man das unzureichendem dithering zuschreiben, aber es gibt auch noch ein paar andere ursachen (bspw. die quantisierungstabellen in den div. kompressionsalgorithmen), die leider ganz ähnliche effekte bewirken.
aber wie gesagt: das alles ist im falle von 10bit material in ganz gleicher weise anzutreffen wie bei 8bit footage! -- entscheidend dafür ist vielmehr, wie mit den urspünglich vom sensor gelieferten wesentlich feiner abgestuften werten umgegangen wird bzw. wie das rauschen in die verarbeitungskette einbezogen und behandelt wird.
Antwort von pillepalle:
Ganz so einfach ist das nicht, denn es sind 4 hoch 3, also 64 mal mehr Abstufungen. Ein Farbton (auch ein Himmel) wird aus allen drei Farbkanälen gebildet. Mit dem Argument kann man auch 12 Bit RAW Aufnahmen noch irgendwie in der Post versauen.
Aber mich interessiert diese Diskussion auch immer weniger, denn im Prinzip muss jeder selber wissen, wie er zum Ergebnis kommt und womit er arbeiten möchte. Das was nervt sind nur die Vertreter des einzig wahren Workflows.
VG
Antwort von Jörg:
Das was nervt sind nur die Vertreter des einzig wahren Workflows.
ist ja nur einer...
Antwort von roki100:
8bit: 16.7 Millionen Farben
10bit: 1.07 Milliarden Farben
Antwort von iasi:
mash_gh4 hat geschrieben:
wirklich absurd an dieser ganzen ständig wiederkehrenden diskussion finde ich die tatsache, dass zwar 10bit video-formate im vergleich zu 8bit vier mal mehr werte übertragen können, aber sich ansonsten nicht wesentlich unterschieden.
Absurd finde ich die Tatsache, dass sich trotz der technischen Entwicklungen hin zu Kameras, die mittlerweile sogar Cine-Raw in Fotokameras ermöglichen, sich Leute immer noch einreden, ihr 8bit, an dem sie sich so festkrallen, würde sich nicht wesentlich unterschieden.
Bei Red gilt selbst 10bit ProRes als Proxy-Format.
Und schon zu BMCC-Zeiten waren die Unterschiede selbst zwischen Raw und 10bit ProRes ersichtlich.
Eigentlich müsste es ja heißen: Die 8bit Diskussion geht weiter!
Wenn selbst Sony 10bit in ihren Knipsen bietet, ist 8bit doch eigentlich kein Thema mehr.
Antwort von pillepalle:
roki100 hat geschrieben:
8bit: 16.7 Millionen Farben
10bit: 1.07 Milliarden Farben
Rischtisch. Das 64 Fache 😁
Antwort von roki100:
Programmierer (wie mash_gh4 und ich...) können halt nicht gut im Kopf rechnen, aber einen Rechner programmieren schon... ;)
Antwort von cantsin:
pillepalle hat geschrieben:
roki100 hat geschrieben:
8bit: 16.7 Millionen Farben
10bit: 1.07 Milliarden Farben
Rischtisch. Das 64 Fache 😁
Und das bei nur um 25% erhöhten Speicherbedarf bei unkomprimiertem Material...
Antwort von mash_gh4:
pillepalle hat geschrieben:
Ganz so einfach ist das nicht, denn es sind 4 hoch 3, also 64 mal mehr Abstufungen. Ein Farbton (auch ein Himmel) wird aus allen drei Farbkanälen gebildet.
es ist leider noch viel komplizierter, weil die 8bit vs. 10bit thematik ja fast immer in zusammenhängen diskutiert wird, wo die daten nicht in RGB-form, sondern in YUV bzw. YCbCr beschreibung und zusätzlicher farbunterabtastung und DCT-komprimierung vorliegen.
ich würde dir zwar recht geben, dass eben die quantisierungssprünge in den einzelnen kanälen nicht unbedingt immer zusammenfallen müssen, also eben wirklich etwas anders als nur die diese vierfache anzahl von banding rändern sichtbar wird -- eben diese seltsamen regenbogenartigen farbfehler, die in cantsins beispiel gut hervortreten, aber z.b. auch bei schlechten bildschirmkalibrierungstechniken in ganz ähnlicher weise zu beobachten sind --, trotzdem ist auch das kein 8bit eigenheit, die es bei 10bit nutzung und unzureichender nachbearbeitungs- oder kamerasoftware nicht geben würde...
ich denke, mann sollte die geschichte einfach auseinanderhalten:
fürs ausliefern gibt's ohnehein noch immer keine vernünfdtigen 10bit lösungen, was in der praxis die verwendung von VP9, AV1 od. h.265 vorausssetzen würde, was ja leider im netz noch immer sehr schlecht unterstützt wird.
beim verarbeiten wir man heute ohnehin weit eher auf 32bit float pro kanal setzen und in linearen arbeitsräumen rechnen, wenn man es handwerklich einigermaßen sauber und gemäß dem stand der techniuk abwickeln will. auch hier spielt also 10bit keine rolle.
und was die zulieferung bzw. das material von der kamera betrifft, sind zwar 10bit sicher vorteilhaft, aber durchaus nicht ein derart einschneidender fortschritt, dass es nicht gegenüber anderen faktoren in den hintergrund treten könnte.
Antwort von pillepalle:
@ mash_gh4
Stimmt, noch komplizierter kann man es auch noch immer machen :) Aber vom Sensor bzw. vom Bayer Pattern, kommen ja erstmal immer nur RGB Daten. Hab' in dem Zusammenhang übrigens letztlich erst die Alexa XT BW entdeckt. Die haben tatsächlich eine Schwarz-Weiss Variante der Kamera... ziemlich cool. Kannte ich bisher nur von Stills Kameras :)
https://www.arrirental.com/en/cameras/alexa-xt-b-w
VG
Antwort von DeeZiD:
cantsin hat geschrieben:
pillepalle hat geschrieben:
Rischtisch. Das 64 Fache 😁
Und das bei nur um 25% erhöhten Speicherbedarf bei unkomprimiertem Material...
Jap und selbst bei gleicher Bitrate beim Export aus Resolve in H265 in 8 oder 10 Bit ist der Unterschied teils recht dramatisch - und das selbst auf einem 8 Bit-Endgerät.
Hoffe, dass demnächst Portale wie Vimeo oder YouTube anfangen auch deren nicht-HDR-Material in 10 bit zu speichern, zumal heutige Hardware keinerlei Probleme mehr damit hat und wie gesagt die Bitrate nicht einmal steigen müsste, um teils drastische Vorteile zu sehen.
Antwort von Darth Schneider:
Gutes Video zu diesem Thema,
wobei ich persönlich finde, 10 Bit wird hier schon ein wenig überbewertet.
Klar, 10Bit hat eindeutig mehr Farben und wirkt schärfer, aber ob das nun wirklich so viel schöner ist, am Schluss auf YouTube und Co. ??
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
wobei ich persönlich finde, 10 Bit wird hier schon ein wenig überbewertet.
Klar, 10Bit hat eindeutig mehr Farben und wirkt schärfer, aber ob das nun wirklich so viel schöner ist, am Schluss auf YouTube und Co. ??
Gruss Boris
Für Colorgrading ist es schöner und wertvoller. Nicht 10Bit, sondern 8Bit wird überbewertet.
Antwort von Axel:
iasi hat geschrieben:
Absurd finde ich die Tatsache, dass sich trotz der technischen Entwicklungen hin zu Kameras, die mittlerweile sogar Cine-Raw in Fotokameras ermöglichen, sich Leute immer noch einreden, ihr 8bit, an dem sie sich so festkrallen, würde sich nicht wesentlich unterschieden.
(...)
Eigentlich müsste es ja heißen: Die 8bit Diskussion geht weiter!
Wenn selbst Sony 10bit in ihren Knipsen bietet, ist 8bit doch eigentlich kein Thema mehr.
Hier wird mal wieder gehörig übertrieben.
8-bit ist ein Thema für die, die zufällig gerade 8-bit-Kameras besitzen, aus vielfältigen Gründen. Von denen ist bestimmt Geld der wichtigste, aber nicht zu vergessen Praxistauglichkeit und vorhandene Ökosysteme. Nicht zufällig kommen hier die Youtuber ins Spiel, also die Leute, die weder "für's Fernsehen" noch "für's Kino" filmen. Die Hochzeitsfilmer, aber auch die Messe- und Industriefilmer. Gegenwärtig ist Webtauglichkeit stärker angefragt als mach anderer Aspekt.
Es geht darum zu fragen: muss es mehr als 8-bit sein, wenn 10-bit erhebliche Neuanschaffungskosten bedeuten würden und/oder eine komplette Umstellung? Die Antwort ist, wie bei allem: nein. Tony Northrup befürwortet 8k, sagt aber, dass weniger als drei Prozent den Unterschied zwischen 4k und HD sehen, und weniger als ein halbes Prozent den zwischen 8k und 4k. Er hält sein Studio in HD für nicht umstellungsbedürftig, würde aber jedem, der eine Natur/Tier-Doku machen will, 8k an's Herz legen. So ähnlich muss man es mit den Bittiefen auch sehen.
Das Bessere ist schließlich der Feind des Guten.
So argumentierte bekanntlich auch des Fischers Frau. Sie hatte es schließlich so übertrieben, dass sie bei seiner Heimkehr mit VHS hantierte, mit bis zu 40 Farben pro Videozeile.
Antwort von cantsin:
Axel hat geschrieben:
8-bit ist ein Thema für die, die zufällig gerade 8-bit-Kameras besitzen, aus vielfältigen Gründen. Von denen ist bestimmt Geld der wichtigste, aber nicht zu vergessen Praxistauglichkeit und vorhandene Ökosysteme. Nicht zufällig kommen hier die Youtuber ins Spiel, also die Leute, die weder "für's Fernsehen" noch "für's Kino" filmen. Die Hochzeitsfilmer, aber auch die Messe- und Industriefilmer. Gegenwärtig ist Webtauglichkeit stärker angefragt als mach anderer Aspekt.
Klar. Und in solchen Bereichen ist ja auch eine alte C300 der ersten Generation (=reine 8bit-Kamera) gebraucht für rund 2000 Euro IMHO besser als eine neue A7sIII (ganz zu schweigen von einer EOS-R5) für 4500 Euro und mehr.
Niemand bestreitet das.
Aber wenn es um Anwendungen wie Musikvideo, Indie-/Kurz-Film oder einfach auch nur Postkarten-artige Reisefilme geht (dann mit langen Einstellungen statt Schnitt-Stakkato à la Brandon Li), dann ist der geclippte Videolook ebenso ungewünscht wie geclippte Porträt- oder Landschafts-Fotos. Auch den kann man natürlich in 8bit vermeiden, wenn man Bildprofile wählt, die den Dynamikumfang bei der Aufnahme komprimieren und indem man außerdem seine Motive bzw. Lichtsituationen so aussucht, dass es noch in die Grenzen der Kameraaufzeichnung passt. Aber irgendwann mal kann man sich das Leben mit 10bit und Log auch einfacher machen, zumal es passende Kameras schon ab knapp über 1000 Euro gibt - genauso, als wenn man Ton aufnimmt und dies in 24bit statt 16bit tut (wie es in der Branche auch üblich ist) oder wie man als Schreiber irgendwann mal ASCII und alle seine Tricks, Umlaute in ASCII darzustellen, ASCII sein lässt und gleich in UTF-8 schreibt.
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Ganz so einfach ist das nicht, denn es sind 4 hoch 3, also 64 mal mehr Abstufungen. Ein Farbton (auch ein Himmel) wird aus allen drei Farbkanälen gebildet. Mit dem Argument kann man auch 12 Bit RAW Aufnahmen noch irgendwie in der Post versauen.
Aber mich interessiert diese Diskussion auch immer weniger, denn im Prinzip muss jeder selber wissen, wie er zum Ergebnis kommt und womit er arbeiten möchte. Das was nervt sind nur die Vertreter des einzig wahren Workflows.
VG
Das Stimmt zwar, aber dafür wird ja beim versaubeuteln von 10Bit auch 4x hoch 3 versaubetelt, kommt aufs gleiche raus!
Antwort von nachtaktiv:
cantsin hat geschrieben:
Aber irgendwann mal kann man sich das Leben mit 10bit und Log auch einfacher machen, zumal es passende Kameras schon ab knapp über 1000 Euro gibt
ganz genau. haben is besser als brauchen.
der witz ist ja irgendwie, daß die 8bit kamera sensibler geführt werden muß, um alles raus zu holen ---> profi.
..während der anfänger mit der 10+ bit kiste so manchen fehler viel besser ausbügeln kann, als mit der consumerknipse.
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Aber irgendwann mal kann man sich das Leben mit 10bit und Log auch einfacher machen, zumal es passende Kameras schon ab knapp über 1000 Euro gibt
Du glaubst doch nicht das irgendwelche hipster die sich für 1000€ eine Cam mit 10Bit kaufen, so viel knowhow besitzen um nicht selbst das 10Bit wie 8Bit zu versemmeln?
Filmer die mit 8Bit filmen, filmen doch nicht mit 8Bit weil sie sich nicht eine Cam mit 10Bit leisten können!
Antwort von cantsin:
nachtaktiv hat geschrieben:
der witz ist ja irgendwie, daß die 8bit kamera sensibler geführt werden muß, um alles raus zu holen ---> profi.
..während der anfänger mit der 10+ bit kiste so manchen fehler viel besser ausbügeln kann, als mit der consumerknipse.
Alle diese seltsamen Argumente sind die gleichen, die auch ein Fernsehtechniker zugunsten von 720p, ein alt-Hacker zugunsten von 7bit-ASCII statt 16bit UTF-8 etc. anführen kann. Wirkliche Argumente gibt es nicht außer der Verteidigung des eigenen status quo-Workflows bzw. dem Gefühl, da irgendwie angegriffen zu werden.
Nochmal: Kann mir jemand hier mal zeigen, wie man das von mir eingangs gezeigte Beispielmaterial (bzw. Motiv) in 8bit, mit der extremen Sensordynamik der A7Siii so drehen kann, dass es weder zu Banding, noch zu Clipping kommt?
Selbst in der Fotografie läuft ja mittlerweile der Wechsel von 8bit-JPEG zu 10bit-HEIF aus denselben Gründen.
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Filmer die mit 8Bit filmen, filmen doch nicht mit 8Bit weil sie sich nicht eine Cam mit 10Bit leisten können!
Aber selbstverständlich, wenn man in der Kameraklasse von C100, C200, FS5 etc. unterwegs ist - oder eben bis vor kurzem in der DSLR- und Hybridkameraklasse. Bis vor kurzem war ja noch die GH5 die einzige Hybridkamera, die 10bit konnte (und das mit einem nicht sonderlich guten Codec und noch schlechter geeignetem Log-Profil).
Den Kamerabesitzer möchte ich mal sehen, der beim Kauf verlangt, dass ihm die 10bit in der Firmware gesperrt werden, weil echte Männer nur in 8bit drehen...
Antwort von iasi:
Vor allem ist diese Diskussion sowieso ziemlich überflüssig, da 8bit-Kameras wie HD-Kameras sind - eine aussterbende Art.
Da nun selbst Sony mit der 7SIII zu 10bit gefunden hat, sind nun so ziemlich alle Hersteller angekommen.
Antwort von roki100:
iasi hat geschrieben:
Vor allem ist diese Diskussion sowieso ziemlich überflüssig, da 8bit-Kameras wie HD-Kameras sind - eine aussterbende Art.
Da nun selbst Sony mit der 7SIII zu 10bit gefunden hat, sind nun so ziemlich alle Hersteller angekommen.
Bis FullHD ausstirbt gibt es schon längst 16+K Kameras und in DE, AT & Co. ist der Großteil immer noch nicht mit Glasfaser ausgestattet, so das man Netflix & Co. in 8K immer noch nicht schauen kann... Wenn es so weiter geht vll. im Jahr 2050 - erst dann, wo ein paar mehr tödliche Viren oder verrückte Kriegsmächte unterwegs sind und sowas wie Kameras, TVs & Co. samt K's, völlig irrelevant wird (um Gottes Willen! Hoffentlich nicht....war nur ein Gedanke basierend auf die aktuelle Lage!).
Antwort von Bluboy:
Roki
Die aktuelle Lage hats Dir wohl angetan,
Da möchte ich dich drauf hinweisen, dass die SlashCamer weder eine Infizierung noch eine Flaute kennen,
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Filmer die mit 8Bit filmen, filmen doch nicht mit 8Bit weil sie sich nicht eine Cam mit 10Bit leisten können!
Aber selbstverständlich, wenn man in der Kameraklasse von C100, C200, FS5 etc. unterwegs ist - oder eben bis vor kurzem in der DSLR- und Hybridkameraklasse. Bis vor kurzem war ja noch die GH5 die einzige Hybridkamera, die 10bit konnte (und das mit einem nicht sonderlich guten Codec und noch schlechter geeignetem Log-Profil).
Den Kamerabesitzer möchte ich mal sehen, der beim Kauf verlangt, dass ihm die 10bit in der Firmware gesperrt werden, weil echte Männer nur in 8bit drehen...
Die GH4 konnte 10Bit am HDMI und wer hat es genutzt?
Die FS700 konnte das fürn appel und nei, wollte keiner haben und nun haben seit 2 Jahren erschwingliche Konsumer Cams 10Bit intern, und wer zeigt seinen benefit?
Hier sowieso niemand, war schon immer so, auf YT klatschen alle ihre distructiv lut darüber ohne zu wissen was da passiert und es sieht immer noch aus wie 8Bit, aber alle schwärmen von 10Bit, das ist alles soo albern.
Das ist ähnlich wie mit dem sackteurem Japan Mineralwasser, schmeckt wie Leitungswasser und mußt auch von pinkeln, fühlt sich aber viel cooler an!
Antwort von klusterdegenerierung:
Wer von Euch 8Bit Diskutanten filmt aktuell in 10Bit?
Wer hat schon mal das 8Bit Material seiner 10Bit fähigen Cam gegenübergestellt statt Fotos oder Beisspielvideos aus dem Netz zu fischen?
Wer eine Cam besitzt wie ich, die 8Bit, 10Bit und 14Bit kann, der wird sehr schnell merken, das andere Faktoren viel interessanter sind als banding.
Banding taucht nicht im original 8Bit auf, sondern nur, wenn man es provoziert.
Stattdessen sind Codec/compressions Artefakte und slowmo interpolations rechnenfehler interessant, die tauchen nämlich immer auf und zerstören das Bild.
Genauso wie das Chroma Subsampling, welches immer greift und die Kantenschärfenhomogenität beinflusst.
Wer die Möglichkeit hat Raw oder ProRes HQ gegenüber h264 aufzuzeichnen, der wird bei seinem Material sehr schnell sehen, das es keine fiesen Kompressionsreste etc. mehr gibt die das Bild wesentlich stärker beeinflussen, weil man diese direkt sieht und nicht wie bei Banding erst visualisieren muß.
Banding hat nur der, der banding visualisiert um banding zu dokumentieren.
Antwort von pillepalle:
@ Kluster
Ich :) Aber ich konnte auch in 8bit filmen, als ich nur eine 8bit Kamera hatte. Wenn man allerdings eine Kamera hat die auch 10 oder 12 bit liefern kann, gibt es wenig Gründe noch in 8 bit zu filmen. Vielleicht bei Livestreams, oder wenn es einen schnellen Turnaround braucht. Wer wird sich denn eine Sony A7SIII kaufen und dann noch damit in 8 bit filmen?
Das heisst ja nicht das man in 8 bit nicht trotzdem filmen könnte. Jeder so wie er mag. Clipping hätte man bei Brandon Lis Sonnenuntergängen übrigens auch in 12 oder 16 bit noch gehabt, denn die Sonne clippt immer. Ist aber auch nicht schlimm. Ich verstehe diese Diskussion ohnehin nicht mehr. Wenn man mit seiner Kamera und den Bildern glücklich ist, braucht man sich doch nicht verrückt machen. Wenn einem 8 bit auch reichen ist doch alles gut.
VG
Antwort von Jörg:
Vielleicht kann man die Diskussion etwas versachlichen.
Es wäre angebracht, das 8bit filmen zu untersagen, die restlichen paar Millionen cams zwangsweise
einzuziehen, störrischen Nutzer die bürgerlichen Ehrenrechte ab zu erkennen.
Im Härtefall ist Unterbringung in geschlossenen RAW Umerziehungslägern anzuweisen.
Geht doch, wär ja gelacht
Antwort von pillepalle:
@ Jörg
In iasis Welt durchaus denkbar :)
VG
Antwort von Jott:
Für die Arri Amira kann man gegen Aufpreis (!) einen 8Bit-Codec haben. Die Welt ist verrückt, nicht wahr? Einen Social Media-Shitstorm gegen Arri loszulassen wäre echt angebracht.
Würde man in historischer Manier als erzieherische Maßnahme eine vom Forenvolk bejubelte Kameraverbrennung organisieren (wegen der Akkus vielleicht besser plattwalzen) und alle 8Bit-Kameras vernichten - auch alle, die einen 8Bit-Codec zur Auswahl an Bord haben, mit dem ja heimlich mal ein Vortrag oder so was gefilmt werden könnte - dann bleibt nicht viel übrig. Nicht mal Broadcast-Kameras. Das, was übrig bleibt, wird dann von Iasi weiter aussortiert, dem das meiste davon - oder sogar alles - auch nicht schmecken wird. Und falls doch, ist es zu teuer.
Das Ende des Filmens.
Edit: ah, Jörg hatte schon in die gleiche Richtung gedacht.
Antwort von Funless:
Ich persönlich hatte bisher nie Probleme mit den Aufnahmeergebnissen meiner ausschließlich in Nutzung befindlichen 8Bit Kameras. Mir ist noch kein Banding begegnet, selbst im äußerst verpönten Sony 8Bit s-log2 nicht mit dem ich zusehends immer mehr und mehr filme. Gut, mag vielleicht auch daran liegen, dass meine Nachbearbeitungsorgien stark begrenzt sind, da kein Bedarf bei mir nach "mehr", bin aber auch kein Experte. Bin für mich mit meinen Ergebnissen zufrieden und das ist m.E. auch das wichtigste.
Das Clipping Thema finde ich persönlich extrem überbewertet, wie open von pillepalle völlig richtig angemerkt, clippt die Sonne immer und das ist IMHO auch gut so, denn ich fände es äußerst unheimlich wenn irgendwann einmal auf einer Aufnahme einer prosumer Kamera die Sonne nicht mehr clippt, dann hätten wir nämlich dringendere Probleme als Clipping und Banding. ;-)
Darüber hinaus begegnen mir selbst in Millionen Dollar teuren Hollywood Produktionen andauernd clippende Bereiche im Bild, somit scheint es den dortigen Filmemachern entweder nicht zu stören oder sie sehen andere Prioritäten für ein gutes Bild. Ich persönlich bin der festen Überzeugung, dass Clipping eher ein in Internetforen ansässiges und aufgebauschtes Problem ist.
Ich behaupte nicht, dass 10Bit und mehr per se unnötig wäre, nur dass es mit 8Bit (auch mit log-profil) unmöglich sei gute Bilder hinzubekommen dem stimme ich nicht zu.
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Wenn man allerdings eine Kamera hat die auch 10 oder 12 bit liefern kann, gibt es wenig Gründe noch in 8 bit zu filmen.
Siehst Du Pille und das ist genau das was ich meine, man sieht das banding nicht weil man nicht in 8Bit sondern 10Bit filmt, sondern weil man immer in 10Bit filmt und nicht mehr überprüft bzw realisiert und sieht, das es mit 8Bit genauso wenig vorhanden wäre, wenn man es nicht provoziert.
Banding ist nicht im footage, banding sitzt vor dem Rechner!