WoWu hat geschrieben:
Und ich kann auch nicht so ganz das Gerede über BLUR nachvollziehen.
Blur wird entweder generell als Effekt (z.B. auch im Glow) genutzt oder "versteckt" sich grob gesagt als Filter in Transformationen, Resizing und vielem Anderen und ist einer, bei dem zusätzliche Bittiefe viel bringen kann.
Zudem kann man eben bei gerade niedrigen Bittiefen auftretendem Banding (wie bereits vor Ewigkeiten gesagt, passiert das auch in hohen Bittiefen) dieses korrigieren.
Es ging ja letztlich hier darum, BANDING zu bekämpfen.
Es macht halt oft die Kombination aus verschiedenen Effekten aus und ist nicht undbedingt auf eine einzelne Rechnung rückführbar.
Beim beliebten DOF existieren sehr unscharfe Bereiche, die mitunter schnell auseinanderfallen.
Hier einen Blur (oder korrekteren Defocus) drüberzuziehen hilft dann enorm, ohne die vorhandene Bildinformation sonderlich zu (zer)stören.
Und das wir in der Post Probleme fixen ist ja nichts Neues und hat nicht unbedingt etwas mit schlechtem Workflow zu tun.
(wobei man durchaus ein 8bit Quellformat als schlechten Workflow bezeichnen könnte...)
Ehrlich gesagt, ermüdet mich die Diskussion hier, da wir uns arg im Kreis drehen.
Ich könnte wieder auf eine Reihe Comments eingehen, aber die Texte werden hier immer länger...
Ich rede hier auch schon seit mehreren Posts davon, daß ich mich nicht dem Original nähere oder "verlorengegangene Farbabstufungen wiederfinde", warum wird das noch immer erwähnt?
Das Ganze ist auch nicht auf VFX beschränkt, man kann das garnicht mehr so abtrennen, denn vor allem im Semipro und Amateurbereich finden beim Editing auch viele Berechnungen statt, bei denen die Bittiefe relevant ist.
Ganz zu schweigen von Pro-Cuttern, die ihre neuen Plugins zum Besten geben...
Ich cutte seit Ewigkeiten selbst auch und sehe hier genau die Problembereiche.
Nicht zuletzt bieten ja NLE's jede Menge Filter und andere Effekte an (ja selbst ein Overlay), die im Grunde dann schon in den Bereich VFX einzuordnen wären.
(Stichwort eierlegende Wollmilchsau)
WoWu hat geschrieben:
Enrico hat geschrieben:Wenn man NUR in 8bit arbeitet, fehlen die eben genannten feineren Farbabstufungen, der Rechenprozess nimmt grobere Werte, rechnet in groben Abstufungen, somit sind auch die Ergebnisse grob.
Vielleicht vergisst Du, dabei, dass die "feinen Abstufungen bereits im Originalsignal vom Sensor (12-14 Bit) vorgelegen haben und dass die entstandenen 8 Bit das Resultat dieser "feinen Abstufung" ist.
Das vorliegende Material, mit dem wir nun arbeiten ist in 8 Bit.
Wie und woraus es gewonnen wurde, ist absolut unerheblich.
Die neuen Abstufungen haben doch keine Korrelation zu denen, die vor dem Erstellen des 8Bit Bildes existierten.
(wenn man auch genau genommen, zumindest Teilweise diese rückrechnen/interpolieren könnte, so ist es doch nicht das, was ich sage!!)
Ich glaube hier ist ein Grundsätzliches Verständnisproblem, das möglicherweise auch aus Vermengung von verschiedenen technischen Ansätzen, Informatik und Bildverarbeitung herrührt.
(wir reden mittlerweile einfach von zu vielen unterschiedlichen,wenn auch mit einander verbundenen Dingen und mit jedem neuen Post wird der Wust immer größer)
WoWu hat geschrieben:
Dass also solche Abstufungen nicht erst durch die Rechnung im NLE entstehen.
Wenn also das 8 Bit Signal einer Kamera bereits das feinstmögliche Resultat einer Unterabtastung sind, warum sollten eine künstliche Verfeinerung der Schritte und eine erneute anschliessende Rückwandlung zu 8 Bit diese Ergebnisse verbessern ?
Das 8bit Resultat aus der Kamera ist das feinstmögliche, aus dem Bildgewinnungsprozeß(inkl.des oft enormen komprimierens), NICHT aus dem nun in der Post folgenden Bearbeitungsprozeß!!!
Denn sehr wohl, wie ich bereits ausgeführt hatte, fügen Berechnungen potentiell neue Farbabstufungen hinzu (die noch nichteinmal in der Kamera aufgenommen wurden, da dort die jetzige post Berechnung nicht angewendet wurde)
Dies ist wie gesagt, keine neue Bildinformation, sondern feine Berechnungsinformation und hat auch NICHTS mit den realen Gegebenheiten zu tun, die aufgenommen oder aus optisch/technischen Gründen nicht aufgenommen werden konnten!
Warum Du die Kamera nun beimengst und dieses ewige Mißverständnis um die "magische" Erzeugung von Bildinformation, das ich zig mal geklärt habe, noch immer erwähnt wird, ist mir schleierhaft.
Auf Deine Comments zum Codec möchte ich nun nicht eingehen, da auch dies,wie ich bereits gesagt habe von den (Effekt-)Berechnungen und den Bittiefen getrennt zu sehen ist und nur noch mehr Textlänge brächte.
Nur soviel:
WoWu hat geschrieben:
EnricoPerei hat geschrieben:
In diesem Zusammenhang sollte auch erwähnt werden, daß übliche Videocodecs zum Schneiden eigentlich ungeeignet sind, da unter anderem (grob ausgedrückt) Einzelbilder erst aus den Keyframes und Motionvektoren etc. errechnet werden.
(übrigens, auch hier ist interne Bittiefe von Bedeutung)
Was willst Du uns damit sagen ... keinen Codec zu benutzen oder alles als aus Komputeranimation zu machen ?
Leider leben wir in einer Welt der Datereduktion und ob wir Qualität beim Schnitt durch die Wandlung verlieren oder bereits bevor wir mit dem Schnitt beginnen, in einer Wandlung, ist eine Frage des geringeren Übels.
...ehrlich?
Weißt Du echt nicht, was ich damit meinte, obwohl ich es auch noch ausgeführt hatte oder füttere ich den Troll?
Scrubbe mal einen üblichen Codec oder springe zu einem Frame.
Du wirst (vor allem bei höheren Datenraten/Auflösungen) Ruckler feststellen, die unter Anderem daher kommen, weil das System erst aus den Keyframes und anderen Informationen das Bild ERRECHNEN muß.
(Je besser der Rechner, desto schneller passiert das natürlich...)
Liegen die Sequenzen als Einzelbilder vor, müssen sie nur geladen und ggf.decodiert werden, ergo besser geeignet zum editieren.
Zudem wird durch das Speichern in Einzelbildern der ganze Kompressionsmüll über Motionvektoren,GOPs Keyframes etc. umgangen.
MJPEG beispielsweise ist ein älterer Video Codec, um zumindest dies zu umgehen.
...und in der Tat sollten diese Einzelbilder als lossless compressed oder
uncompressed (eigentlich unnötig) vorliegen.
Dies ist nunmal ein wichtiger Punkt, um ab(!) dem Capturen,schon beim Speichern von der Kamera, in lossless compressed Einzelframes die bestmögliche Qualität zu erhalten.
Nur so erhält man die zumindest technisch bestmöglichen Bilder, von denen Du, ja wir alle sprechen.
Nur so funktioniert das im wirklich professionellen Workflow.
Natürlich wird das bereits Codec komprimierte Material nicht besser, wenn man es nun als Bildersequenz speichert.
Ich habe auch nicht gesagt, daß man seine iPhone Clips so speichern soll, obwohl es dem Gurkenmaterial auch nicht schaden kann...
...ernsthaft, wo sind wir hier?
Noch habe ich gesagt, daß dies bei weniger anspruchsvollem Zielformat gemacht werden soll, aber höhere Bittiefen sind nunmal ein Faktor zu höherer Qualität, unabhängig ob es ein Amateur, Semipro oder Profi macht.
Mit "lossless" ist natürlich gemeint, daß mathematisch keine Information verlorengeht, im Gegenteil zu lossy compression.
Im übrigen meinte ich, daß der Bildqualitätsgewinn, den wir bei hohen Bittiefen unter Umständen bekommen durch den bei Youtube verwendeten Codec untergeht, da dieser weitaus schlimmere Dinge mit unserem Material macht.
...und mir wurde vorgeworfen, nicht richtig verstanden/gelesen zu haben...
Ich wollte doch nicht Codecs dissen, entschuldige, wenn ich Dir zu nahe getreten bin.
Bin weder Gegner noch verfechter von Codecs.
Sie sind oft nötig, man muß aber auch wissen, dass jeder noch so großartige (auch egal in welcher Bittiefe) lossy Codec (auch der von Red) Originalinformation zerstört und eine mehr oder weniger akkurate Schätzung darstellt.
Sorry, das ist nunmal eine RICHTIGE Aussage.
Meine Güte....
WoWu hat geschrieben:
Du gewinnst keine neuen, zusätzlichen Signalwerte. Es ist die identische Menge, wie bei der ersten Wandlung von 12-14 Bit nach 8 Bit.
Es ist eine ganz andere(!) Datenmenge, denn durch Berechnung verändere/verschiebe ich,füge hinzu/nehme weg
Da nur 8bit vorliegen hat der Algorithmus natürlich auch keine Kenntnis über die in der Kamera vorliegenden Daten und "Rückberechnet" die auch nicht.
Und nochmal, Du gewinnst neue Signalwerte, da Deine mathematische Operation Dein Signal verändert und dieses dann beim Wechsel in niedrigere Bittiefe "neu abgetastet" wird.
...nun habe ich mich doch wieder zu einzelcomments hinreißen lassen (; und es ist für mein Geschmack wieder viel zu viel Text entstanden...
...ich lasse es lieber...
...und entschuldige mich für den uninteressanten Roman
Bei dem ganzen hin und her sind wir noch nichteinmal richtig auf float eingeganen, bei dem ein noch größerer Farbspielraum für die Post(berechnungen) entsteht und welcher unter anderem auch clippingprobleme(nur bei Berechnungen, NICHT beim Capturen) meist löst.
Denn um es nochmal zu sagen, 32bit float ist momentan die Bittiefe in der Post stattfinden sollte.
Warum und überhaupt, daß ich diese Grundregel der Postproduction hier teilweise verteidigen/rechtfertigen muß entzieht sich meinem Verständnis und ich habe auch keine Lust mehr darauf !
Ich bin ja nun wirklich nicht der Bittiefenhüter der Welt.
Bei wem sein bisheriger Workflow funktioniert der kann das doch BITteschön auch so weitermachen.
Wir sind hier ohnehin derart in die Metaphysik der mathematischen Esoterik abgerutscht, daß man vergessen hat, daß die meisten, die nicht vom Fach sind und die klötzchenkomprimierte Videos auf ihrem Handy anschauen sich fragend an den Kopf fassen, was das denn für eine Obsession ist, der wir frönen...
Ich schau' mir jetzt erstmal Katzenvideos an...