weil er Physiker ist, hohen Anspruch an sein Werk hat, einfach keine larifari Vermutungen, undwarum auch immer.
Besserwissereien duldet.
Ganz einfach.
Einer der Abgänge hier, die schmerzen.
weil er Physiker ist, hohen Anspruch an sein Werk hat, einfach keine larifari Vermutungen, undwarum auch immer.
Getrickst und gerechnet wird da gar nichts, man legt nur UHD-Material in eine HD-Timeline. Ein ganz normaler alltäglicher Vorgang ohne jeden Geheimtrick.iasi hat geschrieben: ↑So 23 Jun, 2019 16:34Das ist dann wohl echtes Fix-it-in-Post.
Weil´s bei der Aufnahme nicht zu etwas Besserem reicht, muss eben in der Post getrickst und gerechnet werden.
Die Nikon Z6 kann doch via HDMI 10bit 4:2:2 ausgeben. Also warum nicht einen ordentlichen Rekorder dran und das bestmögliche Signal aufzeichnen?
Ist das so?Jott hat geschrieben: ↑So 23 Jun, 2019 20:54iasi hat geschrieben: ↑So 23 Jun, 2019 16:34Das ist dann wohl echtes Fix-it-in-Post.
Weil´s bei der Aufnahme nicht zu etwas Besserem reicht, muss eben in der Post getrickst und gerechnet werden.
Die Nikon Z6 kann doch via HDMI 10bit 4:2:2 ausgeben. Also warum nicht einen ordentlichen Rekorder dran und das bestmögliche Signal aufzeichnen?
Die Frage im Hintergrund: wenn HD das Ziel ist - und eben kein UHD-Master - wozu das Gefummel mit externem Recorder, wenn man keinen Unterschied sieht?
warum Abgang?
Ich war halt vom in der Kamera downgescalten 4K-Signal am HD-Video-Assist echt sehr positiv überrascht. Und dieses DNxHD-Signal mit Intraframes, hoher Datenrate und 4:2:2 lässt sich am Mittelklasse-PC mit Premiere CC richtig gut bearbeiten. Besser als internes 4K-Long-GOP, dass dann nachdem einige Effekte draufliegen wirklich Performance braucht und eigentlich nur auf 4:2:0 fusst.
So viel zum Thema Groschen:Jott hat geschrieben: ↑Mo 24 Jun, 2019 19:40 Im Netz - nämlich hier weiter oben - steht auch: einfach in eine entsprechende Timeline werfen. Würde ich jetzt nicht unbedingt als komplex bezeichnen.
Aber ich denke, der Groschen fällt nicht, daher gerne den DNxHD-Weg gehen mit externem Hardware-Aufwand. Braucht in der Tat weniger Rechenpower.
Kannst Du mir vielleicht trotzdem mit ein paar Links helfen, mit Erklärungen, die diesen Denkfehler aufdecken oder nachvollziehbar beschreiben, wie die zusätzlichen Abstufungen für 10bit sinnvoll gefüllt werden? Kann verstehen, dass diese Geschichte für viele ein alter Hut ist (oder vielleicht auch ein rotes Tuch ;-) Nichts für ungut..
Bin doch noch nicht ganz in die Praxis verschwunden.. Was war das für ein Beispiel?dienstag_01 hat geschrieben: ↑Mo 24 Jun, 2019 23:45 Srone hat da ein einfach zu verstehendes Beispiel gebracht.
Seite 4, ganz unten.Seba Peh hat geschrieben: ↑Mo 24 Jun, 2019 23:58Bin doch noch nicht ganz in die Praxis verschwunden.. Was war das für ein Beispiel?dienstag_01 hat geschrieben: ↑Mo 24 Jun, 2019 23:45 Srone hat da ein einfach zu verstehendes Beispiel gebracht.
Danke.. das mit dem Draht vor blauem Himmel.. ist das anschaulichste Beispiel, das ich gelesen habe. Diesen Fehler nimmt man dann wohl aber in Kauf um bessere Verläufe darstellen zu können.
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.Seba Peh hat geschrieben: ↑Di 25 Jun, 2019 10:07Danke.. das mit dem Draht vor blauem Himmel.. ist das anschaulichste Beispiel, das ich gelesen habe. Diesen Fehler nimmt man dann wohl aber in Kauf um bessere Verläufe darstellen zu können.
Und solche Ungenauigkeiten würde es bei Downscaling ohne 10bit ja sicher auch geben.. ich glaub der Groschen ist gefallen ;-)
Ist nur krass, was darüber für Kriege geführt wurden..
Ich habe hier nicht alles gelesen, trotzdem mal eine Anmerkung zu deiner Aussage, so wie ich es als Laie verstehe:srone hat geschrieben: ↑So 23 Jun, 2019 16:47das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
So würde ich das auch sehen. Eben mit der Ergänzung, dass es eher schädlich ist Luminanzauflösung zu verlieren, also nur noch FHD statt 4K zu haben, weil man damit auch Farbdifferenzierungen verliert. Bis zu dem Punkt aber, bei dem man eh keinen Unterschied beim Luminanzauflösungsverlust sieht, dürfte es aber egal sein.dienstag_01 hat geschrieben: ↑Di 25 Jun, 2019 10:42
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Schon dieser einfachen Erkenntnis ist hier nicht jedermann gewachsen ;)
So ist es. Downscaling ist immer Informationsverlust.Frank B. hat geschrieben: ↑Di 25 Jun, 2019 10:53Ich habe hier nicht alles gelesen, trotzdem mal eine Anmerkung zu deiner Aussage, so wie ich es als Laie verstehe:srone hat geschrieben: ↑So 23 Jun, 2019 16:47
das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
Wie soll man das sonst machen, dass man die vier Farbwerte von vier Pixeln auf ein Pixel bringt? Für mich ist das keine Frage der Falschfarbe, sondern eine Frage des Detailverlustes, aus dem sich die Reduktion der Farbdetails ergibt. Du kannst das Ganze ja auch solange fortsetzen, bis du nur noch ein Pixel hast und das birgt dann den Durchschnittsfarbwert des gesamten Bildes in 4K in sich. Das ist dann keine Falschfarbe, sondern einfach nur eine Farbfläche, die sich aus allen Farbabstufungen zusammenrechnet und keine Detailstruktur mehr hat. Wenn man davon ausginge, dass man die vier Pixel der ursprünglichen 4K Aufnahme sowieso nur als ein Pixel wahrnehmen könnte (physikalisches Auflösungsvermögen des Auges), dann sieht man auch den einen schwarzen Punkt in drei hellblauen nicht. Das Ganze wird dann eh als Farbgemisch wahrgenommen und zwar auch aus allen anderen den schwarzen Punkt umgebenden Punkten. Von daher wird diese Abgenzung sowieso auch hier als etwas dunkleres Blau wahrgenommen werden. Es ist also für mich nicht die Frage der Falschfarbendarstellung sondern die Frage, bis wohin es sich lohnt, ein Bild in der Luminanzauflösung einzudampfen, dass es noch genauso detailiert wahrgenommen werden kann wie das Origninal.
So würde ich das auch sehen. Eben mit der Ergänzung, dass es eher schädlich ist Luminanzauflösung zu verlieren, also nur noch FHD statt 4K zu haben, weil man damit auch Farbdifferenzierungen verliert. Bis zu dem Punkt aber, bei dem man eh keinen Unterschied beim Luminanzauflösungsverlust sieht, dürfte es aber egal sein.dienstag_01 hat geschrieben: ↑Di 25 Jun, 2019 10:42
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Schon dieser einfachen Erkenntnis ist hier nicht jedermann gewachsen ;)
Genau DAS. Um es noch präziser auszudrücken: "keine ZUSÄTZLICHEN Informationen". 8bit bedeutet halt 256 darstellbare Farben. 4 Pixel --> 1 Pixel bedeutet nicht 10 bit. Woher sollen die Informationen hierfür urplötzlich herkommen? 10bit bedeutet 1024 darstellbare Farben.
Warum werden Effekte und Farbkorrekturen am besten in 32bit Floating Point berechnet, auch bei 8bit Ausgangsmaterial? Weil natürlich Ergebnisse entstehen können, die außerhalb das 8bit Rasters liegen, vor allem bei mehreren Effekten übereinander (Stichwort Rundungsfehler). Es werden also die einzelnen Zwischenergebnisse pro Node oder nach jedem Effekt in 32bit FP gespeichert. (Zum Schluss wird das wieder in 8bit umgewandelt.)Cinealta 81 hat geschrieben: ↑Di 25 Jun, 2019 12:31Genau DAS. Um es noch präziser auszudrücken: "keine ZUSÄTZLICHEN Informationen". 8bit bedeutet halt 256 darstellbare Farben. 4 Pixel --> 1 Pixel bedeutet nicht 10 bit. Woher sollen die Informationen hierfür urplötzlich herkommen? 10bit bedeutet 1024 darstellbare Farben.
8bit 4k in einer FHD Timeline KANN NICHT 10bit werden - weil es die Informationen für 10bit gar nicht gibt. Dass durch das "Von-4-mach-1" der Editiervorgang hinsichtlich Farbartefakte möglicherweise "smoother" verläuft, könnte zutreffen. Das 10bit-Märchen nicht. Auch wenn man hierzu 1.000 Links als "Beweis" aufführt. Wenn 1.000 Mann Unsinn behaupten, dann wird die Behauptung nicht zur Wahrheit.
Oder haben sämtliche (verwirrte) Nostradamus-Verschwörungstheoretiker Wissenschaftler-Status?
Wenn man 4 Wodka-Falschen mit jeweils 40% Alkoholgehalt mischt, wird nur der Geschmack des Endproduktes anders. Es sind und bleiben 40% Alkoholgehalt.
--> ...zwar zum Leidwesen vieler Wodkatrinker, denen eine Summation lieber wäre, aber der Alkohol wird nicht mehr... <--
Bitte zu bedenken, dass - aus eigener Erfahrung - 4k 4.2.0 in einer FHD 10bit Timeline tatsächlich weniger Müll bei der Ausgabe produziert. Aber nicht wegen der 10bit-Legende.
Das kommt noch erschwerend hinzu. "Aufbereitet" würde ich aber eher zu kaputtkomprimiert/kaputtinterprätiert umwandeln.mash_gh4 hat geschrieben: ↑Di 25 Jun, 2019 12:43 wie üblich wird hier wieder der umstand ausgeklammert, dass das 8bit ausgangsmaterial in vielen fällen durch 'dithering' in der kamera bereits in einer weise aufbereitet wurde, die detailierte farbabstufungen, wenn auch nur mit geringer spatialer auflösung, ermöglicht. dieser umstand macht sich natürlich auch beim skalieren deutlich bemerkbar.
Immer locker bleiben. Ich wiederhole mich nur ungern, aber Unsinn wird auch durch ständige Wiederholung nicht wahr. ;-)
nein -- dem dithering ist es zu verdanken, dass man bei guten kameras auch im falle von 8bit material praktisch kaum mehr mit banding artifakten konfrontiert ist, während das mit deutlich professionellerem ausgangsmaterial, wenn es ohne entsprechende vorkehrungen abschließend in 8bit ausgeliefert, übertragen oder angezeigt wird, leider sehr oft der fall ist. leider ist fast alle post-produktions-software in dieser hinsicht den entsprechenden lösungen in den kameras deutlich unterlegen.Cinealta 81 hat geschrieben: ↑Di 25 Jun, 2019 12:50Das kommt noch erschwerend hinzu. "Aufbereitet" würde ich aber eher zu kaputtkomprimiert/kaputtinterprätiert umwandeln.mash_gh4 hat geschrieben: ↑Di 25 Jun, 2019 12:43 wie üblich wird hier wieder der umstand ausgeklammert, dass das 8bit ausgangsmaterial in vielen fällen durch 'dithering' in der kamera bereits in einer weise aufbereitet wurde, die detailierte farbabstufungen, wenn auch nur mit geringer spatialer auflösung, ermöglicht. dieser umstand macht sich natürlich auch beim skalieren deutlich bemerkbar.
Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)Cinealta 81 hat geschrieben: ↑Di 25 Jun, 2019 12:55Immer locker bleiben. Ich wiederhole mich nur ungern, aber Unsinn wird auch durch ständige Wiederholung nicht wahr. ;-)
Es ist schon merkwürdig: Die Menschen glauben zunehmend an Magie - NLE macht aus 256 urplötzlich 1024. Es gibt keine Magier, es gibt Illusionisten. Und deren Masche besteht darin, vom faktisch Wesentlichen abzulenken - um "Magie" anzuwenden.
Was eine NLE macht ist (bezogen auf diesen Diskussionspunkt) unerheblich. Erheblich ist die Aufnahme in 8bit. Und DIESE enthält Farbinformationen für lediglich 256 Farben. Und da kann sich die NLE "verrenken" wie sie will, die Infos für 10bit (1024) sind einfach nicht da. Wie und Was eine NLE in vorhandenem Material rechnet und interpretiert, ändert NICHTS an der Tatsache, dass eine erhebliche Lücke zw. 8bit- und 10bit-Farbinfos klafft.dienstag_01 hat geschrieben: ↑Di 25 Jun, 2019 13:13 Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)
Dir fehlt augenscheinlich jede Lesekompetenz.Cinealta 81 hat geschrieben: ↑Di 25 Jun, 2019 13:43Was eine NLE macht ist (bezogen auf diesen Diskussionspunkt) unerheblich. Erheblich ist die Aufnahme in 8bit. Und DIESE enthält Farbinformationen für lediglich 256 Farben. Und da kann sich die NLE "verrenken" wie sie will, die Infos für 10bit (1024) sind einfach nicht da. Wie und Was eine NLE in vorhandenem Material rechnet und interpretiert, ändert NICHTS an der Tatsache, dass eine erhebliche Lücke zw. 8bit- und 10bit-Farbinfos klafft.dienstag_01 hat geschrieben: ↑Di 25 Jun, 2019 13:13 Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)
Keine Frage, gute Software und/oder AI werden die Lücken (zumindest wahrnehmungstechnisch) zunehmend schließen. Aber nicht vorhandene Information ist einfach...nicht vorhanden. Der Rest ist Interpretation - mehr oder weniger akkurat.
8bit und 10bit sind ganz genau definiert. Da gibt es keinen Raum für Interpretation. Es sind Zahlen.
Der Magier-Trick. Mit Wortklauberei vom Wesentlichen ablenken: Sie sagen doch selbst "Das sind nicht die 10bit einer 10bit Aufnahme" und mir nachher mangelnde Lesekompetenz vorzuhalten...sauber. ;-)
Zahlen?Cinealta 81 hat geschrieben: ↑Di 25 Jun, 2019 14:31Der Magier-Trick. Mit Wortklauberei vom Wesentlichen ablenken: Sie sagen doch selbst "Das sind nicht die 10bit einer 10bit Aufnahme" und mir nachher mangelnde Lesekompetenz vorzuhalten...sauber. ;-)
Es tut allgemein nichts zur Sache, aber ich habe einen nicht schlechten Hochschulabschluss in Elektrotechnik und habe einige Jahre in der Optoelektronik-Branche gearbeitet. Aber damals waren Zahlen noch Zahlen und Axiome Axiome. "Beweise" mittels kaskadierender Verlinkung von einer beliebigen/unreflektierten Behauptung zur anderen (immer abstruser werdend), waren zu meiner aktiven Studienzeit und anschließender Ingenieurtätigkeit nicht das Mittel der Wahl. Dafür wäre man gefeuert worden. Damals...
Ich sage es doch: Fakten und Zahlen sind out, "magical moments" und "creative interpretation" sind in. :-)
Wie heutzutage üblich, eine reine Glaubensfrage - meint man.