Es beschwert sich ja keiner über die Umwandlung, sondern nur über den Mythos/Blogger-Hype, dass bei dieser Umwandlung eine signifikant größere Farbtiefe entsteht.TheBubble hat geschrieben: Es gibt so viele Dinge, über die man sich zu Recht beschweren darf, die beschriebene Umwandlung ist da allerdings noch das allerkleinste Problem.
Ich nehme an, Du meinst eine Art Schachbrettmuster? Klar, das führt zu mittelgrauen Werten. 1,0,1,0, ... wird halt zu 0.5,0.5. 0, 1, 1, 0, ... ebenfalls.WoWu hat geschrieben: Aber bleiben wir bei einem Lumabeispiel, weil Du immer auf die Geringfügigkeit der Farbe abhebst.
Denk Dir ein Pepitamuster aus abwechselnd schwarzen und weißen Pixels.
Du hast Göeichgewichtung angenommen ... Das bedeutet, dass Du mit der ersten Unterabtastung ein schlicht graues Bild hast.
Eigentlich nein, denn das Ergebnis soll ja nur die halbe Auflösung haben. Da dürfen feine Linien oder Punkte durchaus zu einem Grauwert verschmelzen.WoWu hat geschrieben: 4:4:4 würde aber die Rekonstruktion von je zwei weißen und je zwei schwarzen Pixels bedeuten .... Und dann noch an den richtigen Plätzen !!!!
WoWu hat geschrieben:4:4:4 würde aber die Rekonstruktion von je zwei weißen und je zwei schwarzen Pixels bedeuten .... Und dann noch an den richtigen Plätzen !!!!
Nicht die halbe, sondern nur die viertel Auflösung.TheBubble hat geschrieben:Eigentlich nein, denn das Ergebnis soll ja nur die halbe Auflösung haben. Da dürfen feine Linien oder Punkte durchaus zu einem Grauwert verschmelzen.
Halbe Aufloesung ist schon richtig, das entspricht einem Viertel an Pixeln.Axel hat geschrieben:Nicht die halbe, sondern nur die viertel Auflösung.TheBubble hat geschrieben:Eigentlich nein, denn das Ergebnis soll ja nur die halbe Auflösung haben. Da dürfen feine Linien oder Punkte durchaus zu einem Grauwert verschmelzen.
???TheBubble hat geschrieben:Halbe Aufloesung ist schon richtig, das entspricht einem Viertel an Pixeln.Axel hat geschrieben:Nicht die halbe, sondern nur die viertel Auflösung.TheBubble hat geschrieben:Eigentlich nein, denn das Ergebnis soll ja nur die halbe Auflösung haben. Da dürfen feine Linien oder Punkte durchaus zu einem Grauwert verschmelzen.
Im Gegenteil: Jeder Hersteller, der auch 4:4:4 Kameras produziert, würde diese Info unterschlagen. Auch ist bekannt, dass bei Consumer-Geräten die Leistung künstlich beschnitten wird, um hohe Preise beim Profi-Equipment durchsetzen zu können.WoWu hat geschrieben:Wenn eine Kamera 4:4:4 bei HD macht, kannst Du ein EI darauf backen, dass das in BILDZEITUNGSLETTERN auf jeder Verpackung stünde.
Das könnte slashCAM-Mitglied Tiefflieger nur bestätigen. Sein kleiner Panasonic-Fäustling schießt schon seit Jahren 8k-Videos, dank 3-Chip-Technologie sogar eigentlich in 444.Bommi hat geschrieben:Im Gegenteil: Jeder Hersteller, der auch 4:4:4 Kameras produziert, würde diese Info unterschlagen. Auch ist bekannt, dass bei Consumer-Geräten die Leistung künstlich beschnitten wird, um hohe Preise beim Profi-Equipment durchsetzen zu können.WoWu hat geschrieben:Wenn eine Kamera 4:4:4 bei HD macht, kannst Du ein EI darauf backen, dass das in BILDZEITUNGSLETTERN auf jeder Verpackung stünde.
Eigentlich doch, es war nur -zugegebener Massen- etwas zu verkürzt ausgedrückt.Eigentlich nein, denn das Ergebnis soll ja nur die halbe Auflösung haben. Da dürfen feine Linien oder Punkte durchaus zu einem Grauwert verschmelzen
da in diesem einen pixel, von dem da nach der verkleinerung die rede ist, genau die farbinformation enthalten ist, egal ob von vier punkten mit 4:4:4 ausgangsbasis od. einer homogenen 4x4 pixelfläche im 4:2.2 material herunterskaliert wird, sind deine bedenken hinfällig. zumindest spielen sich alle damit verbundenen möglichen unterschiede in einem bereich ab, der noch vernachlässigbarer sein dürfte als jene feinen unterschiede, die auch noch einigermaßen angemesse algorithmen zur bildverkleinerung jeweils untereinader unterscheiden. die art und weise der konkret genutzetn farbkodierung und deren bezugsysteme dürfte dabei jedenfalls einen größeren unterschied ausmachen als dieser kunstgriff des 'nicht(!)-mitskalierens' (siehe: http://ninedegreesbelow.com/photography ... blend.html)WoWu hat geschrieben:Wenn aus 4 Farben eines 4:4:4 abgetasteten Bildes nur noch eine Farbe bei 4:2:2 wird, hat bereits ein nicht mehr reversibler Prozess stattgefunden, denn eine Rückführung auf 4:4:4 würde bedeuten, dass diese entstandene Fehlfarbe (denn die gibt es im Kameramild ja gar nicht) zurückverwandelt wird in ihre 4 Ausgangsfarben.
Du behauptest aber dass die Fehler einer Unterabtastung durch eine zweite Unterabtastung aufgehoben werden, also aus 4:2:2 wieder 4:4:4 wird und damit die Fehlfarbe wieder in die Ausgangsfarben reproduziert wird.
Es handelt sich um die falsche Farbe, die in der ersten Unterabtastung entstanden ist und das ist von hoher Relevanz beim z.B. beim Key.zumindest spielen sich alle damit verbundenen möglichen unterschiede in einem bereich ab, der noch vernachlässigbarer sein dürfte
Wenn Fehlfarben zu "mehr Farbinformation" führen und deswegen das Keying nicht funktioniert, kann man darüber reden ob so ein künstliches "Tintin" dazugehört. Hier reden wir aber über die Rekonstruktion der Farben, die durch das Objektiv aufgenommen wurden und nicht um die Farben, die bei Interpolationen als Mischfarben entstanden sind.und deshalb eben, relativ betrachtet, mehr farbinformation bezogen auf die resultierende bildgröße erhalten bleibt
Halbwissen also ... daraus entstehen dann solche Behauptungen, die man hinterher nicht belegen kann.man braucht das auch nicht unbedingt im detail verstehen
nein! -- es ist einfach nur so als würde ich ein schwarzweißbild so vergrößern, dass im ergebnis jeweils vier benachbarte pixel die gleiche farbe zeigen, wo ursprünglich nur ein pixel den betreffenden grauwert enthalten hat (ungefähr so ist eben auch die farbinformation in einem digitalen videobild 'unterabgetastet' in relation zur eigentlichen bildauflösung enthalten). und wenn ich dann dieses neue bild wieder auf die ausgangsgröße verkleinere, kommt im idealfall ungefähr das raus, was man am anfang schon hatte.WoWu hat geschrieben:Das ist eben der Denkfehler. Es ist ein Unterschied, ob ich 4 unterschiedliche Farbinformationen habe oder nur eine farbinformation.
Bei einem 4x4 Pixelarray habe ich bei 4:4:4 auch 4 Informationen, aber bei einem gebinnten Array nur eine Farbinformation-
Es ist also ein himmelweiter Unterschied.
Die Auflösung entlang einer Achse wird in Pixeln angegeben, allerdings sind Bitmaps flächig, es gibt zwei Dimensionen. Daher führt eine Verdoppelung der Auflösung entlang jeder der beiden Achsen zur vierfachen Pixelmenge.Axel hat geschrieben:???TheBubble hat geschrieben: Halbe Aufloesung ist schon richtig, das entspricht einem Viertel an Pixeln.
Wird die Auflösung nicht mehr in Pixeln angegeben?
Der Witz ist ja, dass niemand die 4 Ausgangsfarben haben will, sondern im Grunde nur jeweils einen passenden Helligkeitswert für die bekannten in halber Auflösung vorhandenen Chroma-Werte. Es wird danach in halber Auflösung weitergearbeitet, die höhere Ausgangsauflösung ist verloren. Sie war nur ein Workaround.WoWu hat geschrieben: Unterabtastung ist ja (in unserm fall) eigentlich keine spatiale Angelegenheit sondern eine Frage der Farbpräzision, also eine Frage der korrekten Farbreproduktion. Wenn aus 4 Farben eines 4:4:4 abgetasteten Bildes nur noch eine Farbe bei 4:2:2 wird, hat bereits ein nicht mehr reversibler Prozess stattgefunden, denn eine Rückführung auf 4:4:4 würde bedeuten, dass diese entstandene Fehlfarbe (denn die gibt es im Kameramild ja gar nicht) zurückverwandelt wird in ihre 4 Ausgangsfarben.
Das behaupte ich so, wie Du es eben formuliert hast, nicht. Ich fordere zusätzlich eine Halbierung der Ortsauflösung der Helligkeitsinformationen. Ich rekonstruiere die in der hohen Ausgangsauflösung fehlenden Chroma-Informationen nicht und habe das auch nie behauptet.WoWu hat geschrieben: Du behauptest aber dass die Fehler einer Unterabtastung durch eine zweite Unterabtastung aufgehoben werden, also aus 4:2:2 wieder 4:4:4 wird und damit die Fehlfarbe wieder in die Ausgangsfarben reproduziert wird.
Die "Fehlfarbe" ist schon entstanden, als die Kamera 4:2:0 abgelegt hat. Trotzdem kann man daraus ein 4:4:4 in halber räumlicher Auflösung erzeugen. Und unser Anwender will ja nur die halbe Auflösung haben, die maximale Helligkeitsauflösung seiner Kamera interessiert ihn ja nicht. Die doppelte Auflösung verwendet er nur als Hilfsmittel, da seine Kamera sie beherscht, jedoch kein 4:4:4 in der eigentlich gewünschten geringeren Auflösung.WoWu hat geschrieben: Deiner Ausführung, dass die Fehlfarbe in einer kleineren spartieren Auflösung gar nich auffällt, habe ich schon verstanden aber die Fehlfarbe bleibt erhalten und ist somit nicht 4:4:4 geworden sondern bleibt eine Fehlfarbe, also 4:2:2.
Dieses Argument ist zu kurz gedacht:WoWu hat geschrieben: Das Problem beim Keying ist ja, dass der Key auf eine Farbe eingestellt ist (im Bildbeispiel wäre das Rot oder Grün), nun aber dazwischen Gelb durch die Unterabtastung entstanden ist, auf das der Keyer nicht wirkt, weil er der eingestellten Farbe nicht entspricht.
Du vergisst immer den Zusatz "in halber örtlicher Auflösung". Vielleicht hilft Dir eine etwas andere Betrachtungsweise: Aus 4:2:0 macht man quasi "2:2:0", was 4:4:4 auf halbem Raster entspricht.WoWu hat geschrieben: aber hier geht es darum, das eine Unterabtastung durch eine zweite Unterabtastung eliminiert werden soll, also aus 4:4:4 wieder 4:2:2 entstehen soll.
Und das ist definitiv nicht möglich.
Eine Gruppe, die ab und zu auch mal eine eine "es ist nun gut genug, andere Baustellen sind wichtiger" Position vertritt, wäre manchmal wirklich nett. :-)WoWu hat geschrieben: Mann könnte nun trefflich darüber debattieren, ob es stört, oder nicht und ob man es mit dem blossen Auge sehen kann oder ob in Cicago 'ne Tür zufällt. Ich vermisse sowieso die Fraktion, die sagt ... "Nur der Inhalt zählt" aber 4:2:2. nach 4:4:4 geht nun mal nicht.
Sichtbar müssen die auch nicht sein, sondern vorhanden :) nerest neigbour würde einfach gar nichts interpolieren und Du hättest original noch die gleichen Pixel wie vorher, nur eben 1/4 von denen.Bas3008 hat geschrieben: Ich hatte das, wie schon oben geschrieben durchgecheckt. Keine sichtbaren Unterschiede. Bicubic sorgt schon für annehmbare Ergebnisse.
Weil Du eine erneut komprimierte Source nimmst (und auch Prores komprimiert nicht wenig weg), statt auf dem Originalen File zu arbeiten in der einfach noch alle Infos erhalten sind, also einfach mal mehr vier mal so viele Daten wie in Deinem 1080p File. Und Du kannst im Zweifel den Filter noch wählen (es sei denn man mag in AE arbeiten, aber wer will das schon bei Greenscreen).Bas3008 hat geschrieben: Ich sehe nicht, wo das Murks ist. Es spart einem Zeit und Rechenleistung, wenn man eh vor hat, das ganze auf 1080p runterzurechnen. Bspw. kann man über Nacht alle Dateien konvertieren lassen und am nächsten Tag wunderbar flüssig im Schnittprogramm mit arbeiten.
Ich sehe hier keine Beleidigungen gegen WoWu.MLJ hat geschrieben: "WoWu" hat Recht mit seinen Ausführungen also hört auf ihn zu beleidigen denn er versteht die Materie und wir sollten froh sein jemanden wie "WoWu" hier im Forum zu haben.
Warum ist Dein Beitrag dann so bissig? Es geht ja schon im ersten Absatz gut los, ich möchte mal ein paar Fragmente zitieren: "Unfug verbreitet", "die, die nicht verstanden haben", "sich mal richtig Informieren".MLJ hat geschrieben: Abschließend würde ich es begrüßen euch nicht beleidigt oder angegriffen zu fühlen denn so ist dieser Beitrag absolut NICHT gemeint, also schön auf dem Teppich bleiben. Danke.
du hast in deinen ganzen langen ausführungen offenbar übersehen, oder zumindest nicht offen angesprochen, dass in allen vernünftigen beiträge hier immer nur ganz ausdrücklich von entsprechenden chroma-informations-erhalt im zuge einer verkleinerung von 4k nach hd die rede war.MLJ hat geschrieben:Man kann aus einem 4:2:0 unmöglich ein "echtes" 4:4:4 machen...
Genauer: zwei entsprechenden Kameras.Jott hat geschrieben:Setzt natürlich den Besitz einer entsprechenden Kamera voraus.
die ganze entsprechende pixelzählerei wird hinfällig, wenn man das erste mal genauer beobachtet, wie die kamera intern bspw. die entzerrung der elektr. objektive ganz ungefragt in die bilddaten hineinrechnet. das wird wirklich erst spürbar, wenn man raw-photos mit den jpgs/videos vergleicht. obwohl also in der praxis überhaupt keine direkte 1:1 relation zwischen sensorpixel und bildpunkten mehr vorhanden ist, fällt das normalerweise kaum ins gewicht. (gut -- ich würde mir trotzdem manchmal den raw zugriff wünschen ;))iasi hat geschrieben:Hängt es eigentlich nicht auch sehr davon ab, wie man die Pixel "zusammen fasst"?
Das hatte ich ja mal angesprochen, es hängt viel vom verwendeten Skalierungsfilter ab.iasi hat geschrieben:Hängt es eigentlich nicht auch sehr davon ab, wie man die Pixel "zusammen fasst"?