Postproduktion allgemein Forum



Was sagt WoWu denn zu...



Fragen rund um die Nachbearbeitung, Videoschnitt, Export, etc. (div. Software)
Antworten
mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Di 08 Aug, 2017 11:24 Wenn ich allein schon daran denke, welche Einstellungsvariationen die GH5 bietet, bin ich ja schon froh, wenn ich Material erhalte, das so weit überein stimmt, dass ein Vergleich überhaupt möglich ist.
Jetzt wechselt gerade durch leichte Bewölkung das Licht ständig - wenn auch geringfügig. Aber schon sind die Grüntöne in den Bäumen zwischen 6k/420 und 4k/422 sehr unterschiedlich. Ganz zu schweigen von den BMCC-Aufnahmen - der Umbau kostet Zeit.
ich hab für vergleichbare testreihen mit der GH4 die WLAN-fernsteuermöglichkeiten der kamera genutzt, um ohne großes gewackel, mühseligen einstellaufwand und sich regelmäßig einstellende menschliche fehler entsprechende testsequenzen einfach als batchjob aus einfachen python-scripts heraus abzuarbeiten. ;)

das sind aber leider alles nur wilde ad hoc basteleien, die man kaum aus der hand geben kann bzw. dir vermutlich keine wirkliche erleichterung bringen würden, weil es für dich vermutlich mehr aufwand bedeuten würde, sie überhaupt erst einmal zum laufen zu bringen und an deine aufgabenstellung anzupassen. ;)



wolfgang
Beiträge: 6654

Re: Was sagt WoWu denn zu...

Beitrag von wolfgang »

klusterdegenerierung hat geschrieben: Di 08 Aug, 2017 11:05
wolfgang hat geschrieben: Di 08 Aug, 2017 09:04 Der gesamte Prozess des Debayerings und der Entstehung einer Abbildung ist ein von Menschenhand geschaffenes Konstrukt. Heißt, es wird hier immer irgendwelche technischen Näherungen geben - denn die Natur kennt keine Pixel, aber wir bilden eben bestenfalls einen Pixelraster mit beschränkten Farbräumen und beschränkter Luminanz ab.
Also was erwartet man sich hier eigentlich?
Noch son totschläger und der Thread ist am Arsch! ;-)
Die Frage ist nur wer ist Arsch und wer ist Totschläger. ;)
Lieben Gruß,
Wolfgang



wolfgang
Beiträge: 6654

Re: Was sagt WoWu denn zu...

Beitrag von wolfgang »

iasi hat geschrieben: Di 08 Aug, 2017 11:24 Es geht doch gar nicht darum, eine Theorie zu beweisen.
Manchmal bekommt man halt einen anderen Eindruck.
mash_gh4 hat geschrieben: Di 08 Aug, 2017 11:37 das ist ja auch einzige grund, warum es der position vom wowu in dieser frage entgegenzutreten gilt. sie erscheint mir einfach derart überzogen und praxisfremd, dass man sie den realen tatsachen in keiner weise gerecht wird.
Mir fehlt auch die Verbindung zwischen einer (sinnvollen) Theorie und der Praxis - wobei eine sinnvolle Theorie eine ist, die mir in der Praxis wo weiter hilft. Zumindest etwas sinnvoll erklärt.

Aber es geht ja nicht darum jetzt für oder gegen jemanden zu sein.
mash_gh4 hat geschrieben: Di 08 Aug, 2017 11:37 das wirkliche problem beleibt aber die frage, ob diese ungleichmäßige auflösung von farb- und helligkeitsinformation auch noch nach einer zweckmäßig durchgeführten verkleinerung des bildes störend in erscheinung tritt, oder eben nur in genau jenem maße vorzufinden ist, wie es sich auch einstellen würde, wenn andere abbildungstechniken genutzt worden wären, die diese einschränkung nicht kennen und gleich 4:4:4 mit geringerer auflösung geliefert hätten -- mischfarben gibt's ja schließlich auch dort!
Wir sind in der Bildgüte längst in einem Bereich, wo sich diese Frage gar nicht mehr stellen dürfte. Gehe auf 4K und gehe auf 10bit 422 - und du siehst kaum einen Unterschied zu 4K 8bit 420.
mash_gh4 hat geschrieben: Di 08 Aug, 2017 11:37 das ist der springende punkt, wo einige von uns -- ich weiß nichteinmal, ob es die mehrheit ist -- dem wowu regelmäßig zu widersprechen versuchen, weil er hier eben wirklich verdammt wenig "einsicht" bzw. fähigkeit, etwas komplizierteren erklärungen zu folgen, erkennen lässt. da es aber im grunde eine verhältnismäßig einfache fragestellung ist, die man sowohl empirisch als auch mit genau jenen berechnungsschritten, wie sie in der kamera beim farbsubsamplen benutzt werden, durchspielen und praktisch nachvollziehen kann, gibt es wirklich keinen grund, warum man hier nicht auch diese demonstrativen hilfsmittel bedienen sollte, um entsprechende vorgänge besser zu illusteren und nachvollziehbar zu machen? -- man kann dann ja immer noch die augen vor der wahrheit verschließen. ;)
Genau um das Verschließen vor der Wahrheit gehts aber offenbar oft. Vor allem dann, wenn die Theorie losgelöst von jeder Praxis existiert und sich nicht dem sinnvollen Praxistest stellt. Denn es ist in der experimentellen Naturwisschaft seit Newton schon immer so, dass die Praxis die Theorie fordert und auch mal widerlegt.
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

iasi hat geschrieben: Di 08 Aug, 2017 00:57 Die GH5 liefert nun einmal sowohl Raw-Fotos, als auch H265/420.
Wenn es also darum geht herauszufinden, ob diese Methode Verbesserungen bringt, ist sie schon mal ganz gut geeignet.
Schließlich geht es um die Frage, ob man aus 4k/420 einen Vorteil erhält, wenn man auf 2k skaliert.

Auch wenn WoWu ein Buch geschrieben hat, setzte ich eben genau die Voraussetzungen an, die in dem von WoWu verlinkten Aufsatz genannt werden. Man kann sich nun einmal nicht nur immer eine Sache herauspicken und dann denken, man könne ein komplexes System beurteilen.

Wissenschaftliches Arbeiten setzt nun einmal voraus, dass man alle relevanten Faktoren erfasst.
Dies setzt aber eben auch eine ausreichende Informationsbasis voraus.

WoWu redet von falschen Farbwerten. Auch die beim debayern errechneten Farbwerte sind nur Annäherungswerte. Nun habe ich zwar auch Mathematik studiert, aber ein Urteil über die Genauigkeit dieser Farbwerte, kann ich mir ohne die notwendigen Informationen nicht bilden.
Aber jedem ist ja wohl klar, dass bei einer höheren Anzahl von zur Berechnung herangezogenen Werten die Abweichung geringer wird.
Andererseits führen Näherungsberechnungen anhand von Näherungswerten nicht zu geringeren Abweichungen.

Spielen wir es doch mal durch:
Bayer-Sensor:
1. Berechnung der Farbwerte. Abweichungen kann man nicht ausschließen, nur minimieren.
2. Aus 4 Pixeln soll einer werden. Die Abweichung verringert sich im Vergleich zum Wert eines Pixels bei 1/4 der Auflösung.
3. Nun haben wir nur einen Farbwert für diese 4 Pixel. Beginne ich nun jedoch diesen Farbwert mit den Helligkeitswerten zu verrechnen, um dann anschließend aus diesen Ergebnissen eine Pixel zu errechnen, dann vergrößert sich die Abweichung.
4. Angenommen ich errechne aus den Helligkeitswerten der 4 Pixel, den eines Pixels und weise diesem dann nur den Farbwert zu, bleibt zumindest nur die anfängliche Abweichung erhalten.
5. Eine genauere Annäherung würde ich natürlich ehalten, wenn ich auch Farbwerte für die 4 Pixel hätte. Wenn also der eine Farbwert aus denen der 4 Pixel errechnet wurde.
6. Es stellt sich die Frage, ob die Abweichungen minimaler sind, wenn gleich die Zielauflösung - also einer statt 4 Pixeln - zur Aufnahme genutzt wird. Wenn man andere Faktoren unberücksichtigt lässt und von einem Bayer-Sensor ausgeht, dann wäre die Antwort einfach.

Aber es spielen eben nun mal viele weitere Faktoren mit hinein.
Ich sehe nicht, wie man diese erfassen könnte, um es wissenschaftlich zu beurteilen.
Die "Qualität" des Pixels steht z.B. laut Red eben nicht in kausalem Zusammenhang zu seiner Größe.
Auch WoWu hat keinen Einblick in die genutzen Algorithmen.
Ein Stochern im Nebel.

Mehr als praktische Versuche kann man also nicht machen.
Es ist da eben wie mit Objektivtests. Selbst wenn man weiß, wie der Linsenaufbau ist und welche Gläser beschichtet sind, kann man über die Abbildungsqualität nur nach praktischen Tests eine Aussage machen.

GH5 vs BMCC wird nicht wirklich eine Antwort auf die Frage in Punkt 6 geben können. Es spielen eben zu viele andere Faktoren mit hinein.


Übrigens halte ich die GH5 in der Gewichtsklasse als konkurrenzlos. Nicht optimal, aber zu gebrauchen.
Fitzlige Bedienung und eben auch mit dem Color-Chart in Resolve nicht mal schnell z.B. mit der BMCC zu matchen.

Die passenden Einstellungen für einen Test, der dann auch etwas Vergleichbares liefert, ist aufwändiger als zuerst gedacht.
420/H265, 422/H264 und eben RAW-Foto sollten nur beim Aufnahmeformat voneinander abweichen.
nur um das richtig zu verstehe ...
Du eliminierst 3 von vier Farberten einer 4 pixel gruppe und überträgst nur noch einen Farbwert.
mal ganz abgesehen davon, dass es keinen Algorithmus gibt, der festlegt, welcher der 4 denn nun der richtige Wert ist, reduzierst Du Dir damit die Farbwerte um 75% und nennst das dann „erweiterung“ auf 4:4:4.
Das passt dann aber wenigstens zu dem Ettikettenschwindel 4/8K
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



klusterdegenerierung
Beiträge: 27412

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Ich glaube ja eh nicht dran, aber ich könnte mir vorstellen, das die 4 Pixel alle einen unterschiedlichen luminanzwert haben,
mischt man sie nun auf einen zusammen, ergibt dies vielleicht nicht nur eines der evtl. überbelichtetetn Pixel,
sondern es kommt ein homogener Wert herraus mit dem man noch was anfangen kann, oder so. ;-)
"Was von Natur aus flach ist, bläht sich auf!"



TheBubble
Beiträge: 1910

Re: Was sagt WoWu denn zu...

Beitrag von TheBubble »

WoWu hat geschrieben: Di 08 Aug, 2017 14:22 nur um das richtig zu verstehe ...
Du eliminierst 3 von vier Farberten einer 4 pixel gruppe und überträgst nur noch einen Farbwert.
mal ganz abgesehen davon, dass es keinen Algorithmus gibt, der festlegt, welcher der 4 denn nun der richtige Wert ist, reduzierst Du Dir damit die Farbwerte um 75% und nennst das dann „erweiterung“ auf 4:4:4.
Das passt dann aber wenigstens zu dem Ettikettenschwindel 4/8K
Auf die Gefahr hin, sich in einer endlosen, festgefahrenen und daher sinnlosen Diskussion zu verstricken:

(Die Diskussion könnte man übrigens sofort beenden, wenn die "es geht nicht" Fraktion ein einziges Zahlenbeispiel vorliegen würde, das nachvollziehbar zu einem falschen Ergebnis führt. Keine große Argumentation, nur eine kurze Rechnung.)

Mal ganz vereinfacht gesagt:

Was er vorschlägt kann man machen, das Ergebnis hat dann tatsächlich eine 4:4:4 Unterabtastung. Die Kamera hat die Chroma-Samples lägst auf "FullHD" skaliert (um 4:2:0 zu erreichen, der gängige Sensor hat ja eh nur RGB-Pixel und kann auf direktem Weg keine Chroma-Samples messen), er zieht jetzt nur die Luma-Samples nach. Was bleibt ist 4:4:4. Klar, die Qualität sinkt gegenüber 4k 4:2:0, dürfte bei einer echten 4k Kamera als Ausgangsquelle aber (geringfügig) besser als FullHD 4:2:0 sein. Wäre der Qualitätssprung sehr hoch, würde man eh kein 4:2:0 verwenden.

Ob da durch die zusätzliche Skalierung jetzt "neue" Mischfarben entstehen oder nicht und ob die Qualität sinkt, ist im Anbetracht der folgenden Verarbeitungskette doch sowieso egal. Klar, es kann Aliasing auftreten. Ob der Aufstand (vermutlich wird diese Umwandlung von keiner gängigen Software unterstützt) für einen selbst Sinn macht, möge jeder selbst entscheiden.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

@bubble
Das „like“ ist mir da versehentlich reingerutscht, weil mir das Pad aus der Hand gerutscht ist und damit war der Knopf betätigt. Sorry

Was die von Dir geforderte Berechnung betrifft, braucht Du Dir nur den Interpolationsalgorothmus (und das daraus entstandene Bild) der jeweiligen Kamera ansehen, um zu sehen, dass es nicht geht.
Je nach Gewichtung wirfst Du immer Farbabweichung haben und das ist genau das Gegenteil von 4:4:4.
Also nochmal für alle, die folgen wollen und keinen Rechenschwanz benötigen.
Eine kamera mach am eingang irgendwo ein 4:4:4 Signal, also zu jedem Luminanzwerte auch einen Cromawert. Das nennt man 4:4:4

Nun kommt eine Unterabtastung ... dabei werden die 4 Farbwerte, je nach Algorithmus irgendwie zusammengemischt. Das mag nur geringfügig sein, oder auch deutlich sichtbar. Fakt ist, dass Farben entstehen, die von den 444 Farben abweichen.
Nun hat man z.B. nur noch 2 statt 4 Farbwerte und die auch noch mit falschen Farbe.
Nun geht die Rechenfraktion her und sagt, ich downsample mein Bild sowieso z.B. von 4K nach 2 K, brauche dann also auch nur noch 2 statt der 4 Farbsample.
Dann nehme ich doch einfach die beiden falschen Farben und klatsche sie an die beiden Pixels und erfülle wieder die Bedingun (1 Sample pro Pixel) und das war ja, wie wir gesagt haben, 4:4:4 ...... falsch .
4:4:4 wäre die Rückgewinnung der eingangs erhaltenen Originalfarben und nicht der Mischkasten, der nach der Unterabtastung vorliegt.
Es reicht nicht, nur dafür zu sorgen dass die Mengenarithmetik stimmt. Im Video müssen die Bildinhalte stimmen und die weichen bei einem solchen Fake 4:4:4 eben ab.

Sonst würden Keyer solche Manipulationen lieben ... tun sie aber nicht.
Und deswegen sind Farbabweichungen eben nicht egal, weil 4:4:4 die höchstmögliche Farbwiedergabe repräsentiert.
Wer natürlich nur darauf pocht, dass rechnerisch sich solche Werte zusammenführen lasse, egal wie bescheiden das Bild hinterher aussieht, ist in einem Videforum vielleicht am falschen Platz.
Den meisten kommt es hier nämlich darauf an, ein gutes Bild zu haben und keine Zahlenspielerei zu betreibe.
Mal ganz abgesehen davon, hat das hier auch noch keiner vorgeführt, aber alle Kameras zeigen schon nach der ersten Unterabtastung die beschriebenen Farbsäume.
Also ... was machen wir hier eigentlich ?
Das kann jeder an seiner eigenen Kamera nachvollziehen.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

WoWu hat geschrieben: Di 08 Aug, 2017 19:47 Nun kommt eine Unterabtastung ... dabei werden die 4 Farbwerte, je nach Algorithmus irgendwie zusammengemischt. Das mag nur geringfügig sein, oder auch deutlich sichtbar. Fakt ist, dass Farben entstehen, die von den 444 Farben abweichen.
das allerwesentlichste, ohne das die ganze geschichte überhaupt nicht funktionieren würde, besteht darin, dass im ersten schritt einmal die farbinformation von der helligkeitsinformation der pixel getrennt wird, also von RGB darstellung nach YUV bzw. Y'CbCr übersetzte wird.

bei 4:2:0 werden nun die beiden kanäle bzw. color planes, die die farbinformation beinhalten, unabhängig von der helligkeitsinformation, auf die halbe auflösung skaliert. und weil es dabei eben wirklich um nicht anders als eine solche "skalierung" geht, lässt sich das ganze auch wieder zu einem völlig korrekten 4:4:4 abild von halber spatialer auflösung zusammensetzten, wenn man, wie es hier vorgeschlagen wird, auch den Y- bzw. helligkeitskanal in gleicher weise "skaliert" und mit den bereits skaliert vorliegenden farbdaten im Cb und Cr kanal der 4:2:0 repräsentation vereint.

das ergebnis unterscheidet sich in keiner weise von einer verkleinerung, die direkt am 4:4:4 original auf ein viertel der größe vorgenommen worden wäre. in beiden fällen ist das resultat das selbe.

das sollte ja auch eigentlich nicht weiter verwundern, da die skalierung der verschiedenen kanäle hier einfach nur zu verschiedenen zeitpunkten vorgenommen wurde, ansonsten passiert aber einfach nur genau das selbe wie es auch bei der skalierung eines 4:4:4 RGB-bilds geschehen würde, wo natürlich auch auch jeder farbkanal unabhängig voneinander verkleinert wird. dass das ganze hier halt in einer YUV variante passiert, ändert daran nichts.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

Das ist bekannt, das hast Du im letzten Tread auch schon so beschrieben, davon wird es aber nich relevanter denn es erklärt nicht, woher die originalwerte vor der Interpolation kommen sollen und auch nicht, wie die Gewichtung jemals wieder korrekt korrigiert werden soll.
Mit andern Worten, dadurch, dass Du die Sache einfach komplizierter darstellst, wird sie nicht richtiger.(aber klingt natürlich toll)
Wenn Du davon ausgehst, dass Du ein Original 444 verkleinerst, hast Du recht. Hier geht es aber um eine vorweg gemachte Unterabtastung, also von 4:x:x zurück nach 444.

Aber wir drehen uns im Kreis. Dieses Thema ist schon mehrfach diskutiert worden und trotzdem sind in downscalierten Bildern immernoch die Farbfehler der Unterabtastung.
Liegt wahrscheinlich daran, dass es sowieso keiner macht, obwohl es doch ne tolle Sache wäre .... oder es funktioniert eben nicht ... oder jedenfalls nur auf weißem Papier.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

...immer wieder interessant dieses alte Thema - trotzdem nochmal für alle ums auf der Zunge zergehen zu lassen:

Bei einem Faktor 2 Downscale wird aus einer 4:2:0 Quelle ein 4:4:4 Bild - PUNKT!!!!!

Jeder Bildpunkt verfügt nach dem Downscale über eine eigene, individuell darstellbare Farbinformation - mehr sagt 4:4:4 "Subsampling" nicht aus und das Ergebnis ist dadurch gegeben, dass jede 4:2:0 2x2 Pixelmatrix der Quelle eine gemeinsame, zum nächsten 2x2 Block individuelle Farbinformation beinhaltete.

In der "Praxis" gilt das genau dann, wenn die 4:2:0 Quelle ein echtes 4:2:0 Bild war, jede 2x2 Matrix eine individuelle Farbinformation führen konnte, sonst war's auch kein echtes 4:2:0!!

Ob das Aufnahmegerät nun Fehlfarben oder Marsmännchen aufgenommen hat spielt keine Rolle, am Ende reicht per Definition dass nach dem Downscale jeder Pixel eine eigene, individuelle UV Farbinformation führen kann!



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

WoWu hat geschrieben: Di 08 Aug, 2017 22:41 Mit andern Worten, dadurch, dass Du die Sache einfach komplizierter darstellst, wird sie nicht richtiger.(aber klingt natürlich toll)
...
Aber wir drehen uns im Kreis. Dieses Thema ist schon mehrfach diskutiert worden und trotzdem sind in downscalierten Bildern immernoch die Farbfehler der Unterabtastung.
ich glaube, man kann die ganze sache sehr einfach zusammenfassen:
nach einer derart durchgeführten skalierung, fällt die zwischenzeitliche unterabtastung einfach nicht mehr ins gewicht -- ihre begleiterscheinungen, die in der ursprungsgöße noch vorhanden waren, heben sich völlig auf.

was bleibt, sind natürlich mischfarben, die sich aber auch auf anderem wege nicht vermeiden lassen, wenn man ein bild skaliert -- aber das wäre in genau gleicher weise der fall, wenn man 4:4:4 ausgangsmaterial nutzen würde.

nachdem es mitterweile einige hilfsprogramme gibt (hybrid, dali), die bei der erstellung von prores intermediates die entsprechenden arbeitschritte quasi auf knopfdruck einfachst durchführen lassen, ist das ganze mittlerweile auch längst keine besonders abgehobene theoretische spielerei mehr, sondern für jeden, dem es erstrebenswert erscheint, praktisch zugänglich.
Zuletzt geändert von mash_gh4 am Di 08 Aug, 2017 23:15, insgesamt 1-mal geändert.



klusterdegenerierung
Beiträge: 27412

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Roland Schulz hat geschrieben: Di 08 Aug, 2017 23:07 Bei einem Faktor 2 Downscale wird aus einer 4:2:0 Quelle ein 4:4:4 Bild - PUNKT!!!!!
Ach habe ich ihn vermisst und jetzt wo dort PUNKT steht, fühle ich mich auch schon viel sicherer! :-)
"Was von Natur aus flach ist, bläht sich auf!"



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

klusterdegenerierung hat geschrieben: Di 08 Aug, 2017 23:15
Roland Schulz hat geschrieben: Di 08 Aug, 2017 23:07 Bei einem Faktor 2 Downscale wird aus einer 4:2:0 Quelle ein 4:4:4 Bild - PUNKT!!!!!
Ach habe ich ihn vermisst und jetzt wo dort PUNKT steht, fühle ich mich auch schon viel sicherer! :-)
Irgendwann kommst auch Du mal dahinter dass 1+1=2 ist - und wenn nicht oder ob Du die Aussage in Frage stellst oder es heute noch regnet spielt vom Mond aus betrachtet doch nicht wirklich eine Rolle.
Ist wie ein- zwei Pixelfehler auf nem 24MP Sensor...

Die Tatsache dass Du das weiter in Frage stellst zeigt einzig dass du den Vorgang bis heute immer noch nicht verstanden hast.



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Di 08 Aug, 2017 14:22
nur um das richtig zu verstehe ...
Du eliminierst 3 von vier Farberten einer 4 pixel gruppe und überträgst nur noch einen Farbwert.
mal ganz abgesehen davon, dass es keinen Algorithmus gibt, der festlegt, welcher der 4 denn nun der richtige Wert ist, reduzierst Du Dir damit die Farbwerte um 75% und nennst das dann „erweiterung“ auf 4:4:4.
Das passt dann aber wenigstens zu dem Ettikettenschwindel 4/8K
Ich nenne es 4:4:4, da ich bei 2k dann diese Werte habe. Was ist daran denn falsch?
Das sagt doch noch gar nichts darüber aus, wie genau nun diese Werte die "Realität" abbilden.
Dabei reduziere ich eben genau nicht die Farbwerte um 75%, denn ich erhalte den Farbwert, den mir ein Pixel bei 1/4-Auflösung auch geliefert hätte. Eine Gruppe von 4x Gelb liefert Gelb, ganz so wie ein Pixel von der Größe dieser Gruppe auch Gelb liefern würde.
Abweichungen sind hier denkbar, aber ob sie in der Praxis dann wirklich so relevant sind, müsste man erst mal sehen.
Ich will doch gerade diese Testaufnahmen machen, um zu sehen, ob es denn wirklich einen sichtbaren Vorteil bringt.

Ettikettenschwindel hast du doch genau genommen auch bei einem Bayer-Sensor.
Es geht doch darum, wie gut die Annäherung gelingt, nicht um eine exakte Wiedergabe der Wirklichkeit.

Die Logik, dass eine Gruppe von 4 Pixeln, die alle denselben Farbwert besitzen, zu einem Pixel mit diesem Farbwert zusammengefasst wird, indem nur die Helligkeitswerte gemittelt werden, klingt nicht schlecht. Ob es in der Praxis mit der bechriebenen Methode dann auch möglich ist, könnte eben ein Test zeigen.



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Mi 09 Aug, 2017 08:12 Ich will doch gerade diese Testaufnahmen machen, um zu sehen, ob es denn wirklich einen sichtbaren Vorteil bringt.
ich bin wirklich schon sehr gespannt auf deine beispiele!
meiner einschätzung nach dürfte sich das meiste nämlich ohnehin ziemlich relativieren, wenn man auch jene praktischen unschärfen einbezieht, die sich auch mit sehr guten objektiven nicht vermeiden lassen...
iasi hat geschrieben: Mi 09 Aug, 2017 08:12 Ettikettenschwindel hast du doch genau genommen auch bei einem Bayer-Sensor.
naja -- man muss sich halt einfach daran gewöhnen, was mit den gebräuchlichen angaben gemeint ist.
natürlich ist es ein bisserl verwirrend, wenn bei kameras mit bayersensor von 4k die rede ist, während sich bei monitoren mit der selben angabe 3-mal so viel bildpunkte finden...



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Di 08 Aug, 2017 19:47
Was die von Dir geforderte Berechnung betrifft, braucht Du Dir nur den Interpolationsalgorothmus (und das daraus entstandene Bild) der jeweiligen Kamera ansehen, um zu sehen, dass es nicht geht.
Je nach Gewichtung wirfst Du immer Farbabweichung haben und das ist genau das Gegenteil von 4:4:4.
Also nochmal für alle, die folgen wollen und keinen Rechenschwanz benötigen.
Eine kamera mach am eingang irgendwo ein 4:4:4 Signal, also zu jedem Luminanzwerte auch einen Cromawert. Das nennt man 4:4:4

Nun kommt eine Unterabtastung ... dabei werden die 4 Farbwerte, je nach Algorithmus irgendwie zusammengemischt. Das mag nur geringfügig sein, oder auch deutlich sichtbar. Fakt ist, dass Farben entstehen, die von den 444 Farben abweichen.
Nun hat man z.B. nur noch 2 statt 4 Farbwerte und die auch noch mit falschen Farbe.
Nun geht die Rechenfraktion her und sagt, ich downsample mein Bild sowieso z.B. von 4K nach 2 K, brauche dann also auch nur noch 2 statt der 4 Farbsample.
Dann nehme ich doch einfach die beiden falschen Farben und klatsche sie an die beiden Pixels und erfülle wieder die Bedingun (1 Sample pro Pixel) und das war ja, wie wir gesagt haben, 4:4:4 ...... falsch .
4:4:4 wäre die Rückgewinnung der eingangs erhaltenen Originalfarben und nicht der Mischkasten, der nach der Unterabtastung vorliegt.
Es reicht nicht, nur dafür zu sorgen dass die Mengenarithmetik stimmt. Im Video müssen die Bildinhalte stimmen und die weichen bei einem solchen Fake 4:4:4 eben ab.
Stimmt.

Nun überlege aber mal, welche Farbwerte du erhalten würdest, wenn du mit 2k aufgenommen hättest. Wenn du eine Kante hast, mit sehr scharfem Farbübergang, dann liegt dieser Übergang z.B. bei den 4 Pixeln genau in der Mitte. Daraus erhält man dann einen errechneten (falschen) Wert. Aber diese Kante liegt dann eben auch auf dem einen Pixel des 2k-Sensors, der dann eben auch nicht die Farben trennen kann sondern einen falschen Wert liefert.
Die Abweichungen bei den Helligkeitswerten könnte dann beim 2k-Sensor sogar noch größer sein.

Nun sagst du ja selbst immer, dass Objektive eine derart scharfe Abbildung wohl nicht liefern werden - schon der Unterschied zwischen T1.3 und T4 z.B. bei einem Zeiss Super Speeds ist enorm.
Zudem habe ich die Bayer-Anordnung und die Feinheiten der Interpolation ect. mal ganz außen vor gelassen.
Eigentlich müsste man alle Faktoren bei den Überlegungen berücksichtigen. Dazu fehlen aber die notwendigen Informationen.

Also probiere ich es mal lieber aus.
Auch wenn ich solche Gedankenspiele mag und lehrreich finde.



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

mash_gh4 hat geschrieben: Mi 09 Aug, 2017 08:32
ich bin wirklich schon sehr gespannt auf deine beispiele!
meiner einschätzung nach dürfte sich das meiste nämlich ohnehin ziemlich relativieren, wenn man auch jene praktischen unschärfen einbezieht, die sich auch mit sehr guten objektiven nicht vermeiden lassen...
ja - bei dem ersten Video hier, fand ich den Unterschied zwischen T4 und T1.3 dann doch überraschend groß - auch wenn er zu erwarten war. 3:15 und 5:50
https://www.slashcam.de/artikel/Tips/Sc ... solve.html

Mich interessieren keine Charts, daher versuche ich vergleichbare Aufnahmen einer Totalen zu machen. Letztlich will ich nichts beweisen, sondern nur sehen, ob es in der Praxis wirklich relevante Vorteile bietet.



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Mi 09 Aug, 2017 08:49 Mich interessieren keine Charts, daher versuche ich vergleichbare Aufnahmen einer Totalen zu machen. Letztlich will ich nichts beweisen, sondern nur sehen, ob es in der Praxis wirklich relevante Vorteile bietet.
naja -- derartiges ist wirklich nur relevant, wenn man aufzeigen will, warum man z.b. aus CineD aufnahmen leider nie mehr wirklich brauchbare farben raus bekommt, während es mit den RAW aufnahmen dieses problem einfach nicht gibt. hat aber natürlich mit der konkreten frage hier tatsächlich nicht viel zu tun. ich hätte es nur gleich mitberücksicht, wenn du dir schon einmal die arbeit antust...



klusterdegenerierung
Beiträge: 27412

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Roland Schulz hat geschrieben: Mi 09 Aug, 2017 05:40 Die Tatsache dass Du das weiter in Frage stellst zeigt einzig dass du den Vorgang bis heute immer noch nicht verstanden hast.
Naja, nur weil Du dazu ein Paper mit Deinem Namen darunter geschrieben hast,
ist es ja kein wissenschaftlich anerkanntes & gültiges Dokument!
Auch Deine bunten Diagramme und Bildchen kannst Du nicht belegen, maximal sie so darstellen, das sie stimmig sind,
aber das ändert ja leider nix an der Tatsache, das DU es uns nicht beweisen kannst!

Du bist ja mit Deinen Ansichten und Ausführungen gerne etwas überheblich, aber täuscht nicht darüber hinweg,
das Du etwas gerne so hättest, wie Du möchtest, aber nicht möglich ist.

Du willst uns doch nicht im Ernst erzählen, das wenn dem wirklich so wäre was Du Dir da zusammen strickst,
das nicht die großen schon längst auf diesen Zug auf gesprungen wären?
Oder hast Du dazu die alberne Verschwörungstheorie, das sie sich damit kanibalisieren und keine große Cam mehr los werden etc?

Ich finde es ja grundsätzlich sehr gut wenn man sich so für seine Sache stark macht und auch richtig,
aber Du bist mir da zu derb und haust mit der riesen Klatsche auf jeden der "Deine Theorien" anzweifelt!
"Was von Natur aus flach ist, bläht sich auf!"



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

mash_gh4 hat geschrieben: Mi 09 Aug, 2017 10:01
iasi hat geschrieben: Mi 09 Aug, 2017 08:49 Mich interessieren keine Charts, daher versuche ich vergleichbare Aufnahmen einer Totalen zu machen. Letztlich will ich nichts beweisen, sondern nur sehen, ob es in der Praxis wirklich relevante Vorteile bietet.
naja -- derartiges ist wirklich nur relevant, wenn man aufzeigen will, warum man z.b. aus CineD aufnahmen leider nie mehr wirklich brauchbare farben raus bekommt, während es mit den RAW aufnahmen dieses problem einfach nicht gibt. hat aber natürlich mit der konkreten frage hier tatsächlich nicht viel zu tun. ich hätte es nur gleich mitberücksicht, wenn du dir schon einmal die arbeit antust...
Meine Tests bei leicher, schnell wechselnder Bewölkung haben andererseits nur 2 Dinge bestätigt:
1. Color-Charts nutzen wenig, wenn die Lichtverhältnisse sich sehr schnell ändern. Die Resolve-Angleichung stößt dann zielich an die Grenzen.
2. BMCC-Raw-Aufnahmen scheinen eine ähnlich hohe Auflösung zu bieten, wie die GH5 bei 4k/6k - bei Standbildbetrachtung. Nur wenn die Clips dann abgespielt werden: Dann zeigen sich die erheblichen Unterschiede beim Moire.

Für die Fragestellung sind die Testaufnahmen aber ziemlich unbrauchbar.

Immerhin hat mir der Test wieder einmal in Erinnerung gerufen wie schnell sich Lichtverhältnisse ändern können - eben auch partiell im Bild. Dabei hatte ich möglichst schnell hintereinander jeweils eine 4k und 6k Aufnahme gemacht.
Jetzt denke ich wieder an einen Dreh, bei dem 2 Darsteller an einem Tisch vor einem Fenster saßen. Draußen zog eine schwarze Wolke nach der anderen an der Sonne vorbei. :)
Da relativiert sich dann die Frage nach der Farbabweichnung von Pixeln. ;)



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Mi 09 Aug, 2017 11:22 1. Color-Charts nutzen wenig, wenn die Lichtverhältnisse sich sehr schnell ändern. Die Resolve-Angleichung stößt dann ziemlich an die Grenzen.
das entsprechende resolve-tool kann man wirklich getrost vergessen. aber damit ist noch lange nicht gesagt, dass man entsprechende anhaltspunkte nicht für vernünftigere messungen bzw. korrekturen mit anderen mitteln nutzen kann...
iasi hat geschrieben: Mi 09 Aug, 2017 11:22 2. BMCC-Raw-Aufnahmen scheinen eine ähnlich hohe Auflösung zu bieten, wie die GH5 bei 4k/6k - bei Standbildbetrachtung. Nur wenn die Clips dann abgespielt werden: Dann zeigen sich die erheblichen Unterschiede beim Moire.
das halte ich für eine ziemlich unglaubwürdige aussage -- außer du verwendet wirklich besonders schlechtes glas. aber natürlich ist der vergleich zw. RAW material und h.264 files immer sehr problematisch. deshalb macht es im gegenständlichen fall meines erachtens mehr sinn, wenn man im ersten schritt einmal die RAW varianten der beiden kameras an hand von einzelbilder vergleicht, und dann erst den verlusten, wie sie sich durch die interne video-aufbereitung in der GH5 ergeben, nachgeht.
iasi hat geschrieben: Mi 09 Aug, 2017 11:22 Für die Fragestellung sind die Testaufnahmen aber ziemlich unbrauchbar.
schade! -- ich hätte so einen vergleich wirklich gerne gesehen.



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

mash_gh4 hat geschrieben: Mi 09 Aug, 2017 11:36
das halte ich für eine ziemlich unglaubwürdige aussage -- außer du verwendet wirklich besonders schlechtes glas. aber natürlich ist der vergleich zw. RAW material und h.264 files immer sehr problematisch. deshalb macht es im gegenständlichen fall meines erachtens mehr sinn, wenn man im ersten schritt einmal die RAW varianten der beiden akmeras an hand von einzelbilder vergleicht, und dann erst den verlusten, wie sie sich durch die interne video-aufbereitung in der GH5 ergeben, nachgeht.
Was die Betrachtung auf einem 4k-Monitor aus normalem Abstand betrifft, sind die Auflösungsunterschiede kaum auszumachen. Das kann natürlich an vielen Faktoren liegen.
Ich hatte auch Raw-Einzelbilder mit der GH5 gemacht - diese aber noch nicht zum Vergleich herangezogen.

Das Problem mit den Aufnahmen sind die wechselnden Lichtverhältnisse - da liegt dann eben von einem Moment auf den anderen ein Wolkenschatten auf einem Haus oder auf einem Baum hinter einem größeren.
Langsam lösen sich die Wolken auf. Ich mache vielleicht noch einmal einige Aufnahmen.

Beim Objektiv kann ich leider nicht das beste Glas verwenden, da ich nur einen passiven Adapter für die GH5 habe. Ich nutze aber die Blenden 4 und 5.6



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Mi 09 Aug, 2017 11:55 Was die Betrachtung auf einem 4k-Monitor aus normalem Abstand betrifft, sind die Auflösungsunterschiede kaum auszumachen. Das kann natürlich an vielen Faktoren liegen.
Ich hatte auch Raw-Einzelbilder mit der GH5 gemacht - diese aber noch nicht zum Vergleich herangezogen.
ich halte zwar die betrachtung am monitor auch für ein ziemlich praxisgerechtes kriterium, aber um jenen winzigen details nachzugehen, die hier zur debatte stehen, muss man wohl definitv winzige bildausschnitte heranziehen und stark vergrößeren -- bspw. im nuke/natron/fusion. erst dort treten die unterschiede gewöhnlich unübersehbar hervor. es reicht reicht in dem zusammenhang normalerweise schon, wenn du zwei verschieden leistungsfähige debayer-algorithmen verwendest, um wirklich auffallende unterschiede zu provozieren.

ich würde dich gerne bei deinen tests praktisch unterstützen, aber ich besitze einfach keine kamera mit einem weniger hoch auflösenenden sensor.
iasi hat geschrieben: Mi 09 Aug, 2017 11:55 Beim Objektiv kann ich leider nicht das beste Glas verwenden, da ich nur einen passiven Adapter für die GH5 habe. Ich nutze aber die Blenden 4 und 5.6
das macht die sache nur noch realistischer! :)
wobei es natürlich schon sehr schade ist, dass MFT kameras sehr oft nur mit mittelmäßigen zoom-objektiven und div. adaptern bzw. nicht wirklich optimiertem glas genutzt werden, was natürlich die ergebnisse immer ein bisserl verzerrt od. eben entsprechende vorurteile nur immer weiter verfestigt...



iasi
Beiträge: 24453

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

Nun hab ich mal das Samyang 135/2.2 drangehängt.
Bei MFT scheint es auch an seine Grenzen zu stoßen, denn auch bei starkem Reinzoomen ins Bild sind die Unterschiede zwischen GH5 und BMCC sehr gering. Auch wenn ich JPGs der GH5 (Foto-Raw hab ich noch nicht berachtet) vergleiche, ändert sich nicht viel.
Ich finde das schon auch interessant.
Die BMCC zeigt aber eben ziemlich starkes Moire, was dann doch einen erheblichen Unterschied zur GH5 ausmacht.



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

klusterdegenerierung hat geschrieben: Mi 09 Aug, 2017 10:32
Roland Schulz hat geschrieben: Mi 09 Aug, 2017 05:40 Die Tatsache dass Du das weiter in Frage stellst zeigt einzig dass du den Vorgang bis heute immer noch nicht verstanden hast.
Naja, nur weil Du dazu ein Paper mit Deinem Namen darunter geschrieben hast,
ist es ja kein wissenschaftlich anerkanntes & gültiges Dokument!
Auch Deine bunten Diagramme und Bildchen kannst Du nicht belegen, maximal sie so darstellen, das sie stimmig sind,
aber das ändert ja leider nix an der Tatsache, das DU es uns nicht beweisen kannst!

Du bist ja mit Deinen Ansichten und Ausführungen gerne etwas überheblich, aber täuscht nicht darüber hinweg,
das Du etwas gerne so hättest, wie Du möchtest, aber nicht möglich ist.

Du willst uns doch nicht im Ernst erzählen, das wenn dem wirklich so wäre was Du Dir da zusammen strickst,
das nicht die großen schon längst auf diesen Zug auf gesprungen wären?
Oder hast Du dazu die alberne Verschwörungstheorie, das sie sich damit kanibalisieren und keine große Cam mehr los werden etc?

Ich finde es ja grundsätzlich sehr gut wenn man sich so für seine Sache stark macht und auch richtig,
aber Du bist mir da zu derb und haust mit der riesen Klatsche auf jeden der "Deine Theorien" anzweifelt!
Sorry Guido, Du musst "meine" Diagramme und bunten Bildchen ja nicht glauben, aber ich hatte seinerzeit auch aus der Norm referenziert wo es genau so beschrieben ist.

Um hier weiter mitzuspielen musst Du dir (und auch andere "Zweifler") aber erstmal genau klar werden was 4:4:4, 4:2:2 und 4:2:0 GENAU (und am besten bezogen auf die Pixelebene) wirklich bedeutet.
Das Du mich hier weiter in Frage stellst beweist, dass Du entweder ein Querulant bist ;-) - oder es einfach (immer) noch nicht verstanden hast.
Ich habe mir das alles nicht ausgedacht und es nicht erfunden, nur zum trillionsten Mal versucht zu erklären. Ich bin auch nicht der einzige mit der von mir gestützen Behauptung.

Noch einmal zum Color Subsampling eine ganz gute Erklärung von RED zu dem Thema:
http://www.red.com/learn/red-101/video- ... ubsampling

Ungefähr in der Mitte hat man hier ein 4x2 Raster jeweils für die Luma- und Chromaabtastpositionen dargestellt. Normalerweise reicht uns hier immer ein 2x2 Raster da die 4x2 erfordernde Methode 4:1:1 eigentlich kaum eine Rolle spielt.

Was siehst Du hier?!
Links im (Y-)Lumabereich kriegt jeder Pixel immer ein eigenes Kästchen, bedeutet dass jeder Pixel eine eigene Helligkeit (Luma) annehmen kann.

Rechts daneben sehen wir die (Chroma-/UV-)Farbinformation.
Die hat bei 4:4:4 ebenfalls jedes Mal ein eigenens Kästchen. Bei 4:4:4 kann jeder Pixel also eine eigene Helligkeits- wie Farbinformation annehmen.

Bei 4:2:2 kann jetzt horizontal jeder 2. Chromapixel eine mit dem folgenden Pixel gemeinsame Farbinformation annehmen. Die horizontale Farbinformation beträgt also die halbe Auflösung der Lumainformation und der vertikalen Chromainformation, welche in der Auflösung unbeeinträchtigt bleibt!

Bei 4:2:0 kann jetzt nur noch jeder zweite horizontale und vertikale Pixel mit dem horizontal wie vertikal jeweils folgenden Pixel eine gemeinsame Farbinformation annehmen. Jeder 2x2 Pixelblock kann also nur noch eine gemeinsame Farbinformation wiedergeben, die horizontale wie vertikale Farbauflösung ist gegenüber 4:4:4 jeweils halbiert!


Was passiert nun wenn wir das 4:2:0 Gesamtbild horizontal wie vertikal in der Auflösung halbieren - genau das passiert bei einem Faktor 2 Downscale, einem Downscale von 2160p zu 1080p zum Beispiel?!

Jeder ursprüngliche 2x2 Luma-Pixelblock aus dem 2160p Bild wird horizontal wie vertikal im 1080p Bild zu einem 1x1 "Pixelblock" reduziert. Die Helligkeitsinformationen der 4 Pixel aus dem 2x2 Pixelblock werden zu einer einzigen Information "gemittelt". Jeder urspüngliche 2x2 Luma-Pixelblock erzeugt einen neuen 1x1 Pixelblock -> Pixel im downgescaleten Bild!

Darunter liegt bereits eine Chromainformation welche in 4:2:0 pro 2x2 Luma-Pixelblock eine gemeinsame Farbinformation hatte. Auch wenn wir hier beim k=2 Downscale 3/4 der Fläche wegschneiden ändert sich die Farbe nicht, die war ja bereits homogen!

Im entstehenden Bild hat also jeder entstandene Luma- wie Chroma(!!!)pixel eine eigene individuelle Luma- wie Chromainformation!!!
Das entspricht immer noch und ohne "persönlichem" Zutun 4:4:4, ganz einfach wie 1+1!!!



Das gilt im Ergebnis/in der Praxis genau dann, wenn das Quellbild ein "echtes" 4:2:0 Bild war, damit wirklich jeder 4:2:0 2x2 Pixelblock eine eigene Farbinformation hatte und nicht mit benachbarten 2x2 Pixelblöcken systembedingt verbunden war! Trifft das nicht zu war es kein echtes 4:2:0!

Ob jetzt irgendwelche Falschfarben oder sonstwas entstehen spielt keine Rolle, das ist in der Farbunterabtastung nämlich gar nicht definiert bzw. berücksichtigt.
Es geht bei 4:4:4 einzig und allein darum dass jeder Pixel eine eigene Helligkeits- wie Farbinformation führen kann!


Noch einmal: Die Sinnhaftigkeit des Downscales steht nach wie vor in Frage. Man erzielt KEINEN bildqualitativen Vorteil! Es kann lediglich von Vorteil sein wenn man zur Übergabe nur eine >>kleinere Dimension als die aufgenommene nutzen kann.



TomStg
Beiträge: 3449

Re: Was sagt WoWu denn zu...

Beitrag von TomStg »

Wenn dem auch nur ansatzweise so wäre, wie Du es hier in Deiner Pippi-Langstrumpf-Art behauptest, würden zB Atomos und Convergent Design für ihre Recorder in haushohen Lettern für den wundersamen Gewinn an Farbsampling werben. Denn in deren Recordern können für die Aufnahme verschiedene Profile gewählt werden, die aus einem 4K-Stream am Eingang während der Aufnahme einen 2K-Stream machen. Über eine dabei - nach Deinen Träumen zwangsweise - erfolgende Wandlung von 4:2:0 nach 4:4:4 wird aber in deren Tech Specs kein einziges Wort verloren. Die sind offensichtlich zu blöd, um diesen Effekt zu bemerken.



wolfgang
Beiträge: 6654

Re: Was sagt WoWu denn zu...

Beitrag von wolfgang »

Die Rekorder zeichnen ja nur den Eingangsstrean auf und machen im Regelfall kein downscaling.

Was mir für praktisch alle Applikationen fehlt ist die Info, wie beim späteren downscaling in den Apps die Unterabtastung behandelt wird um das Zielformat zu ermittel. Etwa über Mittelwertbildung etwa wenn man von UHD 422 kommt oder aber einfache Auswahl irgendeiner der verfügbaren Farbinformationen?
Lieben Gruß,
Wolfgang



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

@ungläubiger "Tomas" (TomStg):
Du musst hier keine "Pippi-Langstrumpf-Behauptungen" "glauben", Du musst lediglich die durch die RED Seite gestützte, dargestellte Ausführung nachvollziehen - schon bist Du am Ziel ;-)!!
Das ist doch wirklich alles ganz einfach und logisch - ich missverstehe wie man das noch missverstehen kann...

ABER: DU hast jetzt die ehrenvolle Aufgabe mal Convergent Design anzuschreiben und zu fragen, ob der Odyssey 7Q+ tatsächlich internes UHD->FHD Downscaling zur Aufnahme beherrscht (ich behaupte nein, finde aber nichts dazu) und dann in einem der verfügbaren 4:4:4 Codecs aufnehmen kann.
Bei Atomos wird´s dagegen düster aussehen - so weit ich das sehe verfügen die über keinen einzigen 4:4:4 Codec. Da müsste es (wenn das Downscaling nicht nur für die Ausgabe sondern auch für die Aufnahme möglich ist) allerdings mindestens machbar sein von 4:2:0 UHD auf 4:2:2 FHD downgescaled aufzunehmen, was der gleichen, beschriebenen Gesetzmäßigkeit folgt.

Danach teile uns bitte das Ergebnis hier mit. Wenn ich das mache gilt das sowieso wieder als gefärbt.


Bottom Line: solange 4K verarbeitet werden kann macht der Downscale zu 4:4:4/4:2:0 keinen Sinn!!!



klusterdegenerierung
Beiträge: 27412

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Oh man, Atomos braucht auch kein 444 Codec, denn an allen SDI Ausgängen kommt, wenn es nicht gerade RAW ist, eh nur 422!
Anders ist es bei deren Raw, die sind ja eh 4444 egal ob in 4K oder 2K.
"Was von Natur aus flach ist, bläht sich auf!"



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Oh man, Atomos braucht auch kein 444 Codec, denn an allen SDI Ausgängen kommt, wenn es nicht gerade RAW ist, eh nur 422!
ja -- 4:2:0 und 4:2:2 sind einfach die gängigsten konventionen, überall dort, wo es um effizienten transport geht. das macht durchaus sinn -- speziell, wenn man mögliche troubles auf ein minimum reduzieren will bzw. kompatibel bleiben will. aber genau deshalb spricht eben auch einiges dafür einfach 4K 4:2:0 quasi nur für den transport zu benutzen, um dann letztlich doch nur sehr sauberere 2K ohne unterabtastungsartifakte zu produzieren. genau darin sehe ich den sinn jener möglichkeiten, die einem heute relativ günstige 4K kameras bieten.
klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Anders ist es bei deren Raw, die sind ja eh 4444 egal ob in 4K oder 2K.
nachdem diese [4:4:4] RGB rohdaten aber noch debayert werden müssen, ist es auch hier ziemlich problematisch, sie so zu behandeln als wären sie bilder mit völlig unabhängig voneinander zu betrachtenden pixeln. in wahheit zeigen sich hier leider ganz ähnlich begleiterscheinung wie bei unterabgetastetem YUV materal. deshalb habe ich oben ohnehin bereits geschrieben, dass 4:2:0 und 4:2:2 material ganz gut mit jener tatsächlichen farbauflösung korrespondiert, die ein sensor mit gleicher größenangabe zu liefern vermag.

es ist jedenfalls ganz bestimmt nicht so, dass entsprechende unterabgetastete Prores-aufzeichnungsmöglichkeiten auch nur annähernd an das heranreichen, was die RAW-daten eigentlich hergeben. hier ein ganz praktisches beispiel aus der BMD pocket, wo das sehr schön zu sehen ist:

Bild

genau derartiges lässt sich aber mit workflows, die das material zwar auch nur als 4:2:0 transportieren, sich dabei aber verhältnismäßig hoher spatialer auflösungsreserven bedienen, die man in der weiteren verarbeitung bzw. als zielauflösung gar nicht erst anstrebt, ziemlich gut nutzen, um wenigstens wirklich befriedigende resultate in einem viertel der ausgangsgröße zu erzielen.



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Oh man, Atomos braucht auch kein 444 Codec, denn an allen SDI Ausgängen kommt, wenn es nicht gerade RAW ist, eh nur 422!
"Oh man..." ????? ...was hat der Codec mit den SDI Anschlüssen zu tun wenn wir oben (TomStg) in ein "vielleicht intern mögliches Downscaling" eingestiegen sind und das von UHD zu FHD gewonnene 4:4:4 Material in 4:4:4 aufnehmen wollen??? Erklärung!!!????
klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Anders ist es bei deren Raw, die sind ja eh 4444 egal ob in 4K oder 2K.
4444 RAW????? -> Oh Mann!!!!!! Hier fehlt echt jeglicher Boden für einen Grundstein!



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

ah ja -- weil es ganz gut zur überschrift des threads passt -- hier noch ein nettes ganz praktisches besipiel zu den vermeintlichen gelben artifakten, von denen wowu weiter oben im zusammenhang mit grün-rot-übergängen gesprochen hat:

Bild

"Hast Du also einen roten und einen grünen Pixel nebeneinander liegen, macht die Unterabtastung einen gelben Pixel daraus. Dieser gelbe Pixel ist von nun an ins Bild eingebacken und mit keiner mathematischen Formel wieder in die Ausgangsfaben zurück zu bringen."



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

...es spielt keine Rolle ob irgendwann irgendwelche Artefakte, Marsmenschen oder die Glücksspirale ins Bild gekommen ist, es geht darum dass im Faktor 2 runterskalierten Material statt jeder zweite nun JEDER Pixel eine eigene, individuelle Ausgangsfarbinformation zugewiesen erhält, das alleine reicht dafür dass es 4:4:4 ist! Jeder 2. durch 2 ist 1 -> EINS -> JEDER!!!!!

Leute, ihr macht mich echt fertig ;-) ;-) ;-) !!!!!



Roland Schulz
Beiträge: 3565

Re: Was sagt WoWu denn zu...

Beitrag von Roland Schulz »

420zu444.jpg
....nochmal das Bild dazu, ziemlich genau 1 Jahr her.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



klusterdegenerierung
Beiträge: 27412

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Roland Schulz hat geschrieben: Do 10 Aug, 2017 15:45
klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Oh man, Atomos braucht auch kein 444 Codec, denn an allen SDI Ausgängen kommt, wenn es nicht gerade RAW ist, eh nur 422!
"Oh man..." ????? ...was hat der Codec mit den SDI Anschlüssen zu tun wenn wir oben (TomStg) in ein "vielleicht intern mögliches Downscaling" eingestiegen sind und das von UHD zu FHD gewonnene 4:4:4 Material in 4:4:4 aufnehmen wollen??? Erklärung!!!????
klusterdegenerierung hat geschrieben: Do 10 Aug, 2017 14:40 Anders ist es bei deren Raw, die sind ja eh 4444 egal ob in 4K oder 2K.
4444 RAW????? -> Oh Mann!!!!!! Hier fehlt echt jeglicher Boden für einen Grundstein!
Du hast in dem Zusammenhang von Codec gesprochen nicht ich!
Du hast Dich gefragt wie Atomos das downgescalete UHD in 444 abspeichern soll, wenn es nicht mal einen Codec zu Verfügung hat.
Diesen braucht es aber eben auch nicht, da aus gewöhnlichen SDI Outputs kein 444 sondern nur 422 rauskommt.
Somit wäre ein 444 fähiger Codec im Atomos Perlen vor die ***.

Im Gegensatz zu den Raw DNGs, diese werden als 444 Subsampling aufgezeichnet, aber eben auch nur da und nicht als ProRes,
also braucht der Atomos an der Stelle auch keinen 444 Codec.

Wenn Deine Theorien stimmen würden, wäre es ein leichtes für Atomos oder Convergent solche einen Codes zu implementieren,
denn beide besitzen die Fähigkeit 4K auf 2K intern down zu samplen.

Da knüpfe ich an Tom an, denn die wären wohl nicht so blöd und würden dieses galaktische feature nicht implementieren!
Im übrigen finde ich es schon sehr geschmack- & respektlos wie Du hier die User angehst.
Es ist eine Sache für etwas zu brennen, aber Du muß deswegen hier nicht immer ständig alle beleidigen!!
"Was von Natur aus flach ist, bläht sich auf!"



 Aktuelle Beiträge [alle Foren]
 
» Fujinon XF 18-120mmF4 LM OZ WR - Erfahrungsbericht
von Funless - Fr 15:32
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von Frank Glencairn - Fr 15:30
» Meine erste Kritik in Filmthreat :-)
von soulbrother - Fr 15:06
» Was hast Du zuletzt gekauft?
von ruessel - Fr 13:34
» Dank KI: Propagandafilm leichtgemacht
von macaw - Fr 13:23
» Insta360 X4 360°-Action-Kamera filmt in 8K
von soulbrother - Fr 13:15
» Was schaust Du gerade?
von Axel - Fr 13:03
» Angelbird MagSafe externe Recording Modules - nicht nur für iPhones
von soulbrother - Fr 11:47
» Blackmagic URSA Cine 12K erklärt: Dynamikumfang, Monitoring-Setup uvm...
von slashCAM - Fr 11:39
» Messevideo: Atomos NINJA PHONE erklärt
von rob - Fr 10:02
» Western Digital stellt weltweit erste 4 TB SD-Karte vor
von dienstag_01 - Fr 10:00
» Blackmagic URSA Cine 12K - 16 Blendenstufen für 15.000 Dollar!
von iasi - Fr 8:38
» Microsoft VASA-1 generiert realistische Video-Portraits aus einer Audiodatei
von 7River - Fr 7:21
» Was hörst Du gerade?
von klusterdegenerierung - Fr 0:41
» Anfänger im Schnitt Stunden- bzw. Tageshonorar Beteiligung am Gewinn
von Jalue - Fr 0:13
» Repariert bebob noch ältere Produkte?
von Skeptiker - Fr 0:01
» NAB 2024 Neuigkeiten
von pillepalle - Do 22:35
» Sony bringt weiteres Weitwinkel-Zoomobjektiv - FE 16-25mm F2.8 G
von rush - Do 21:59
» Suche JVC DT-V1910CG oder Sony BVM D/A-Serie Monitore
von guut - Do 19:16
» Linsen (Vintage, Anamorphic & Co.)
von TomStg - Do 16:55
» Western Digital Ultrastar Transporter: 368 TB in der Aktentasche
von juergensaibic - Do 15:54
» Freefly Systems Ember S2.5K - High Speed Kamera für 25.000 Dollar
von roki100 - Do 15:01
» Atomos 5" Shinobi/SDI und Ninja/V Zubehör-Set fabrikneu/unbenutzt
von Rockie - Do 13:29
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Skeptiker - Do 12:43
» Blackmagic Box Camera
von roki100 - Mi 20:31
» GPS Receiver GP-E2 Standort anzeigen
von Reinhold888 - Mi 17:32
» Netflix „Ripley“
von TomStg - Mi 13:17
» Adobe entfernt negativ promts
von klusterdegenerierung - Mi 12:09
» Tragischer Unfall am Set trotz Filmwaffe: Kamerafrau stirbt nach Schuß von Alec Baldwin
von 7River - Mi 11:23
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Mi 10:19
» Blackmagic DaVinci Resolve 19 jetzt auch auf Deutsch
von medienonkel - Mi 9:58
» DJI Avata 2, Goggles 3 und RC Motion 3 im ersten Praxistest
von Videopower - Di 23:35
» RED ist nun eine Nikon-Tochter - und Jarred Land abgesetzt
von iasi - Di 23:24
» ASUS ProArt PA32KCX - 8K Mini-LED-Monitor mit DisplayPort 2.1
von MK - Di 20:22
» Blackmagic stellt neues DaVinci Resolve Micro Color Panel für 495 Dollar vor
von patfish - Di 19:57