Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // 4:2:2 nach 4:4:4 beim runterskalieren möglich?



Frage von Adl:


Hallo zusammen!

Ich habe Ausgangsmaterial, das ich in 1920x1080 in 4:2:2 aufnehme (ProRes 422 oder HQ). Das Ganze vor einem greenscreen und in HOCHKANT, da ich nur eine Person filme und keine Auflösung verschenken mag.

Ich muss das Ganze ja dann von 1920 Px Höhe auf 1080 Px Höhe für das Endformat runterskalieren. Und dann den chroma key ziehen.
Jetzt zu meiner Idee: Wenn ich eh die Auflösung fast halbiere, könnte ich im Gegenzug dann nicht die Farbinformation erhöhen. Also von 4:2:2 höher gehen. Für den Key wäre ich um jede vermehrte Farbinformation dankbar.

Ich arbeite mit Premiere Pro CS5 für den Schnitt und (bis jetzt) auch für den chroma key (Ultrakey).

Wärt ihr so nett und könntet mir sagen, ob das überhaupt Sinn macht: Tausche Auflösung gegen chroma-subsampling?
Und falls ja, welches Programm könnte denn die transcodierung machen? Und in welches Format, das ich dann in Premiere weiter verarbeiten kann?

Vielen Dank vorab!

Space


Antwort von Pianist:

Würde ich alles nicht so machen. Die Aufnahme um 90 Grad drehen und verkleinern wird eher die Qualität verschlechtern. Bleibe lieber im System und nehme die Person vor der grünen Wand genau so auf wie sonst auch. Was Du aber machen kannst: Selbst wenn die Person später beim Stanzen nach links oder rechts gesetzt werden soll, nehme sie ruhig in der Mitte auf, weil die meisten Objektive ja in der Mitte doch schärfer sind als am Rand.

4:2:2 ist übrigens vollkommen ausreichend, da musst Du Dir wirklich keine Gedanken machen. 4:2:0 oder 3:1:1 wäre kritisch, aber in Deinem Fall ist das alles kein Problem.

Matthias

Space


Antwort von TheBubble:

Jetzt zu meiner Idee: Wenn ich eh die Auflösung fast halbiere, könnte ich im Gegenzug dann nicht die Farbinformation erhöhen. Also von 4:2:2 höher gehen. Vom Grundgedanken her ist das möglich.

Space


Antwort von Pianist:

Aber es wird nicht mehr, als es vorher war. Es ist eine 4:2:2-Farbinformation, die in einem 4:4:4-Bild dargestellt wird.

Matthias

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von srone:

ich sehe es als durchaus möglich, aus mehreren pixeln eine 4:4:4 farbdarstellung zu interpolieren, jedoch ist mir kein entsprechendes plugin bekannt.

der allgemeine sinn eines solchen plugins, wäre imho sehr begrenzt.

lg

srone

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von srone:

trotzdem bleibt die farbqualität des eingangssignals diesselbe, erst durch die auflösungsreduktion und die damit verbundene interpolation, wäre es theoretisch möglich, die farbauflösung heraufzusetzen, aber um welchen preis?
full hd zu 640x360, damits dann 4:4:4 ist? :-)

lg

srone

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space



Space


Antwort von srone:

Ist das so?
Durch einen Farbeffekt verschiebe ich doch die Qualitäten enorm, da sie künstlich beigemischt werden. Die Quelle für den Encodierlauf hat danach nichts mehr mit den Farbinformationen und dem Farbsampling des Quellvideos zu tun. Der Encodierer bekommt in jedem Pixel völlig neue Vollfarben vorgesetzt. Oder?

Beste Grüße,
Reiner du verschiebst ein 8bit 4:2:0 raster, mögliche zwischenstufen sind schon im quellmaterial nicht vorhanden, man könnte dies, trotz 32bit zwischenbearbeitung, zu 10bit 4:4:4 kodieren, ohne skalierung, das ergebnis wäre ein bruchstückhaft gefüllte (was die mögliche farbqualität angeht), viel platz beanspruchende videodatei, deren absolute qualität 8bit 4:2:0 nicht übersteigt.

lg

srone

Space


Antwort von TheBubble:

Ich versuche mal den Zusammenhang vereinfacht zu beschreiben:

Viele Effekte wollen gerne auf RGB Bitmaps angewendet werden, dies entspricht von der Menge der Farbinformationen her YCrCb 4:4:4. Daher muss zuerst jedes in einzelnen Farbkanälen unterabgetastete Format (z.B. YCrCb 4:2:2 oder 4:2:0) auf 4:4:4 interpoliert werden.

Nachdem durch den Effekt eine neue RGB Bitmap erstellt wurde, wird diese vom Codec am Ende der Verarbeitungskette wieder komprimiert. Dieser wendet (je nach Codec) zuerst eine Farbraumwandlung an und skaliert danach gegebenenfalls (auch je nach Codec) die Kanäle mit den Farbinformationen runter, nur die Helligkeitsinformationen bleiben in voller Auflösung erhalten.

Da bei 4:2:0 Codecs die zwei Farbkanäle auf 50% Höhe und Breite skaliert sind, kann man durch Skalierung des noch voll aufgelösten Helligkeitskanals um ebenfalls 50% eine quasi 4:4:4 Bitmap mit halber Ausgangsauflösung erzeugen, nur noch der Farbraum müsste wieder nach RGB gewandelt werden. (Das Ganze geht auch, wenn man zuerst nach RGB wandelt und dann skaliert. Nur ein anderer Weg zum gleichen Ziel.)

Das einzige Problem, mit dem man umgehen muss ist, dass die Samples der Farbkanäle (Cr und Cb) nicht bei allen unterabgetasteten Formaten direkt über einem Y-Sample liegen müssen. Um einen Versatz zu korrigieren ist eine Verschiebung z.B. um einen halben Pixel nötig, was wieder nur mit Interpolation gelingt.

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von srone:

ich gebe dir in allem recht, bis auf die idee des farbqualitativen aufwertens durch grading, bei 8bit hast du 256 werte pro kanal, du kannst graden wie du willst, in welcher auflösung auch immer, bestenfalls bleiben es 256 werte pro kanal.

lg

srone

Space


Antwort von dienstag_01:

Ich denke, jedem, der schon mal mit ColorCorrection oder Keying gearbeitet hat, wir wissen, welchen Unterschied es macht, ob ich in einer Apllication mit 8 oder 32 bit Genauigkeit arbeite. Wenn ich also mein Ausgangsmaterial runterskaliere, dann in 32bit (so ich habe) und, wenn ich nicht sofort den Key anlege, abspeichern in allerhöchster Auflösung, also z.B. als Tiff-Sequenz. Das macht Sinn. Erneutes Abspeichern mit einem 8bit Codec wäre hier wirklich kontraproduktiv.

Space


Antwort von srone:

natürlich macht 32bit bearbeitung sinn, das meinte ich mit "bestenfalls".

lg

srone

Space


Antwort von Adl:

Ihr habt mir alle schon mal sehr viel weiter geholfen, insbesondere über die interne Verarbeitung von Premiere. Ultrakey hat jedenfalls kein 32bit-Symbol.

Wenn ich das vor dem Hintergrund richtig verstanden habe, dann könnte ein Zweischritt tatsächlich Sinn machen. Und ich komme vielleicht mit den "Bordmitteln" von Premiere weiter.
D.h. Ausgangsmaterial (4:2:2 1920x1080) in Premiere öffnen -> runterskalieren (evlt. wegen geradem Faktor) nach 960x540 -> als TIFF (oder etwas anderes besser?) abspeichern -> neu in Premiere öffnen und jetzt 90Grad drehen und key stanzen...

Mein ihr, das ist einen Versuch Wert, ich kanns mir ja am 100%-Crop vom Ergebnis bei z.B. den Haaren anschauen, ob es eine Verbesserung gebracht hat?

Space


Antwort von srone:

wie ich oben schon schrieb ist es theoretisch möglich, doch premiere skaliert nur runter, interpoliert aber die farbauflösung nicht. (siehe auch thebubble)
und ohne diese interpolation bleibt es bei der gegebenen farbauflösung.

es wird also nichts bringen.

lg

srone

Space


Antwort von Adl:

O.K. hab's verstanden.

Hab ja auch schon zur Genüge mit 4:2:0-Material ge-keyed (schönes Wort:-) und damit ganz gute Verbesserungen erzielt, wenn ich es vor Premiere mit Programmen (5DtoRGB, Cineform etc.) nach 4:2:2 interpoliert habe.
Nur ist mir eben kein Programm bekannt, das von 4:2:2 nach 4:4:4:4 interpoliert. Kennt ihr da was?

Wenn es so was gäbe, könnte ich es eben vor dem Runterskalieren farblich interpolieren lassen...

Space



Space


Antwort von B.DeKid:

Du verstehst anscheinend nicht das das alles nix bringt!

Selbst wenn du EOS Material nach DNxHD ( was Ich ja gern mache) wandelst erhälst Du halt kein richtiges 4:2:2 sondern halt ne File die sich aehnlich wie bei Proxy Schnitt einfacher bearbeiten lässt !


Mach doch einfach mal ne Tif Sequenz aus deinem Material , dann kannst mit LR oder PS oder etc mal graden , klappt zwar ist aber weit davon entfernt wie wenn du mal ne CR2 (RAW) Foto Aufnahme bearbeitest.



Und nein es gibt kein 4:2:2 > 4:4:4 Progi / Converter ---- wie auch ?!?

Die ganze Welt rechnet RAW in ein Format um was man bearbeiten kann - warum sollte man ein BearbeitungsFaehiges Format in ein "Bringt mir Nix" Format umwandeln wollen ?

Leute Leute jetzt mal ehrlich , was erhoffen sich den einige hier von 4:2:2 oder von geschweige denn 4:4:4

Habt Ihr ueberhaupt nen kalibrierten EIZO daheim stehen ?

;-)) zum Schmunzeln is das doch was Ihr da vorhabt , mehr nicht "Keep it real"

MfG
B.DeKid

Space


Antwort von dienstag_01:

Die ganze Welt rechnet RAW in ein Format um was man bearbeiten kann - warum sollte man ein BearbeitungsFaehiges Format in ein "Bringt mir Nix" Format umwandeln wollen ? Du nun wieder. Hast du hier irgendwo irgenwas von irgendeinem Raw gelesen?!
"Keep it real" Du sagst es.


@Adl
Vielleicht soltest du dir mal After Effects anschauen.

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von Pianist:

Im Falle des TO geht es aber um präzises Keying in der Quelle, das auch meiner Meinung nach damit nicht gelöst werden kann. Weil da breits in der Quelle die nötigen Farbinformationen vorliegen müssten. Die sind auch per Interpolation nicht rekonstruierbar. Weg ist weg. Er hat aber ein 4:2:2-Signal und damit also keine Probleme, somit ist die ganze Diskussion rein theoretischer Natur. Er soll es einfach ganz normal aufnehmen, so wie immer, und fertig.

Matthias

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von Pianist:

Zufrieden ist er ja mit den bisherigen Ergebnissen offensichtlich nicht. Er will ja deshalb nach 4:4:4. Dazu hat er bisher nichts vorgetragen. Könnte auch eine vorauseilende Überlegung sein.

Matthias

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von Pianist:

Ganz eindeutig ist das nicht. Also noch mal ganz deutlich die Frage an den Ursprungsschreiber: Warum möchtest Du die Kamera um 90 Grad verdreht montieren, danach die Aufnahme um 90 Grad zurückdrehen und das Farbsubsampling von 4:2:2 auf 4:4:4 verändern? Normalerweise sollte da keinerlei Handlungsbedarf bestehen, weder für das eine, noch für das andere. Du solltest auch dann, wenn Du beides nicht tust, saubere Ergebnisse erhalten. Wenn nicht, würde ich eher woanders nach der Ursache suchen.

Matthias

Space


Antwort von Debonnaire:

Die Kamera um 90 Grad zu drehen, um damit (eine vermutet stehende) Person mit möglichst vielen Pixeln des Sensors aufzunehmen, ist das einzig richtige und wird im professionellen Umfeld regelmässig so gemacht!

Beim Keying geht's ja (nebst der möglichst perfekten Farbinformation) primär darum, möglichst viele Pixel (also eine möglichst hohe Auflösung) an den zu stanzenden Kanten zur Verfügung zu haben, um möglichst präzise und eng rauskeyen zu können. Wenn ich da also mit normal horizontaler Kamera bereits Auflösungs-Pixel verschenke, weil dann die (vermutet stehende) Person nur noch die horizontale Bildhöhe einnehmen kann und in der Breite die Mehrheit der zur Verfügung stehenden Sensorpixel mit sinnlosem Reingrün belichtet werden, ist das suboptimal!

Zum Workflow:
1. Zu keyendes Objekt möglichst bildfüllend (also ggf. mit gedrehter Kamera) vor so homogen wie möglich beleuchtetem und so intensiv und satt farbig wie möglichem Hintergrund in der grössten zur Verfügung stehenden Auflösung und Qualitätsstufe aufnehmen.
2. Im NLE den Key auf der Originalauflösung ziehen (also nicht etwa vorher runter skalieren!).
3. Den Film ggf. als MOV-mit-Transparenz immer noch in der Originalauflösung und der höchsten Qualitätsstufe mit dem besten Codec so lossless wie möglich rausrendern.
4. Dieses MOV-mit-Transparenz ins Film-Projekt reinholen und erst dort auf die benötigte Grösse skalieren und ggf. zurückdrehen.

ODER:
Nach Punkt 2. direkt im gleichen Projekt (ggf. in einer anderen Timeline) passend runterskalieren und drehen und weiter editieren.

Space



Space


Antwort von Adl:

Zufrieden ist er ja mit den bisherigen Ergebnissen offensichtlich nicht. Er will ja deshalb nach 4:4:4 Stimmt, er hat schon Recht. Als vorauseilende Überlegung würde ich das nicht bezeichnen. Wenn ich bis jetzt ganz und gar zufrieden gewesen wäre, dann hätte ich den thread nicht eröffnet.

@Debonnaire
Danke! Nicht nur, dass jemand den Bedarf meiner Überlegung versteht. Sondern auch Danke für die Hilfestellung.

Vielleicht nochmals zur Verdeutlichung.

Die Kamera macht keine "echten" 1000 Zeilen Auflösung. Somit kam ich auf den Gedanken, die Kamera zu drehen, um schärfere Kanten zum Stanzen zu bekommen. So viel Raum auf der Aufnahme zu "verschenken" um ihn mit lauter tollem Grün zu füllen, was dann eh raus gestanzt wird, fand ich keine gute Idee. Und damit habe ich schon bessere Ergebnisse erzielt.
Ich dachte nur, ich könnte jetzt vielleicht in der Post noch einen Schritt weiter gehen und im Zuge der Auflösungsverringerung auch noch mehr Farbinformationen erhalten/interpolieren.

Also ganz klar, der erste Schritt von mir mit dem 90-Grad dreh der Kamera resultiert aus ungenügenden "echten" Auflösung. Wenn ich eine Cam mit 1000+ Zeilen hätte, würde der Bedarf vielleicht auch nicht entstehen - hab ich aber nicht.
Und ich bin um weitere Optimierungen einfach dankbar, weil Haare in Bewegung immer noch etwas besser/realistischer aussehen können beim key...

Space


Antwort von Debonnaire:

Wenn ich eine Cam mit 1000+ Zeilen hätte, würde der Bedarf vielleicht auch nicht entstehen Doch, auch DANN würde es Sinn machen! Wie du sagst: Es ist unsinnig, wertvolle, potenzielle OBJEKTpixel für sinnloses Grün zu verschenken!

Aber dass runterskalieren halt nicht die (Farb-)QUALITÄT der (vorhandenen) Pixel verbessert, ist ja eigentlich auch klar, oder?!

Space


Antwort von dienstag_01:

Aber dass runterskalieren halt nicht die (Farb-)QUALITÄT der (vorhandenen) Pixel verbessert, ist ja eigentlich auch klar, oder?! Das Runterskalieren nicht, aber das Abspeichern in einem unkomprimiertem Format nach der Skalierung ERHÄLT die Farbinformationen im Gegensatz zu einem Codec, der dann nochmals in 4:2:2 oder 4:0:0 komprimieren würde.
Das aber nur am Rande, allgemein leuchtet mir der Tipp mit dem Key auf die hohe Auflösung (also senkrecht) natürlich ein. Aber auch dann, wenn ich nicht im selben Programm gleich weiterarbeiten kann, Bild drehen und unkomprimiert abspeichern.

Space


Antwort von srone:

wie ich oben schon schrieb ist es theoretisch möglich, doch premiere skaliert nur runter, interpoliert aber die farbauflösung nicht. (siehe auch thebubble)
und ohne diese interpolation bleibt es bei der gegebenen farbauflösung. Und wie soll das funktionieren?

Premiere Pro führt unabhängig von allen Quellen ein Upsampling auf 4:4:4 durch. Dadurch ist es möglich mit RGB-Verarbeitung jedes einzelne Pixel mit diskreten Farbwerten auszustatten. Und klar: Das geht nur mit Interpolation (siehe theBubble, der genau das in seinem zweiten Satz beschreibt, wenn ich ihn richtig verstanden habe; Premiere Pro muss und wird das also tun.).

Der gesamte Workflow bleibt nun in diesem Modus, zusätzlich mit 32bpc.

Übrigens: "Skaliert nur runter", das meint in Premiere Pro konkret ein mehrstufiges Verfahren, basierend auf Lanczos2 und bikubischer Interpolation. Lanczos2 sorgt mit aufwendigen Algorithmen dafür, dass die Berechnungen in großen Blöcken durchgeführt werden, mit der bikubischen Interpolation entstehen fein graduierte Farbabstufungen, klare Kanten ohne Treppen und nur wenige Interpolationsartefakte. Zusammen mit dem 32bpc-Farben wird ein unglaublich präzises Ergebniss produziert. Alle Berechnung werden mit 32bit-Fließkommazahlen (bei Einsatz einer nVidia Quadro Karte sogar mit 64bit!) ausgeführt. Diese Genauigkeit wirkt sich in jeder einzelnen Operation der aufwendigen Interpolationsverfahren aus.

Die zusammengesetzten Farbwerte werden in allen drei Kanälen also massiv manipuliert. Auf einem herkömmlichen 8bit-Monitor kommen die Ergebnisse nur bedingt zum Tragen, Unterschiede sind aber auch dort klar zu sehen. Breits eine Wertveränderung von "1" (bei 8bit) in nur einem der drei Farbkanäle verändert die resultierende Farbe.
Das kann man z. B. mit dem Stapeln von halbtransparenten Flächern/Filtern auf ein Video sichtbar machen. 8bit-Workflow und 32bit-Workflow produzieren unterschiedliche Ergebnisse, weil durch Genauigkeiten und Rundungsfehler Abweichungen von "1" (reduziert auf 8bit) in einem oder mehreren Kanälen häufig vorkommen.

Erst beim neuen Encodieren wird einerseits die Bittiefe (8bit/10bit) und anderseits das Samplingformat gewählt. Nun werden die diskreten RGB-Farben in die Sampling-Raster völlig neu überführt. Und auch hier erhalte ich nach einem 32bit-Worflow ein anderes Ergebnis als nach einem 8bit-Workflow. Wobei man sich nun auch den Vorteil eines 4:2:2 gegenüber eines 4:2:0 nutzbar machen kann, denn die RGB-Farbinformationen stehen dafür bereit.

Im Falle des TO geht es aber um präzises Keying in der Quelle, das auch meiner Meinung nach damit nicht gelöst werden kann. Weil da breits in der Quelle die nötigen Farbinformationen vorliegen müssten. Die sind auch per Interpolation nicht rekonstruierbar. Weg ist weg.

Beste Grüße,
Reiner der benötigte interpolations algorithmus um (theoretisch) aus 1920x1080 4:2:2 -> 960x540 4:4:4 zu machen, wäre definitiv ein anderer, als alles was premiere beim skalieren und (farb-)angleichen macht, wir reden hier aneinander vorbei.

lg

srone

Space


Antwort von Ska_Ska_Ska:

Guck dir das mal an https://vimeo.com/38134061
Ist zwar nicht wirklich das was du gesucht hast, aber ich denke durch eine Mischung dieser Technik und deiner sollte dein Vorhaben gelingen.
Gruß

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


Nach der Bild- die Videorevolution: Neue KI "Make-a-Video" generiert Videos nach Text
Abspielen von Video8 Kassetten mit Hi8 Camcorder möglich ?
DaVinci Resolve mit Komplett-PC möglich?
Metabones Speedbooster der BMPCC4K an GH5(s) möglich?
Resolve: Audiomonitoring einzelner Spur des Quellclips möglich?
Zeitdauer aller existierenden Filmclips von Projekt addieren (mit Prelude möglich?)
YouTube: Live-Streaming jetzt auch in HDR möglich
Blackmagic Poket 6K mit PC Monitor verbinden möglich?
Film brennen/teilen nicht möglich
ProRes Export für Resolve 17 unter Windows - Voukoder macht's bald möglich
CS6 zusätzl. Audio Out in Stereoproj. möglich?
Sony A7 III Cine2 Filmen mit Kit-Objektiv möglich?
Projekte mit gekürzten Clips speichern möglich?
Tracking und Retusche wie bei Nuke möglich?
Windows 7 Fire Wire noch möglich?
Wie Peter Jacksons Beatles-Doku "Get Back" erst durch AI möglich wurde




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash