Frage von Frank B.:Folgende Frage habe ich in einem anderen Thread bereits gestellt, hab aber eingesehen, dass sie dort etwas OT ist. Habe mich von daher dazu entschlossen, diesen separaten Thread dazu aufzumachen. Hintergrund der Frage ist, das immer wieder geäußert wird, dass von 4K auf FHD herunterskaliertes Material oft besser aussehen soll als natives FullHD.
Ich kopiere die Frage(n) einfach mal hier rein, wie ich sie im anderen Thread formuliert habe:
Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
Ich arbeite z.B. mit Edius 8.2 und einer HD-Storm-Karte und lege die Timeline in FullHD 25P an. Mein Material ist 4K 25P und FullHD 25P, manchmal auch FullHD 50P. Das Endergebnis soll immer FullHD 25P sein. Die Stormkarte zeigt dieses Format auch in Echtzeit auf einem Kontrollmonitor an und zwar unabhängig davon, welches der oben genannten Formate ich in die Timeline gezogen habe. Die Karte skaliert also mein 4K-Material in Echtzeit nach Full HD? Oder ist unter Downskalierung noch was anderes gemeint? Eine Umrechnung in einen ganz bestimmten Codec vielleicht?
Die Frage wäre auch, auf welchem Wege ich zum bestmöglichen Endresultat in FullHD 25P käme. Das 4K-Material zuerst in einen hochwertigen FullHD Codec wandeln oder einfach so weiter machen wie bisher, alles in die TL rein und das Endergebnis dann am Ende in mein Zielformat rausrendern?
Letzteres ist für mich praktischer, weil ich dann bis zum Schluss noch Ausschnittskorrekturen im 4K-Material vornehmen kann.
Antwort von mash_gh4:
Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
im grunde ist darunter nur das vergrößern bzw. verkleiner der bildgröße zu verstehen.
Die Karte skaliert also mein 4K-Material in Echtzeit nach Full HD? Oder ist unter Downskalierung noch was anderes gemeint?
sicher
Eine Umrechnung in einen ganz bestimmten Codec vielleicht?
mit codec hat das nichts zu tun, aber es gibt verschiedene technische möglichkeiten bzw. algorithmen, um bilder zu skalieren. das kann tlw. schon einen erkennbaren unterschied in der resultierenden qualität ausmachen.
https://en.wikipedia.org/wiki/Compariso ... algorithms
https://en.wikipedia.org/wiki/Image_scaling
Antwort von beiti:
Du hast das schon richtig verstanden: Wenn Du UHD-Material in eine HD-Timeline ziehst, findet ganz automatisch eine Skalierung statt. Du brauchst also keinen zusätzlichen Arbeitsschritt. Schon aufgrund der Reserven (z. B. für die von Dir erwähnte Ausschnittskorrektur) ist das direkte Verarbeiten des UHD-Materials günstiger.
Vorab runterskalieren würde ich es höchstens dann, wenn der Rechner nicht leistungsstark genug für die Echtzeitskalierung von UHD ist und die Arbeit sonst zu zäh wird.
Skalierung kann in unterschiedlicher Qualität erfolgen - und bessere Methoden brauchen mehr Rechenmleistung. In Edius lässt sich hierzu in den Projekteinstellungen eine "Resampling-Methode" wählen. "Lanczos 3" ist eine gute Grundeinstellung; wer das Ergebnis besonders knackig/scharfgezeichnet möchte, kann "Lanczos 3 Schärfer" wählen.
Wenn man Performance-Probleme hat, kann man zur Beschleunigung der Echtzeitleistung vorübergehend auf "Bilinear" gehen - sollte aber nicht vergessen, vor dem endgültigen Rausrendern wieder auf "Lanczos" umzustellen.
Mit Codecs hat die Skalierung nichts zu tun.
Antwort von Frank B.:
OK, vielen Dank, ihr zwei. Ihr habt mir sehr geholfen. Vor allem der Tipp, in Edius auf Lanczos 3 umzustellen. Um diesen Eintrag hatte ich mich bisher noch nicht gekümmert, weil er mir nichts sagte. Jetzt hab ich dort mal umgestellt. Mal sehen, ob die Ergebnisse sichtbar besser werden. Ich habs noch nicht genau austesten können.
Also nochmals vielen Dank. Ich denke, dann hatte ich das auch annähernd richtig verstanden mit dem Skalieren.
Antwort von Axel:
Schön erklärt auf der Seite
Cambridge in Color.
Darin auch in den Beispielen gut zu sehen, welche Methode und bei welcher Gelegenheit sichtbare Artefakte produziert. Wobei wir bei Artefakten automatisch an Moire denken, aber auch das Gegenteil ist möglich. Wenn etwa das Detail eines Bildes in etwa Pixelgröße hat ...
zum Bild
... und auf 50 % skaliert wird ...
zum Bild
Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir)
Antwort von mash_gh4:
Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir)
die resolve selbstdarstellung kingt doch immer derart exklusiv, auch wenn sie in wahrheit unter der oberfläche praktisch überall nur die ganz einfachen und gebräuchlichen techniken benutzen, wie es auch alle anderen tun. wirklich störend daran ist meistens nur der umstand, dass weder sauber dokumentiert ist, was tatsächlich geschieht, noch eine rationelle entscheidung des benutzers auf basis entsprechender gebräuchlicher technischer angaben oder auswahlmöglichkeiten geboten wird.
Antwort von Jommnn:
Skalierung kann in unterschiedlicher Qualität erfolgen - und bessere Methoden brauchen mehr Rechenmleistung. In Edius lässt sich hierzu in den Projekteinstellungen eine "Resampling-Methode" wählen. "Lanczos 3" ist eine gute Grundeinstellung; wer das Ergebnis besonders knackig/scharfgezeichnet möchte, kann "Lanczos 3 Schärfer" wählen.
Wenn man Performance-Probleme hat, kann man zur Beschleunigung der Echtzeitleistung vorübergehend auf "Bilinear" gehen - sollte aber nicht vergessen, vor dem endgültigen Rausrendern wieder auf "Lanczos" umzustellen.
Mit Codecs hat die Skalierung nichts zu tun.
Lässt sich auch im FCXP zwischen verschiedenen Methoden der Skalierung wählen?
Antwort von WoWu:
Schön erklärt auf der Seite Cambridge in Color.
Darin auch in den Beispielen gut zu sehen, welche Methode und bei welcher Gelegenheit sichtbare Artefakte produziert. Wobei wir bei Artefakten automatisch an Moire denken, aber auch das Gegenteil ist möglich. Wenn etwa das Detail eines Bildes in etwa Pixelgröße hat ...
zum Bild
... und auf 50 % skaliert wird ...
zum Bild
Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir)
Moin Axel.
Antwort ist doch im Text schon gegeben.
Seitdem es 4K gibt, besteht die überwiegende Mehrzahl der Pixel ohnehin aus Sub Pixels und damit aus der Bildrekonstruktion.
Ich denke, wir werden uns von den herkömmlichen Methoden der Bilderzeugung sehr bald verabschieden.
Das neue SONY RAW Verfahren ist (vermutlich) ein weiterer Schritt in diese Richtung ... insofern ist es kein Wunder, dass Resolve es auch bereits unterstützt.
https://nanoheat.stanford.edu/sites/def ... ns/A52.pdf
Antwort von mash_gh4:
Seitdem es 4K gibt, besteht die überwiegende Mehrzahl der Pixel ohnehin aus Sub Pixels und damit aus der Bildrekonstruktion.
mit 4k hat das denkbar wenig zu tun. da ist wirklich kein großer unterschied zu herkömlichen FHD auszumachen. allerdings ist es natürlich tatsaechlich so, dass man nach der kompropression in heutigen videoformaten nicht mehr so einfach von einzelnen isolierten pixeln sprechen kann, weil diese ja normalerweise eher als verlauf über größere flächen (macro blocks) umschrieben bzw. aus solchen heraus wieder rekonstruiert werden.
Antwort von WoWu:
Gerade weil es so ist, dass kein großer Unterschied besteht, deutet das auf Sub Pixels hin, denn im upscaling Verfahren wird jedes Pixel 4-Fach erweitert und in der Kantenortbestimmung die zusätzlichen Pixels mit dem entsprechenden Kartenverkauf aufgefüllt. Dabei wird auch die Kantenweite eingestellt.
Ob ich die Verfahren nun vorwärts oder rückwärts anwende, ist ziemlich Jacke wie Hose.
Daher verschwinden auch keine Linien mehr, wie in der normalen Interpolation.
Ganz im Gegenteil. Durch die kontrasterhöhende Wirkung werden sie sichtbarer.
Antwort von TheBubble:
Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
Um die Frage im Video-Kontext zu beantworten:
Beim Hochskalieren wird eine Pixelmatrix auf eine neue Matrix abgebildet, die mehr Pixel enthält. Also mehr Spalten und/oder Zeilen als die Ausgangsmatrix.
Beim Herunterskalieren wird eine Pixelmatrix auf eine neue Matrix abgebildet, die weniger Pixel enthält. Also weniger Spalten und/oder Zeilen als die Ausgangsmatrix.
Die Abbildung kann man durch Interpolation und/oder Filterung der Werte vornehmen.
Das ist jetzt sehr allgemein gehalten, aber die Begriffe sind auch recht allgemein. Sie stehen jedenfalls nicht für ein bestimmes Berechnungsverfahren.
Antwort von Frank B.:
Ja, nochmals Danke. Ich denke, im Kern hatte ich es ja richtig verstanden mit der Skalierung. Mir war eigentlich lediglich nicht klar, dass es so verschiedene Interpolations- bzw. Filtermöglichkeiten gibt. Das war eigentlich im Grunde der Hintergrund meiner Frage, die ich dann irgendwie so umschrieben hatte, wie sie oben steht, da ich ja diese Zusammenhänge nicht genau kannte. Mir ging es im Grunde um den qualitativ hochwertigsten Weg, aus meinem 4K-Material FullHD Material zu machen. Als Ergebnis zu allem, was ich dazu bisher so zum Thema Skalierung las, war ich davon ausgegangen, dass es da Unterschiede geben muss, dass es eben ganz unterschiedliche Endergebnisse gibt z.B. bei der Downskalierung von 4K auf FullHD. Das ist ja hier nun bestätigt worden.
Das 4K-Material hat bei mir im Moment tatsächlich nur den Grund darin, nachträglich Aufnahmen zu stabilisieren bzw. mich im Bildausschnitt noch bewegen zu können. Endergebnis ist bei mir noch FullHD in 25P. Damit kommt mein Rechner sehr gut klar und ich finde es persönlich auch ästhetischer als 50P Material. Aber das ist ja Geschmackssache. Für mich passt es halt gut.
Antwort von mash_gh4:
Mir ging es im Grunde um den qualitativ hochwertigsten Weg, aus meinem 4K-Material FullHD Material zu machen.
in dem zusammenhang sind die jene konvertierunmgen, wie sie ein paar leute zu genau diesem zweck ersonnen haben, noch immer ziemlich interesannt:
http://www.personal-view.com/talks/disc ... ress-topic
während nämlich bei den normalen skalierungstechniken die einzelnen pixel immer als unabhängig und mit voller farbinformation angenommen werden, wird dort dort der video-stream tatsächlich in seine verschiedenen komponenten zerlegt, farbe und helligkeitsinformation getrennt skaliert und dann erst wieder rekombiniert. das liefert tatsächlich bessere ergebnisse, braucht aber auch in praxis leider deutlich mehr zeit beim umrechnen. ich verwende es aus diesem grund eher selten, aber wenn du tatsächlich ein maximum aus deinem material herausholen willst, solltest du diese variante evtl. auch einmal ausprobieren.
Antwort von TheBubble:
während nämlich bei den normalen skalierungstechniken die einzelnen pixel immer als unabhängig und mit voller farbinformation angenommen werden, wird dort dort der video-stream tatsächlich in seine verschiedenen komponenten zerlegt, farbe und helligkeitsinformation getrennt skaliert und dann erst wieder rekombiniert.
Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt.
Wenn man es mehr oder weniger optimal machen möchte, dann müsste man mit linearem RGB arbeiten. Das wird aber eher selten gemacht.
Antwort von mash_gh4:
Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt.
die wenigsten gebräuchlichen skalierungstechniken berücksichtigen die eigenheiten der farbunterabtastung in jener weise, wie es hier geschieht.
Wenn man es mehr oder weniger optimal machen möchte, dann müsste man mit linearem RGB arbeiten. Das wird aber eher selten gemacht.
skalierung in linearen bezugsräumen hat wieder ander vorteile, trotzdem liegt im hier zur debatte stehenden fall das material in einer YUV bzw. YCbCr beschreibung mit 4:2:2 oder 4:2:0 farbsubsampling vor. dem gilt es auch rechnung zu tragen, wenn man wirklich ein maximum herausholen will.
Antwort von WoWu:
Das ist die alte Diskussion über Downsampling nach 4:4:4, in der nie berücksichtigt wird, dass die Bilder bereits Fehler enthalten, die irreparabel sind, egal in welchem Farbmodell man das macht.
Aber da steige ich nicht wieder ein.
Aber wenn das aus dem Vitaly Forum kommt, dann wundert mich eigentlich auch nichts mehr.
Antwort von TheBubble:
skalierung in linearen bezugsräumen hat wieder ander vorteile,
Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben.
Antwort von mash_gh4:
Aber wenn das aus dem Vitaly Forum kommt, dann wundert mich eigentlich auch nichts mehr.
die ursprüngliche idee für diese geschichte stammt von jemandem, der für dolby labs arbeitet, und immer wieder einigen durchblick bewiesen hat, wenn es um fragen der video-signalverarbeitung ging. umgesetzt und schrittweise weiter verbessert, wurde es dann von anderen...
Antwort von WoWu:
... nur wie man die Falschfarben aus dem Bild bekommt hat er aber auch nicht gesagt.
Aber is ja egal ... wenn man sowieso das nur über Basteln hinbekommt und ohnehin kein NLE das unterstützt, (warum eigentlich nicht, wenn das so toll funktioniert) dann ist das alles sowieso akademisch.
Sei's also drum.
Überlassen wir es denen, die daran glauben, auch wenn' s nicht geht.
Antwort von mash_gh4:
Aber is ja egal ... wenn man sowieso das nur über Basteln hinbekommt und ohnehin kein NLE das unterstützt, (warum eigentlich nicht, wenn das so toll funktioniert) dann ist das alles sowieso akademisch.
so weit ich weiß, unterstützen handbrake, hybrid und cliptoolz die entsprechenden umwandlungsprozeduren auch über einfach zu bedienende oberflächen.
wenn man die resultate penibel vergleicht, sind vorteile dieses verfahrens kaum zu bestreiten. das ist mir erst letztens wieder bewusst worden, als ich die foveon-sensor-beispielbilder von cantsin mit verschieden methoden skaliert habe. wie gesagt, normalerweise mache ich das auch nicht auf diesem weg, weil es mir einfach zu lange dauert...
skalierung in linearen bezugsräumen hat wieder ander vorteile,...
Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben.
ich bin zwar auch davon überzeugt, dass derartige operationen nur in linearen bezugsräumen bzw. scene referred data wirklich sauber durchgeführt werden können, aber das setzt eben auch deutlich komplizierte workflows voraus. einfache programme gehen bei der entsprechenden linearisierung im besten fall davon aus, dass es sich um rec709 footage handelt, was sich aber leider nicht unbedingt immer hinreichend mit den tatsächlich verwendeten bildprofilen decken muss...