im grunde ist darunter nur das vergrößern bzw. verkleiner der bildgröße zu verstehen.Frank B. hat geschrieben:Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
sicherFrank B. hat geschrieben:Die Karte skaliert also mein 4K-Material in Echtzeit nach Full HD? Oder ist unter Downskalierung noch was anderes gemeint?
mit codec hat das nichts zu tun, aber es gibt verschiedene technische möglichkeiten bzw. algorithmen, um bilder zu skalieren. das kann tlw. schon einen erkennbaren unterschied in der resultierenden qualität ausmachen.Frank B. hat geschrieben:Eine Umrechnung in einen ganz bestimmten Codec vielleicht?
(Hervorhebungen von mir)Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
die resolve selbstdarstellung kingt doch immer derart exklusiv, auch wenn sie in wahrheit unter der oberfläche praktisch überall nur die ganz einfachen und gebräuchlichen techniken benutzen, wie es auch alle anderen tun. wirklich störend daran ist meistens nur der umstand, dass weder sauber dokumentiert ist, was tatsächlich geschieht, noch eine rationelle entscheidung des benutzers auf basis entsprechender gebräuchlicher technischer angaben oder auswahlmöglichkeiten geboten wird.Axel hat geschrieben: Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.(Hervorhebungen von mir)Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
Lässt sich auch im FCXP zwischen verschiedenen Methoden der Skalierung wählen?beiti hat geschrieben:
Skalierung kann in unterschiedlicher Qualität erfolgen - und bessere Methoden brauchen mehr Rechenmleistung. In Edius lässt sich hierzu in den Projekteinstellungen eine "Resampling-Methode" wählen. "Lanczos 3" ist eine gute Grundeinstellung; wer das Ergebnis besonders knackig/scharfgezeichnet möchte, kann "Lanczos 3 Schärfer" wählen.
Wenn man Performance-Probleme hat, kann man zur Beschleunigung der Echtzeitleistung vorübergehend auf "Bilinear" gehen - sollte aber nicht vergessen, vor dem endgültigen Rausrendern wieder auf "Lanczos" umzustellen.
Mit Codecs hat die Skalierung nichts zu tun.
Moin Axel.Axel hat geschrieben:Schön erklärt auf der Seite Cambridge in Color.
Darin auch in den Beispielen gut zu sehen, welche Methode und bei welcher Gelegenheit sichtbare Artefakte produziert. Wobei wir bei Artefakten automatisch an Moire denken, aber auch das Gegenteil ist möglich. Wenn etwa das Detail eines Bildes in etwa Pixelgröße hat ...
... und auf 50 % skaliert wird ...
Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.(Hervorhebungen von mir)Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
mit 4k hat das denkbar wenig zu tun. da ist wirklich kein großer unterschied zu herkömlichen FHD auszumachen. allerdings ist es natürlich tatsaechlich so, dass man nach der kompropression in heutigen videoformaten nicht mehr so einfach von einzelnen isolierten pixeln sprechen kann, weil diese ja normalerweise eher als verlauf über größere flächen (macro blocks) umschrieben bzw. aus solchen heraus wieder rekonstruiert werden.WoWu hat geschrieben:Seitdem es 4K gibt, besteht die überwiegende Mehrzahl der Pixel ohnehin aus Sub Pixels und damit aus der Bildrekonstruktion.
Um die Frage im Video-Kontext zu beantworten:Frank B. hat geschrieben: Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
in dem zusammenhang sind die jene konvertierunmgen, wie sie ein paar leute zu genau diesem zweck ersonnen haben, noch immer ziemlich interesannt:Frank B. hat geschrieben:Mir ging es im Grunde um den qualitativ hochwertigsten Weg, aus meinem 4K-Material FullHD Material zu machen.
Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt.mash_gh4 hat geschrieben: während nämlich bei den normalen skalierungstechniken die einzelnen pixel immer als unabhängig und mit voller farbinformation angenommen werden, wird dort dort der video-stream tatsächlich in seine verschiedenen komponenten zerlegt, farbe und helligkeitsinformation getrennt skaliert und dann erst wieder rekombiniert.
die wenigsten gebräuchlichen skalierungstechniken berücksichtigen die eigenheiten der farbunterabtastung in jener weise, wie es hier geschieht.TheBubble hat geschrieben:Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt.
skalierung in linearen bezugsräumen hat wieder ander vorteile, trotzdem liegt im hier zur debatte stehenden fall das material in einer YUV bzw. YCbCr beschreibung mit 4:2:2 oder 4:2:0 farbsubsampling vor. dem gilt es auch rechnung zu tragen, wenn man wirklich ein maximum herausholen will.TheBubble hat geschrieben:Wenn man es mehr oder weniger optimal machen möchte, dann müsste man mit linearem RGB arbeiten. Das wird aber eher selten gemacht.
Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben.mash_gh4 hat geschrieben: skalierung in linearen bezugsräumen hat wieder ander vorteile,
die ursprüngliche idee für diese geschichte stammt von jemandem, der für dolby labs arbeitet, und immer wieder einigen durchblick bewiesen hat, wenn es um fragen der video-signalverarbeitung ging. umgesetzt und schrittweise weiter verbessert, wurde es dann von anderen...WoWu hat geschrieben:Aber wenn das aus dem Vitaly Forum kommt, dann wundert mich eigentlich auch nichts mehr.
so weit ich weiß, unterstützen handbrake, hybrid und cliptoolz die entsprechenden umwandlungsprozeduren auch über einfach zu bedienende oberflächen.WoWu hat geschrieben:Aber is ja egal ... wenn man sowieso das nur über Basteln hinbekommt und ohnehin kein NLE das unterstützt, (warum eigentlich nicht, wenn das so toll funktioniert) dann ist das alles sowieso akademisch.
ich bin zwar auch davon überzeugt, dass derartige operationen nur in linearen bezugsräumen bzw. scene referred data wirklich sauber durchgeführt werden können, aber das setzt eben auch deutlich komplizierte workflows voraus. einfache programme gehen bei der entsprechenden linearisierung im besten fall davon aus, dass es sich um rec709 footage handelt, was sich aber leider nicht unbedingt immer hinreichend mit den tatsächlich verwendeten bildprofilen decken muss...TheBubble hat geschrieben:Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben.mash_gh4 hat geschrieben:skalierung in linearen bezugsräumen hat wieder ander vorteile,...