Logo Logo
/// 

Was versteht man unter Skalieren?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von Frank B.:


Folgende Frage habe ich in einem anderen Thread bereits gestellt, hab aber eingesehen, dass sie dort etwas OT ist. Habe mich von daher dazu entschlossen, diesen separaten Thread dazu aufzumachen. Hintergrund der Frage ist, das immer wieder geäußert wird, dass von 4K auf FHD herunterskaliertes Material oft besser aussehen soll als natives FullHD.
Ich kopiere die Frage(n) einfach mal hier rein, wie ich sie im anderen Thread formuliert habe:

Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll.
Ich arbeite z.B. mit Edius 8.2 und einer HD-Storm-Karte und lege die TimelineTimeline im Glossar erklärt in FullHDFullHD im Glossar erklärt 25P an. Mein Material ist 4K 25P und FullHDFullHD im Glossar erklärt 25P, manchmal auch FullHDFullHD im Glossar erklärt 50P. Das Endergebnis soll immer FullHDFullHD im Glossar erklärt 25P sein. Die Stormkarte zeigt dieses FormatFormat im Glossar erklärt auch in Echtzeit auf einem Kontrollmonitor an und zwar unabhängig davon, welches der oben genannten Formate ich in die TimelineTimeline im Glossar erklärt gezogen habe. Die Karte skaliert also mein 4K-Material in Echtzeit nach Full HD? Oder ist unter Downskalierung noch was anderes gemeint? Eine Umrechnung in einen ganz bestimmten CodecCodec im Glossar erklärt vielleicht?
Die Frage wäre auch, auf welchem Wege ich zum bestmöglichen Endresultat in FullHDFullHD im Glossar erklärt 25P käme. Das 4K-Material zuerst in einen hochwertigen FullHDFullHD im Glossar erklärt CodecCodec im Glossar erklärt wandeln oder einfach so weiter machen wie bisher, alles in die TL rein und das Endergebnis dann am Ende in mein Zielformat rausrendern?
Letzteres ist für mich praktischer, weil ich dann bis zum Schluss noch Ausschnittskorrekturen im 4K-Material vornehmen kann.



Antwort von mash_gh4:

Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll. im grunde ist darunter nur das vergrößern bzw. verkleiner der bildgröße zu verstehen.
Die Karte skaliert also mein 4K-Material in Echtzeit nach Full HD? Oder ist unter Downskalierung noch was anderes gemeint? sicher
Eine Umrechnung in einen ganz bestimmten CodecCodec im Glossar erklärt vielleicht? mit codec hat das nichts zu tun, aber es gibt verschiedene technische möglichkeiten bzw. algorithmen, um bilder zu skalieren. das kann tlw. schon einen erkennbaren unterschied in der resultierenden qualität ausmachen.

https://en.wikipedia.org/wiki/Compariso ... algorithms
https://en.wikipedia.org/wiki/Image_scaling



Antwort von beiti:

Du hast das schon richtig verstanden: Wenn Du UHD-Material in eine HD-Timeline ziehst, findet ganz automatisch eine Skalierung statt. Du brauchst also keinen zusätzlichen Arbeitsschritt. Schon aufgrund der Reserven (z. B. für die von Dir erwähnte Ausschnittskorrektur) ist das direkte Verarbeiten des UHD-Materials günstiger.
Vorab runterskalieren würde ich es höchstens dann, wenn der Rechner nicht leistungsstark genug für die Echtzeitskalierung von UHD ist und die Arbeit sonst zu zäh wird.

Skalierung kann in unterschiedlicher Qualität erfolgen - und bessere Methoden brauchen mehr Rechenmleistung. In Edius lässt sich hierzu in den Projekteinstellungen eine "Resampling-Methode" wählen. "Lanczos 3" ist eine gute Grundeinstellung; wer das Ergebnis besonders knackig/scharfgezeichnet möchte, kann "Lanczos 3 Schärfer" wählen.
Wenn man Performance-Probleme hat, kann man zur Beschleunigung der Echtzeitleistung vorübergehend auf "Bilinear" gehen - sollte aber nicht vergessen, vor dem endgültigen Rausrendern wieder auf "Lanczos" umzustellen.

Mit Codecs hat die Skalierung nichts zu tun.








Antwort von Frank B.:

OK, vielen Dank, ihr zwei. Ihr habt mir sehr geholfen. Vor allem der Tipp, in Edius auf Lanczos 3 umzustellen. Um diesen Eintrag hatte ich mich bisher noch nicht gekümmert, weil er mir nichts sagte. Jetzt hab ich dort mal umgestellt. Mal sehen, ob die Ergebnisse sichtbar besser werden. Ich habs noch nicht genau austesten können.

Also nochmals vielen Dank. Ich denke, dann hatte ich das auch annähernd richtig verstanden mit dem Skalieren.



Antwort von Axel:

Schön erklärt auf der Seite Cambridge in Color.

Darin auch in den Beispielen gut zu sehen, welche Methode und bei welcher Gelegenheit sichtbare ArtefakteArtefakte im Glossar erklärt produziert. Wobei wir bei Artefakten automatisch an Moire denken, aber auch das Gegenteil ist möglich. Wenn etwa das Detail eines Bildes in etwa Pixelgröße hat ...

zum Bild

... und auf 50 % skaliert wird ...

zum Bild


Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir)



Antwort von mash_gh4:

Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir) die resolve selbstdarstellung kingt doch immer derart exklusiv, auch wenn sie in wahrheit unter der oberfläche praktisch überall nur die ganz einfachen und gebräuchlichen techniken benutzen, wie es auch alle anderen tun. wirklich störend daran ist meistens nur der umstand, dass weder sauber dokumentiert ist, was tatsächlich geschieht, noch eine rationelle entscheidung des benutzers auf basis entsprechender gebräuchlicher technischer angaben oder auswahlmöglichkeiten geboten wird.



Antwort von Jommnn:


Skalierung kann in unterschiedlicher Qualität erfolgen - und bessere Methoden brauchen mehr Rechenmleistung. In Edius lässt sich hierzu in den Projekteinstellungen eine "Resampling-Methode" wählen. "Lanczos 3" ist eine gute Grundeinstellung; wer das Ergebnis besonders knackig/scharfgezeichnet möchte, kann "Lanczos 3 Schärfer" wählen.
Wenn man Performance-Probleme hat, kann man zur Beschleunigung der Echtzeitleistung vorübergehend auf "Bilinear" gehen - sollte aber nicht vergessen, vor dem endgültigen Rausrendern wieder auf "Lanczos" umzustellen.

Mit Codecs hat die Skalierung nichts zu tun. Lässt sich auch im FCXP zwischen verschiedenen Methoden der Skalierung wählen?



Antwort von WoWu:

Schön erklärt auf der Seite Cambridge in Color.

Darin auch in den Beispielen gut zu sehen, welche Methode und bei welcher Gelegenheit sichtbare ArtefakteArtefakte im Glossar erklärt produziert. Wobei wir bei Artefakten automatisch an Moire denken, aber auch das Gegenteil ist möglich. Wenn etwa das Detail eines Bildes in etwa Pixelgröße hat ...

zum Bild

... und auf 50 % skaliert wird ...

zum Bild


Nach diesem Beispiel wäre es interessant, zu erfahren, nach welcher Methode DaVinci Resolve skaliert.
Optical Quality Re-Framing
Colorists know that DaVinci Resolve has the highest quality reframing and resize tools in the industry. Now editors can reframe shots directly in the edit page and take advantage of the amazing optical quality sub pixel image processing in real time! 4K images look incredible when resized to HD and you can even reformat older standard definition footage for your HD and 4K projects!
(Hervorhebungen von mir) Moin Axel.
Antwort ist doch im Text schon gegeben.
Seitdem es 4K gibt, besteht die überwiegende Mehrzahl der PixelPixel im Glossar erklärt ohnehin aus Sub Pixels und damit aus der Bildrekonstruktion.
Ich denke, wir werden uns von den herkömmlichen Methoden der Bilderzeugung sehr bald verabschieden.
Das neue SONY RAW Verfahren ist (vermutlich) ein weiterer Schritt in diese Richtung ... insofern ist es kein Wunder, dass Resolve es auch bereits unterstützt.

https://nanoheat.stanford.edu/sites/def ... ns/A52.pdf



Antwort von mash_gh4:

Seitdem es 4K gibt, besteht die überwiegende Mehrzahl der PixelPixel im Glossar erklärt ohnehin aus Sub Pixels und damit aus der Bildrekonstruktion. mit 4k hat das denkbar wenig zu tun. da ist wirklich kein großer unterschied zu herkömlichen FHD auszumachen. allerdings ist es natürlich tatsaechlich so, dass man nach der kompropression in heutigen videoformaten nicht mehr so einfach von einzelnen isolierten pixeln sprechen kann, weil diese ja normalerweise eher als verlauf über größere flächen (macro blocks) umschrieben bzw. aus solchen heraus wieder rekonstruiert werden.



Antwort von WoWu:

Gerade weil es so ist, dass kein großer Unterschied besteht, deutet das auf Sub Pixels hin, denn im upscaling Verfahren wird jedes PixelPixel im Glossar erklärt 4-Fach erweitert und in der Kantenortbestimmung die zusätzlichen Pixels mit dem entsprechenden Kartenverkauf aufgefüllt. Dabei wird auch die Kantenweite eingestellt.
Ob ich die Verfahren nun vorwärts oder rückwärts anwende, ist ziemlich Jacke wie Hose.
Daher verschwinden auch keine Linien mehr, wie in der normalen Interpolation.
Ganz im Gegenteil. Durch die kontrasterhöhende Wirkung werden sie sichtbarer.



Antwort von TheBubble:

Ich hab mal ne Frage, was man unter den Begriffen Hoch- bzw. Herunterskalieren verstehen soll. Um die Frage im Video-Kontext zu beantworten:

Beim Hochskalieren wird eine Pixelmatrix auf eine neue Matrix abgebildet, die mehr PixelPixel im Glossar erklärt enthält. Also mehr Spalten und/oder Zeilen als die Ausgangsmatrix.

Beim Herunterskalieren wird eine Pixelmatrix auf eine neue Matrix abgebildet, die weniger PixelPixel im Glossar erklärt enthält. Also weniger Spalten und/oder Zeilen als die Ausgangsmatrix.

Die Abbildung kann man durch Interpolation und/oder Filterung der Werte vornehmen.

Das ist jetzt sehr allgemein gehalten, aber die Begriffe sind auch recht allgemein. Sie stehen jedenfalls nicht für ein bestimmes Berechnungsverfahren.



Antwort von Frank B.:

Ja, nochmals Danke. Ich denke, im Kern hatte ich es ja richtig verstanden mit der Skalierung. Mir war eigentlich lediglich nicht klar, dass es so verschiedene Interpolations- bzw. Filtermöglichkeiten gibt. Das war eigentlich im Grunde der Hintergrund meiner Frage, die ich dann irgendwie so umschrieben hatte, wie sie oben steht, da ich ja diese Zusammenhänge nicht genau kannte. Mir ging es im Grunde um den qualitativ hochwertigsten Weg, aus meinem 4K-Material FullHDFullHD im Glossar erklärt Material zu machen. Als Ergebnis zu allem, was ich dazu bisher so zum Thema Skalierung las, war ich davon ausgegangen, dass es da Unterschiede geben muss, dass es eben ganz unterschiedliche Endergebnisse gibt z.B. bei der Downskalierung von 4K auf FullHD. Das ist ja hier nun bestätigt worden.
Das 4K-Material hat bei mir im Moment tatsächlich nur den Grund darin, nachträglich Aufnahmen zu stabilisieren bzw. mich im Bildausschnitt noch bewegen zu können. Endergebnis ist bei mir noch FullHDFullHD im Glossar erklärt in 25P. Damit kommt mein Rechner sehr gut klar und ich finde es persönlich auch ästhetischer als 50P Material. Aber das ist ja Geschmackssache. Für mich passt es halt gut.








Antwort von mash_gh4:

Mir ging es im Grunde um den qualitativ hochwertigsten Weg, aus meinem 4K-Material FullHDFullHD im Glossar erklärt Material zu machen. in dem zusammenhang sind die jene konvertierunmgen, wie sie ein paar leute zu genau diesem zweck ersonnen haben, noch immer ziemlich interesannt:

http://www.personal-view.com/talks/disc ... ress-topic

während nämlich bei den normalen skalierungstechniken die einzelnen pixel immer als unabhängig und mit voller farbinformation angenommen werden, wird dort dort der video-stream tatsächlich in seine verschiedenen komponenten zerlegt, farbe und helligkeitsinformation getrennt skaliert und dann erst wieder rekombiniert. das liefert tatsächlich bessere ergebnisse, braucht aber auch in praxis leider deutlich mehr zeit beim umrechnen. ich verwende es aus diesem grund eher selten, aber wenn du tatsächlich ein maximum aus deinem material herausholen willst, solltest du diese variante evtl. auch einmal ausprobieren.



Antwort von TheBubble:

während nämlich bei den normalen skalierungstechniken die einzelnen pixel immer als unabhängig und mit voller farbinformation angenommen werden, wird dort dort der video-stream tatsächlich in seine verschiedenen komponenten zerlegt, farbe und helligkeitsinformation getrennt skaliert und dann erst wieder rekombiniert. Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt.

Wenn man es mehr oder weniger optimal machen möchte, dann müsste man mit linearem RGBRGB im Glossar erklärt arbeiten. Das wird aber eher selten gemacht.



Antwort von mash_gh4:

Mir ist nicht klar, das damit gemeint ist, denn alle Skalierungsverfahren bearbeiten die Farbkanäle getrennt. die wenigsten gebräuchlichen skalierungstechniken berücksichtigen die eigenheiten der farbunterabtastung in jener weise, wie es hier geschieht.
Wenn man es mehr oder weniger optimal machen möchte, dann müsste man mit linearem RGBRGB im Glossar erklärt arbeiten. Das wird aber eher selten gemacht. skalierung in linearen bezugsräumen hat wieder ander vorteile, trotzdem liegt im hier zur debatte stehenden fall das material in einer YUVYUV im Glossar erklärt bzw. YCbCr beschreibung mit 4:2:24:2:2 im Glossar erklärt oder 4:2:04:2:0 im Glossar erklärt farbsubsampling vor. dem gilt es auch rechnung zu tragen, wenn man wirklich ein maximum herausholen will.



Antwort von WoWu:

Das ist die alte Diskussion über Downsampling nach 4:4:44:4:4 im Glossar erklärt, in der nie berücksichtigt wird, dass die Bilder bereits Fehler enthalten, die irreparabel sind, egal in welchem Farbmodell man das macht.
Aber da steige ich nicht wieder ein.
Aber wenn das aus dem Vitaly Forum kommt, dann wundert mich eigentlich auch nichts mehr.



Antwort von TheBubble:

skalierung in linearen bezugsräumen hat wieder ander vorteile, Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben.



Antwort von mash_gh4:

Aber wenn das aus dem Vitaly Forum kommt, dann wundert mich eigentlich auch nichts mehr. die ursprüngliche idee für diese geschichte stammt von jemandem, der für dolby labs arbeitet, und immer wieder einigen durchblick bewiesen hat, wenn es um fragen der video-signalverarbeitung ging. umgesetzt und schrittweise weiter verbessert, wurde es dann von anderen...



Antwort von WoWu:

... nur wie man die Falschfarben aus dem Bild bekommt hat er aber auch nicht gesagt.
Aber is ja egal ... wenn man sowieso das nur über Basteln hinbekommt und ohnehin kein NLE das unterstützt, (warum eigentlich nicht, wenn das so toll funktioniert) dann ist das alles sowieso akademisch.

Sei's also drum.
Überlassen wir es denen, die daran glauben, auch wenn' s nicht geht.



Antwort von mash_gh4:

Aber is ja egal ... wenn man sowieso das nur über Basteln hinbekommt und ohnehin kein NLE das unterstützt, (warum eigentlich nicht, wenn das so toll funktioniert) dann ist das alles sowieso akademisch. so weit ich weiß, unterstützen handbrake, hybrid und cliptoolz die entsprechenden umwandlungsprozeduren auch über einfach zu bedienende oberflächen.

wenn man die resultate penibel vergleicht, sind vorteile dieses verfahrens kaum zu bestreiten. das ist mir erst letztens wieder bewusst worden, als ich die foveon-sensor-beispielbilder von cantsin mit verschieden methoden skaliert habe. wie gesagt, normalerweise mache ich das auch nicht auf diesem weg, weil es mir einfach zu lange dauert...
skalierung in linearen bezugsräumen hat wieder ander vorteile,... Es hat sogar den Vorteil, dass es funktioniert :-). Macht man das nicht, kommt es zu falschen Helligkeiten bzw. Farben. ich bin zwar auch davon überzeugt, dass derartige operationen nur in linearen bezugsräumen bzw. scene referred data wirklich sauber durchgeführt werden können, aber das setzt eben auch deutlich komplizierte workflows voraus. einfache programme gehen bei der entsprechenden linearisierung im besten fall davon aus, dass es sich um rec709 footage handelt, was sich aber leider nicht unbedingt immer hinreichend mit den tatsächlich verwendeten bildprofilen decken muss...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
wie spielt man HLG Daten unter Windows/Mac ab?
Endlich versteht jemand den Sinn von Drohnen...
Warum versteht Siri den Dwaine und mich nicht... ;)
FCP Skalieren 5K auf 4K
Framegröße skalieren oder anpassen
Videoclip skalieren ohne Qualitätsverlust
Video Skalieren mit AI - Topas Gigapixel
Premiere Pro CC – Skalieren funktioniert nicht mehr.
"Bewegungseffekte beim Ändern der Bildgröße proportional skalieren"
Adobe Premiere Pro - Position Skalieren von mehreren Bildern
Premiere Pro - Uhd Material auf 720p skalieren - Wo ist mein Denkfehler?
Atomos zeigt 15 neue Connect converter: Konvertieren, Skalieren, Syncen und mehr // IBC 2017
egal, wie man es macht, macht man's falsch - hat das internet zu viel macht?
Kapitelanzeige unter Filmbrennerei5
avidemux2 unter Linux
Nexus-S unter Vista
Videoschnitt unter Linux
Voreinstellungen unter DVDLab
BR Menü unter PP 2020
Kompaktkamera unter 500 €
Sony DV-Camcorder unter Win XP
DVB-C Karte unter Linux
MPG eindampfen unter Linux?
*.ts-Dateien unter windows ansehen?
VDR-Soft unter Linux
TV-Out der Rage128 unter Linux

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom