,4K,Programm,Plugin">
Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // Wie "wertvoll" upscalen 2K -> 4K? Welches Programm oder Plugin



Frage von canon_usar1:


Hallo

Nach wie vor werden auch teure Kinofilme in 2K gemastered (Aktuelles Beispiel The Magnificant Seven).

Man liest dann in div. Internetartikeln, dass für die 4K UHD-Version diese Filme "wertvoll" upscaled werden.

Wie wird da upscaled? Wenn ich ein 2K Film / Video habe, dann ist natürlich die normale Vorgehensweise zuerst die Auflösung zu prüfen:

2048 × 1080 ginge dann auf 4096 × 2160 logischerweise.

Dann habe ich für 1 Pixel in 2K 4 Pixel in 4K. Ein normaler Export würde dann für jedes Pixel in 2K einfach 4 gleichfarbige Pixel in 4K schreiben.

Aber das ist gewiss nicht, was die mit "wertvoll" upscalen meinen. Ich denke eher, dass die einen Algorithmus benutzen, der vlt. 2 oder 1 Pixel in 4K die gleiche Farbe zuordnet, die das eine Pixel in 2K hat. Die Farben der anderen 2 oder 3 Pixel in 4K werden dann irgendwie interpoliert, berechnet auch unter Einbezug der benachbarten Pixel.

Was für einen Upscaler müsste man da benutzen, welches Programm oder Plugin kann das? Habt ihr das schonmal gemacht?

Grüsse

Space


Antwort von TheBubble:

2048 × 1080 ginge dann auf 4096 × 2160 logischerweise.

Dann habe ich für 1 Pixel in 2K 4 Pixel in 4K. Ein normaler Export würde dann für jedes Pixel in 2K einfach 4 gleichfarbige Pixel in 4K schreiben. Das wird kein normaler Export so tun. Es wird meist mindestens linear interpoliert.

Man kann aber auch über klassische Interpolation hinaus gehen und z.B. kantengerichtete Interpolationsverfahren verwenden. Das kann deutlich besser aussehen.

Wenn man die Auswahl des Verfahrens, die möglichen Einstellungen und evtl. noch etwas manuelles Nachschärfen für jede Szene einzeln per Hand optimiert, kommt man zu besseren Ergebnissen, als wenn man einfach den gesamten Film mit den gleichen Einstellungen behandelt.

Was in diesem Zusammenhang "wertvoll" aber wirklich bedeutet, wird man vermutlich nur bei dem Hersteller selbst erfragen können. Aber vielleicht liest hier ja doch jemand mit, der Auskunft geben kann.

Space


Antwort von WoWu:

Solange das die Kamerahersteller noch in ihren Kameras machen und die TV Gerätehersteller planen, es in ihren Geräten anzubieten, werden sie zu verhindern wissen, dass sowas als einfaches Plug-In als Software in den NLEs landet. In Hardware wird das wohl zuerst eingebettet.
Das Prinzip ist ziemlich einfach denn es wird nichts Anderes gemacht, als dass eine 4K Matrix als Subpixels aufgelegt wird und mit Kantenortbestimmung und der entsprechenden Gewichtung der 2K Pixels entlang der entstandenen Kante gerechnet.
Dass die Ergebnisse gut aussehen, steht ganz außerfahrplanmäßig, wenngleich auch keine zusätzliche Bildinformation entsteht.
Das Bild aus der 2009 aufbereitung einer SD Maz hat nach wie vor nur 702 x 576 Bildpunkte.
Das versteht man unter hochwertigem UpScaling, übrigens mit einem Snell&Wilcox gemacht.
Auf die weise haben wir früher aus 720 auch 1080 gemacht, was nicht selten deutlich besser ausgesehen hat, als wenn das identische Material in 1080 (und dazu noch interlace) in einer Kamera aufgenommen wurde.
So entstand dann auch aus 720p50 ein 1080p50 Signal, als noch keine Kamera das konnte und selbst die BBC bis 2012 noch 1440 statt 1920 als 1080 (FH) verkauft hat.

Space


Antwort von canon_usar1:

Danke euch.Solange das die Kamerahersteller noch in ihren Kameras machen und die TV Gerätehersteller planen, es in ihren Geräten anzubieten, werden sie zu verhindern wissen, dass sowas als einfaches Plug-In als Software in den NLEs landet. In Hardware wird das wohl zuerst eingebettet. Und wie machen es jene, die diese Kinofilme upscalen? Sowas müsste doch zu kaufen sein?
Dass die Ergebnisse gut aussehen, steht ganz außerfahrplanmäßig, wenngleich auch keine zusätzliche Bildinformation entsteht. Dieser Satz heisst für mich: Es ist üblicherweise nicht so, dass es dann gut aussieht. Ausserfahrplanmässig heisst hier doch "eher selten". Also "eher selten" wird ein gutes Ergebnis erzielt. Ist das so gemeint?


Und ja: Diese Kantenortbestimmung. Macht das der Algorithmus bzw. die Hardware selber oder muss man das von Hand nachziehen...? Manuelle Bestimmung (für jedes Bild fast) wäre ja dann sehr zeitaufwendig und schwer vorstellbar bei bewegtem Material?

Space


Antwort von WoWu:

Da hat mir die automatische Wortkorrektur ein EI gelegt ... das soll natürlich nicht "außerfahrplanmäßig" heißen sondern ausserfrage.
Ja, die Bilder sehen optisch besser aus, weil ein Teil der Bearbeitung die Kantenanhebung ist.
An dem kleinen Beispiel kannst Du sehen, dass man einen deutlich höheren Schärfeeindruck hat, ohne den Bildinhalt zu erhöhen.
Nichts Anderes passiert heute bei den meisten 4K Kameras.

Die Kantenortbestimmung macht dabei der Algorithmus allein und solche Geräte kann man auch kaufen, liegen aber im Bereich um die 30-60 T$, je nach Ausführung, machen aber auch noch ein paar andere Sachen.
Man findet solche Algorithmen übrigens auch in der Bildforensik, wo sie ursprünglich entwickelt worden sind.

Bei Filmen kommt noch hinzu, dass mit besseren Tools encodiert wird, sodass auch der Codec zur Abspeicherung besser genutzt wird.

Ich denke, es ist eine Frage der Zeit, bis solche Algorithmen sich auch in NLEs wiederfinden.
Weil solche Schärfeergebnisse ohne zusätzliche Bildinhalte aber zu den gezeigten Bildverbesserungen führt, ist natürlich die Diskussion zwischen TV Geräte Industrie und den Broadcastern entstanden. Die Broadcaster wollen keine 4-fache Datenrate für einen fraglichen Bildeffekt ausgeben und würden gern lediglich 1/3 mehr Datenrate für einen deutlichen Verbessrungseffekt HDR ausgeben und die TV Geräte industrie könnte die Bildverbessrungsalgprithmen in die TV Geräte integrieren, zumal sie eine Menge davon bereits haben.
Das würde letztlich bedeuten, dass auch ursprüngliches HD Material wie heutiges 4K Material aussehen würde, ohne dass man es in die Vorverarbeitung bringt.
Aber wenn sich die Handys so weiterentwickeln, hat sich das sowieso bald erledigt und die einzige Bildverbesserung liegt wirklich nun noch in 10 oder 12 Bit HDR.

Space


Antwort von Frank Glencairn:

Und wie machen es jene, die diese Kinofilme upscalen? Sowas müsste doch zu kaufen sein? Klar, S&W Alchemist, oder Blackmagic Terranex.

Weil du aber danach fragen mußt, gehe ich davon aus, daß sowas weit außerhalb deines Budgets liegt.

Das nächst beste wäre: http://www.infognition.com/VideoEnhancer/

Space


Antwort von Alf_300:

Was ist mit RED GIANT Instant 4K

Space


Antwort von CameraRick:

Adobe hat den Detail Preserving Upscaling-Effekt ja auch in After Effects integriert, der macht das ähnlich.
Ich selber bin Fan vom TVIScale im Nuke, der macht das ganz ordentlich; aber ist halt auch immer eine langwierige Nummer.

Space


Antwort von wolfgang:

Vegas Pro 14 hat jetzt auch einen derartigen Plugin bekommen. Erfahrungen damit habe aber zumindest ich noch nicht.

Space



Space


Antwort von MK:

Snell & Wilcox heißt schon seit längerem nicht mehr so... die haben sich erst in Snell umbenannt und heißen mittlerweile SAM - Snell Advanced Media.

Und Teranex kannst Du heutzutage in der Pfeife rauchen, selbst das einfache Timeline Resizing von Vegas 13 ist einen Tick besser. Die heutigen Teranex Kisten haben nur noch ihre Berechtigung wenn es unbedingt auf Echtzeit ankommt also z.B. im live Betrieb.

Space


Antwort von freezer:

http://gizmodo.com/5250780/how-regular- ... imax-films

Space


Antwort von Jommnn:

Gibt es auch für FCPX ein sinnvolles Upscale-Plugin? Vielen Dank!

Space


Antwort von Jott:

fcp selbst in der Tineline upscalen lassen, sanft anschärfen. Dann auf die Suche nach Plug Ins gehen (mit Trial) und vergleichen, ob die irgend etwas bringen.

Space


Antwort von Jommnn:

fcp selbst in der Tineline upscalen lassen, sanft anschärfen. Dann auf die Suche nach Plug Ins gehen (mit Trial) und vergleichen, ob die irgend etwas bringen. Danke, werde mal testen, wenn ich Zeit habe. Ich nehme aber an, was FCPX da intern macht, ist nicht mit dem Premiere Detail Preserve Upscale zu vergleichen?

Space


Antwort von Jott:

Keine Ahnung. Du wirst es rausfinden. Früher, bei fcp 7, konnte man noch einstellen, ob via Subpixel-Berechnung skaliert werden soll oder nicht. Heute ist letzteres Standard. Nur konkretes Vergleichen (mit ebenso konkretem Ausgangsmaterial) wird Klarheit schaffen.

Space


Antwort von domain:

WoWu:
"Das Prinzip ist ziemlich einfach, denn es wird nichts Anderes gemacht, als dass eine 4K Matrix als Subpixels aufgelegt wird und mit Kantenortbestimmung und der entsprechenden Gewichtung der 2K Pixels entlang der entstandenen Kante gerechnet.
Dass die Ergebnisse gut aussehen, steht außer Frage, wenngleich auch keine zusätzliche Bildinformation entsteht.
Das Bild aus der 2009 aufbereitung einer SD Maz hat nach wie vor nur 702 x 576 Bildpunkte.
Das versteht man unter hochwertigem UpScaling, übrigens mit einem Snell&Wilcox gemacht."


Das von dir gezeigte Beispiel ist ja wirklich beeindruckend. Kann mir schon vorstellen, dass diese Verfahren nicht nur in der Forensik bei unscharfen und wenig aufgelösten Überwachungsbildern eine Rolle spielen.
Die Frage, die ich mir stelle ist, ob es nicht eigentlich egal ist, ob nun wirklich die Originalauflösung (von dir ständig gefordertes 2cm Quadrat aus 60m Entfernung) so ausschlaggebend ist oder nicht doch eher der generierte Schärfeeindruck für das Auge-Hirn-System.
Mir scheint, dass du selbst eine ziemlich zwiespältige Einstellung dazu hast ;-)

Space


Antwort von WoWu:

Moin Domain

Nein, nicht wirklich denn jeder muss sich letztlich entscheiden, ob er eine möglichst genaue Reproduktion der Originalszene möchte oder ein vordergründig kontrastreiches Bild (oder Beides).
Ich tendiere zu einer möglichst genauen Reproduktion, bis zu dem Punkt, an dem das menschliche Auge nicht mehr auflöst und das ist etw 1Winkelminute.
Gelingt eine höhere spatiale Auflösung, z.B. in der Satelliten Fotographie, käme das einer Vergrößerung gleich.
Das ist aber ein Spezialfall, den man sowohl optisch, als auch (Mikroskopie) per Software lösen kann und im ersten Ansatz für mich im Videobereich nicht ausschlaggebend ist.
Hintergrund ist der, dass sich Algorithmen lediglich aus bestehenden Bildinhalten (In der Rekostruktion) bedienen können.
Was also nicht im RAW Bild enthalten ist, kann auch nicht ersetzt werden (Komposition einmal unberücksichtigt).
Und damit wären wir bei der 2cm Kachel.
Woher soll der Algorithmus wissen, dass sich in der Hamd eines Menschen in 100 m Entfrnung, ein 2cm großer Gegenstand befindet, wenn das Pixel die ganze Hand nur als eine hautfarbene Fläche, mangels optischer ( spatialer) Auflösung, zeigt.
Anders ist es bei Linien oder Kreisen, oder wiederkehrenden Mustern, die entweder aus dem Bild selbst, oder einer Bibliothek genommen werden.
Eine Linie kann durchgängig nachgerechnet werden und auch beliebig verfeinert werden, ebenso andere Objekte.
Nur muss der Rechner erst mal wissen, dass sie da sind.
Und das ist auch genau der Fall im HD/ UHD up scaling.
Die 2cm Kachel muss erst einmal erkannt sein, um überhaupt nachgebessert werden zu können denn wenn aus HD ein UHD gerechnet wird, wird das zwar ein messerscharfes Bild, aber die Inhalte fehlen eben und das ist genau mein persönliches Unterscheidungsmerkmal: Bildinhalte und nicht Bildschärfe.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


miniDV upscalen / Seitenverhältnis
Clip im Programm-Monitor zu klein
Authoring Programm für PP 2020
ARRI erweitert Certified-Pre-Owned-Programm um Scheinwerfer
ProDad stellt neues Programm vor Disguise zum verpixeln etc.
Loopen - Programm das Frames vergleicht?
Neues professionelles Compositing-Programm - Left Angle Autograph
Programm für Synchron. Taken
Programm für direkte Ansteuerung einer Mini-DV-Kamera
Rise-Mentoring-Programm
Neue Umfrage: Mit welchem Programm schneidest Du?
Mainconcept Codec Plugin für DaVinci Resolve bringt Support für HEVC, Sony XAVC/XDCAM und P2 AVC Ultra
Plugin zum Kopieren der Stimmfrequenz um daraus Stimme der Schauspieler zu immitieren?
mTracker 3D Tracking Plugin
Die bunte Welt der DCTLs in Resolve - Teil 1: Zwischen LUT und Plugin
Phantom Power via Plugin Power?
BRAW Plugin für FCPX?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash