Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // HD auf SD skalieren oder direkt auf SD ?



Frage von Klausinger:


Frage: Was ist geschickter? Endformat soll SD werden. Welches bietet die bessere Qualität ? Sind diese Unterschiede sichtbar oder hat es lediglich Gründe der besseren Möglichkeiten (Stabilisierung, Skalierung der Ausschnitte. mehr "Puffer" usw.) ?
Ich habe noch eine XM2 und plane in absehbarer Zeit eine XH A1 zuzulegen. Bietet die A1 bereits von Hause aus das "bessere" SD oder ist das in etwa gleich?
LG-Klausinger

Space


Antwort von PowerMac:

Du bist echt nicht der erste, der das fragt.

Space


Antwort von Anonymous:

Sollen wir das schon wieder hier erklären für Leute die sich nichteinmal mit der Suchfunktion auskennen?

Space


Antwort von minidv:

Willst du das Material jetzt in der Post runterskalieren oder direkt in SD filmen?

Space


Antwort von Klausinger:

Die Suchfunktion habe ich schon benutzt. Gebt mal bitte "HD auf SD skalieren" ein oder nur "HD SD" - da geht nicht! So sehr ich auch eine Suchfunktion schätze, aber diese hier ist nicht gerade Google. Sonst würde ich euch nicht belästigen, sofern das trotzdem der Fall war...: Entschuligung!!!
Axel: Ich möchte als Endergebnis SD haben, deshalb meine Frage ob man direkt in SD aufnehmen soll oder besser HD und dann am Schluss. Es könnte ja sein, dass beim Runterskalieren die Quali schlechter wird, als direkt auf SD aufzunehmem. Aber ihr sehr, ihr kenn mich nicht so - deshalb sehe ich meine Frage immer noch als berechtigt und schätze auch jeden Hinweis!
Danke! Klaus.

Space


Antwort von Anonymous:

Viele sagen, HD filmen und SD downconvert in Post gibt bessere Qualitaet. Haengt vermutlich auch von der Ausgangsqualitaet der Cam ab. Aber es gibt noch ein Argument fuer HD: sollte bei der Bearbeitung auffallen, dass der Bildausschnitt nicht 100% stimmt (z.B. Tonangel im Bild), kann ohne wesentliche Qualitaetsverluste gezoomt werden.

Space


Antwort von xandix:

hallo,

ich habe am Mittwoch einen Canon XHA1-Workshop mitgemacht: Herr Küpperbusch von Canon sagt, wenn man eine Einstellung in der XHA1 beachtet (Coring auf -9 bei DV) ist die Qualität beim Filmen in DV wie ein Downconvert von HDV in DV....

Dies ist aber nur die Aussage über die Canon XHA1, wenn du eine Sony kaufst kann das anders aussehen, laut vielen Testberichten ist bei der ersten Sony HDV-Generation (FX1, Z1, HC1) die DV-Aufnahme schlechter.
Dort sollte man in der Postpro den Downconvert machen....

Gruss

Space


Antwort von PowerMac:

Stell dir Bilder als Raster vor. Diese Raster haben eine Pixelauflösung. Die Auflösung an sich besteht aber aus einer vollen Luminanzauflösung (Y) und Farbanteilen (Cb und Cr), welche bei 4:2:0 unterabgetastet werden (1/4 Farbinformationen auf 1/1 Helligkeitsinformationen).

Volle Auflösung (4:4:4):


zum Bild


Unterabtastung (4:2:0):


zum Bild


HDV ist 4:2:0 und hat 8 Bit, aber eine hohe Effizienz. Also viel Informationen pro Einheit. Jetzt denke mal logisch darüber nach, was man aus Bildinformationen beim Runterrechnen machen kann. Richtig, man kann Informationen zusammenfassen und die Informationsdichte proportional erhöhen. Du erhältst auf jeden Fall 4:2:2, wenn du von 1920x1080 auf 720x576 herunterrechnest. In den 720x576 stecken viel mehr Farbanteile drin als wenn es von DV käme. Einfache Mathematik. Auf einmal hast du viel mehr Farbinformationen, eine höhere Schärfe, weil benachbarte Pixel miteinbezogen werden. Dafür musst du allerdings auch in adäquates Videoformat umrechnen, etwa einen Intermediate-Codec oder eben ohne Komprimierung arbeiten. Also in 4:2:2 und besser auch 10 Bit wegen Zwischentönen. Zusätzlich sind deine Bilder auch schärfer, weil bestimmte Frequenzbereiche im Bild vorhanden sind, SD-Kameras konnten diese hohe Frequenzbereiche nicht auflösen.
Zum Vergleich, DV ist 4:2:0, acht Bit und nicht sonderlich scharf.

Die theoretische Annahme, welche nun wirklich selbsterklärend ist, bestätigt sich auch in der Praxis. Gute HD-Aufnahmen sind gut hinuntergerechnet technisch Digital Betacam gleichwertig. Eigentlich nur, weil HDV (MPEG-2) dateneffizienter ist als DV. Das bei größerer Bildfläche. Also pro Bildfläche detailreicher und schärfer. Rechnet man beides auf die gleiche Bildfläche um, na logisch ist das heruntergerechnete viel besser. Abgesehen davon, dass man im Schnitt einfach etwa hineinzoomen die Kadrage verändern oder stabilisieren kann.

Space


Antwort von Klausinger:

Herr Mac - ich bin beeindruckt! Diese Antwort leuchtet mir ein und beantwortet die Frage ausreichend!
Da kann ich nicht widerstehen, um noch eine Zusatzfrage zu positionieren (...das musste ja kommen.. :) :
Es kommt vor, dass ich ab und an Aufnahmen vor dem Greenscreen machen möchte (Chroma Keying). Ich weiss, dass HDV nicht wirklich der Bringer für diese Aktion ist - aber wäre hierbei auch was zu beachten (Downkonvert mit bestimmten Einstellungen oder Chromakeying direkt in HDV und dann runterskalieren) - wie wäre hierbei die Empfehlung mit gegebenen Mitteln ?
Tausend Dank nomma!
Klaus.

Space



Space


Antwort von PowerMac:

Aufzeichnen in HD, runterrechnen und sich über die hohe Farbauflösung freuen, weshalb es sich dann leicht keyen lässt. Allerdings ist es auch möglich, in HD zu keyen und das freigestellte Video im Compositing dann runterzurechnen.
Variante 1 ist leichter für den Keyer, da er mehr Farbanteile kriegt.
Variante 2 ist schwieriger für den Keyer. Schafft er es allerdings gut in HD zu keyen, so wird das heruntergerechnete, finale Bild etwas besser als in Variante 1 aussehen. Das ist allerdings nur eine theoretische Erklärung meinerseits. Ich habe beide Varianten nicht gegeneinander getestet.

Space


Antwort von jazzy_d:

Also ich filme und schneide etc. immer noch nur in HDV. Dann kann ich ganz am Schluss entscheiden wie ich den "Film" ausgeben will. Wenn ich mal eine SD-Variante habe, kann ich, sofern ich das Projekt und die Quelldaten noch habe, sofort oder in einem halben Jahr oder in 3 Jahren auf Knopfdruck auch eine HD-Variante machen. Aber ist das nicht eigentlich logisch?

Space


Antwort von WoWu:

@ PM
Bring mich doch auch mal zum lernen ... ich finde keine Erklärung für Folgendes:
HDV ist 4:2:0 und hat 8 Bit, aber eine hohe Effizienz. Also viel Informationen pro Einheit. ... was genau ist damit gemeint ? Warum sollte ein HDV Pixel mehr Informationen beinhalten als ein DV Pixel ? Und gibt es noch Pixel, die noch mehr Informationen beinhalten als ein HDV Pixel ? Welche wären das ?
Unterscheidet sich ein 4:2:0 Pixel von einem 4:2:2 Pixel ?
(Es geht nur um das eine Pixel, nicht um das ganze Signal.)


was man aus Bildinformationen beim Runterrechnen machen kann. Richtig, man kann Informationen zusammenfassen und die Informationsdichte proportional erhöhen. Was kann man denn beim Runterrechnen (Interpolieren) alles machen ?
Wie werden denn die Informationen bei einer Interpolation zusammengefasst ?
Warum sollte sich dabei die Informationsdichte erhöhen ? Wenn zuvor durch Interpolation bereits eine Änderung stattgefunden hat ?
Du erhältst auf jeden Fall 4:2:2, wenn du von 1920x1080 auf 720x576 herunterrechnest. Das würde bedeuten, dass die Zeilen nicht interpoliert, sondern jede zweite Zeile einfach weggelassen wird ? Wo steht geschrieben dass dabei nicht gerade die Zeile mit dem Chromasignal weggelassen wird und man bekommt dann 4:0:0 ?

In den 720x576 stecken viel mehr Farbanteile drin als wenn es von DV käme. Wo kommen die her ? Wie ergeben die sich aus der Interpolation ?

Also in 4:2:2 und besser auch 10 Bit wegen Zwischentönen Wo sollen die Zwischentöne herkommen, wenn sie im Original (8bit) Signal gar nicht enthalten sind ? Handelt es sich dabei nicht vielmehr um Dithering ? Und wie wirkt sich das auf mein Endformat aus ? Denn ProRes422 kann das ja wohl nicht sein.

Die theoretische Annahme, welche nun wirklich selbsterklärend ist, bestätigt sich auch in der Praxis. Sind das wirklich die Ursachen ? Oder gibt es nicht vielmehr dafür andere Ursachen ?
Du siehst, mit solchen Fragen hast Du den Threadstarter ziemlich allein gelassen .... gibt es Erklärungen ? Ich bin ja auch lernfähig ....

Space


Antwort von WoWu:

@ Admin

Leider hat es hier ein Doppelposting gegeben, weil ich in letzter Sekunde noch ein "n" eingefügt habe.
Bitte eines zu löschen ... und bitte um Entschuldigung.

Space


Antwort von Markus:

Bitte eines zu löschen... Erledigt.

Edit: Ich habe es gerade mal mit einem "normalen" Userkonto ausprobiert: Du kannst Deine eigenen Beiträge (zumindest aber den letzten) auch selbst löschen.
_________________
Herzliche Grüße
vom Moderator

Space


Antwort von Anonymous:

@ Markus,

danke für den guten Hinweis.

Space


Antwort von TheBubble:

Zusätzlich sind deine Bilder auch schärfer, weil bestimmte Frequenzbereiche im Bild vorhanden sind, SD-Kameras konnten diese hohe Frequenzbereiche nicht auflösen. Hier muss man aufpassen. Um Aliasing-Artefakte zu verhindern, müssen zu hohe Frequenzen herausgefiltert werden. Tut man dies nicht, sieht das Ergebnis zwar scharf aus, kann aber unerwünschte Störungen enthalten.

Space


Antwort von PowerMac:

@ PM
Bring mich doch auch mal zum lernen ... ich finde keine Erklärung für Folgendes:
(…) HDV ist 4:2:0 und hat 8 Bit, aber eine hohe Effizienz. Also viel Informationen pro Einheit. ... was genau ist damit gemeint ? Warum sollte ein HDV Pixel mehr Informationen beinhalten als ein DV Pixel ? Und gibt es noch Pixel, die noch mehr Informationen beinhalten als ein HDV Pixel ? Welche wären das ?
Unterscheidet sich ein 4:2:0 Pixel von einem 4:2:2 Pixel ?
(Es geht nur um das eine Pixel, nicht um das ganze Signal.) (…) Ich meine nur HDV gegenüber DV. Informationen pro Einheit = Kompressionseffizenz. Ich sagte ja nicht, dass ein Pixel einer Einheit entspricht. "Einheit" = beliebige Speichereinheit, seien es Byte oder Gigabyte.


(…) was man aus Bildinformationen beim Runterrechnen machen kann. Richtig, man kann Informationen zusammenfassen und die Informationsdichte proportional erhöhen. Was kann man denn beim Runterrechnen (Interpolieren) alles machen ?
Wie werden denn die Informationen bei einer Interpolation zusammengefasst ?
Warum sollte sich dabei die Informationsdichte erhöhen ? Wenn zuvor durch Interpolation bereits eine Änderung stattgefunden hat ? (…)
Die Informationsdichte für die Farbanteile. Man kann es einfach machen und beispielsweise immer Vierergruppen zusammenfassen und den Mittelwert der Luminanz nehmen. Und man nimmt dazu den Chrominanzwert einfach dazu. Dann hätte man 4:2:2.
(…) Du erhältst auf jeden Fall 4:2:2, wenn du von 1920x1080 auf 720x576 herunterrechnest. Das würde bedeuten, dass die Zeilen nicht interpoliert, sondern jede zweite Zeile einfach weggelassen wird ? Wo steht geschrieben dass dabei nicht gerade die Zeile mit dem Chromasignal weggelassen wird und man bekommt dann 4:0:0 ? (…) Wenn wir es so einfach abhandeln wollen: Dass die "Zeile" mit dem Chrominanzwert und nicht undersampelte Zeile genommen wird, ist ja nicht schwer.
(…) In den 720x576 stecken viel mehr Farbanteile drin als wenn es von DV käme. Wo kommen die her ? Wie ergeben die sich aus der Interpolation ? (…) Siehe oben.
(…) Also in 4:2:2 und besser auch 10 Bit wegen Zwischentönen Wo sollen die Zwischentöne herkommen, wenn sie im Original (8bit) Signal gar nicht enthalten sind ? Handelt es sich dabei nicht vielmehr um Dithering ? Und wie wirkt sich das auf mein Endformat aus ? Denn ProRes422 kann das ja wohl nicht sein. (…) Die Frage ist, ob man beim Zusammenfassen oder Zusammenrechnen von vielen 8 Bit-Pixeln auf 10 Bit kommen kann. Kann es das? Das hängt von der Software ab, die herunterrechnet. Ich kann mir gut vorstellen, dass die benutzte Software etwa bei Kanten Zwischentöne errechnet, welche über 8 Bit liegen. Vielleicht, weil der Ton bei acht Bit im Kontrast zum Nachbar zu unpassend wäre und deshalb fein abgeschwächt wird. Die Software kann je nach Gusto Nuancen errechnen, die feiner sind als es 10 Bit zulassen. Manchmal wirken auch leicht falsche Farben auf das Auge besser zu richtige. Es ist ja nicht zu bestreiten, dass 10 Bit für Farbkorrektur besser sind. Ausserdem habe ich auch manchmal 10 Bit als Endformat. Für's Fazen etwa. Wenn ich von acht Bit auf zehn Bit gehe und dabei wirkliche neue Farben habe und dass am Schluss wieder auf 8 Bit ausgebe, dann hat es mir gebracht, dass die Farbkorrektur besser lief. Es liegt dann daran, wie ich den Kontrastumfang in den Kurven anpasse, so dass nichts rausfällt. Also wie wenn man 24 Bit HDR auf 12 Bit in Photoshop runterrechnet. Das entstandene 12 Bit-Dokument sieht trotzdem besser aus als ein normales Foto.

https://www.slashcam.de/artikel/Grundla ... arben.html

(…) Die theoretische Annahme, welche nun wirklich selbsterklärend ist, bestätigt sich auch in der Praxis. Sind das wirklich die Ursachen ? Oder gibt es nicht vielmehr dafür andere Ursachen ?
Du siehst, mit solchen Fragen hast Du den Threadstarter ziemlich allein gelassen .... gibt es Erklärungen ? Ich bin ja auch lernfähig ....
Bitte was? Verstehe ich nicht. Wie sieht denn deine Sicht der Dinge aus?

Canopus sieht das mit den 4:2:2 auf jeden Fall ähnlich. Ich behaupte nur dass HDV mit 4:2:0 zu SD mit 4:2:2 wird. Bei den 10 Bit bin ich nicht sicher. Man müsste sich die Algorithmen der "Down-Rezzer" mal genau ansehen.
http://www.canopus.com/canopus/technolo ... lities.php

Space


Antwort von Axel:

Das ist mal wieder ein interessanter Thread, in dem widersprüchliche Argumente Verwirrung stiften. Wie sollte z.B. Canopus Farbinformationen aus mehreren HDV-Pixeln extrahieren, die eigentlich nur für ein einziges, völlig neu definiertes SD-Pixel angewandt werden. Die Antwort ist bereits gegeben: Das Pixel ist ein interpolierter Mittelwert, neu erfunden. Was immer an Wenns und Abers dahinter steckt (natürlich kann es zu unerwünschten Effekten kommen), ist der durchweg positive Effekt schon ewig bekannt und wird nirgends angezweifelt: Etwa bereits in der analogen Druckvorlagen-Herstellung, bei der man immer eine höhere, idealerweise vierfache Auflösung des jeweiligen Rasters voraussetzte, um ein annehmbares Ergebnis zu erzielen. Das entspricht zufällig ungefähr dem Pixelverhältnis HDV-DV. Und Farbraster sind eine gute Analogie zum digitalen Farbsampling.
Nein, ich möchte nicht auf eine fundierte Erklärung verzichten, aber wer Zweifel anmeldet, sollte die auch begründen.

Space



Space


Antwort von TheBubble:

Bei den 10 Bit bin ich nicht sicher. Man müsste sich die Algorithmen der "Down-Rezzer" mal genau ansehen. 10 Bit Genauigkeit würde bei 8 Bit Ausgangsmaterial nur insofern etwas bringen, dass die Ergebnisse von Downsizing mit etwas mehr Genauigkeit gespeichert werden können. Lohnt sich bei 8 Bit Ausgangsmaterial IMO nicht.

10 Bit Genauigkeit sind IMO nur dann sinnvoll, wenn man die höhere Genauigkeit für die weitere Nachbearbeitung tatsächlich benötigt.

Space


Antwort von WoWu:

@ PM

Schönen dank für die zahlreichen Ausführungen aus denen ich nun folgendes ableite:
@ PM
Bring mich doch auch mal zum lernen ... ich finde keine Erklärung für Folgendes:

Zitat:
(…) HDV ist 4:2:0 und hat 8 Bit, aber eine hohe Effizienz. Also viel Informationen pro Einheit.

... was genau ist damit gemeint ? Warum sollte ein HDV Pixel mehr Informationen beinhalten als ein DV Pixel ? Und gibt es noch Pixel, die noch mehr Informationen beinhalten als ein HDV Pixel ? Welche wären das ?
Unterscheidet sich ein 4:2:0 Pixel von einem 4:2:2 Pixel ?
(Es geht nur um das eine Pixel, nicht um das ganze Signal.) (…)


Ich meine nur HDV gegenüber DV. Informationen pro Einheit = Kompressionseffizenz. Ich sagte ja nicht, dass ein Pixel einer Einheit entspricht. "Einheit" = beliebige Speichereinheit, seien es Byte oder Gigabyte.
Das deute ich so, dass Du sagst, je höher die Kompressionsrate ist umso besser soll es für die Signalverarbeitung sein.
Gewagte Behauptung ... aber wenn Du meinst, das das dem Signal gut tut.... ich frage mich dann nur, warum wir alle versuchen, Signale möglichst transparent zu übertragen ... aber sicher gibt es dafür auch ganz einfache Erklärungen.




Die Informationsdichte für die Farbanteile. Man kann es einfach machen und beispielsweise immer Vierergruppen zusammenfassen und den Mittelwert der Luminanz nehmen. Und man nimmt dazu den Chrominanzwert einfach dazu. Dann hätte man 4:2:2. Ich stimme Dir zu, Mathematik ist was feines, besonders wenn sie losgelöst ist von jeglicher Aufgabenstellung und zum Selbstzweck wird.
Ich führe Dein Beispiel mal weiter und stelle fest, dass danach jede weitere Verkleinerung (für das Web) zu einem 4:4:4 Produkt wird .... Nur frage ich mich, warum aus den gewandelten Analogausgängen in SD auch nur 4:2:0 rauskommt ? In den Kameras findet eine ebensolche Interpolation statt ... und nach Deiner Methode gäbe das auch an den analogen Ausgängen 4:2:2 .... is aber nicht ... warum nicht ? Wäre doch einfache Mathematik .... oder wissen das die Hersteller nur noch nicht ?

Wenn wir es so einfach abhandeln wollen: Dass die "Zeile" mit dem Chrominanzwert und nicht undersampelte Zeile genommen wird, ist ja nicht schwer. mag sein, das das nicht schwer ist, verstehe ich trotzdem nicht ...!!!???

Nun zum Thema Farbe:
Ich weiss nicht , warum Canopus das so sieht und vor allen Dingen, wer bei Canopus das so sieht, ob nicht vielleicht nur mal wieder die Marketing Abteilung aber wenn es so eifach wäre, aus 4:2:0- 4:2:2 zu machen, dass könnte man im selben verfahren doch auch 4:4:4 daraus machen und wir bräuchten uns eigentlich überhaupt mit den ganzen Nachteilen nicht mehr rumärgern. Auch wenn es möglich ist aus 8 Bit 10 Bit zu machen. Dann wäre es ja auch möglich, aus 4 Bit 8 Bit zu machen, wenn die Methodik bekannt ist ... Warum nehmen wir also nicht einfach alles in 2 Bit auf und machen dann eine beliebige Farbtiefe daraus ? Sehr einfach: Weil es nicht funktioniert.
Und den Artikel würde ich einmal genau durchlesen, es geht dort nämlich darum aus 8 Bit wieder 8 Bit zu machen und nicht 10 Bit, obwohl der Artikel auch, wie soviele Artikel der redaktion, den Eindruck erwecken, es passiere alles von Geisterhand.
8 Bit sind nun einmal lediglich der Adressbereich von 16 bis 235 bei Y"CbCr vorgesehen, wohingegen bei 10 bit 64 bis 940 sind. Die vorhandenen Samples werden in diesem Adressbereich gespreizt. Dadurch entsteht keine einzige Farbe mehr !!
In der Spreizung werden die bestehenden Samples durch gleichwertige Werte ersetzt, was bei der Rückführung nach 8 Bit zu Problemen durch die Rundungsungenauigkeiten führt. Dort werden dann Werte eingesetzt, die eben nur ähnlich sind. Das so genannte Dither entsteht.
Dazu kommt noch, dass oberhalb von 8 Bit das Bandrauschen (immerhin haben wir es im angesprochenen Beispiel mit HDV zu tun) durch die erweiterte Auflösung von 10 bit interprtiert wird und ins Signal eingerechnet wird. (die Artefakte hieraus spare ich mir jetzt mal). Sie sind aber eben auch da, wenn Du weiter in 10 Bit bleibst.
Analog gilt dies auch für den Farbraum xvYCC, bei dem im Prinzip auch nicts anderes stattfindet, als dass er einen größeren Adressbereich beschreibt und so mehr Farbwerte untergebracht werden können.
Würde man einen nicht xyYCC in denselben vergrößerten Adressbereich legen, würden die Farben dadurch noch lange nicht entstehen.

Und noch ein Wort zur Interpolation: Dreh doch einfach in Photoshop ein Bild mal um ein paar Grad in irgendeine Richtung und anschliessend wieder zurück (ohne UNDO zu benutzen) (oder verkleinere es mal um ein paar Pixel. Dann siehst Du das Ergebnis von Interpolation.

Mit nichts anderem haben wir es hier zu tun und wenn Du mit einer linearen Mathematik aus 4:2:0 - 4:2:2 herstellst, dann mag das für die Anzahl der zeilen rechnerisch ja noch stimmen, aber wenn Du das auch horizontal anwendest, was man bei Fernsehen ja leider muss, dann wird aus 1920 leider nicht (50%=960) sondern 720 .... Wie rechnest Du denn das dann ? Und wie gehst Du mit den Pixelformaten um ? Und welches SD Format kommt denn bei deiner Rechnung raus ? Ein anamorphes, ein edged oder ein letterbox ? Ohne Interpolation kommst Du hier nicht weiter und wie Axel schon schreibt, wenn Du aus 4 umliegenden Pixels ein neues machst, bekommst Du nicht mehr Farben, sondern lediglich eine einzige Mischfarbe und die hat auch nur 8 Bit.

Space


Antwort von PowerMac:

Du stellst mir Fragen, die nichts damit zu tun haben und die auch nicht beantworten kann. Ich bin kein Software-Programmier und ich habe auch nicht Elektrotechnik studiert. Bloßstellen kannst du mich damit nicht. Ich behaupte, dass Downscaling von HDV zu SD besser aussieht als eine direkte SD-DV-Aufnahme. Das erkläre ich damit, dass man 4:2:2 erhält und dass man aus einer großen Auflösung ein gutes Bild mit geringer Auflösung machen kann. Zusätzlich geht man von einem hochaufgelösten und kompressionseffizienten Format in ein unkomprimiertes Format. DV kann da nicht mithalten. Mehr nicht. Das bestätigen auch eine Menge an Beispielen. Ich würde einige sogar empirische Fallstudien nennen. Das mit den "mehr Farben" ist doch anders gemeint. Natürlich erhält man nicht mehr Farben. Mathematisch gibt es kein "mehr". Die Software kann aber welche aus irgendwelchen intelligenten Algorithmen heraus entstehen lassen. Mir ist auch klar, dass 720 ungleich 960 ist. Und vielleicht erhält man auch nur 4:1,5:1,9. So einfach ist das Herunterrechnen nicht. Ich habe die vereinfachte lineare Variante mit dem Teiler von 4 gewählt, weil sie anschaulich ist und man daran versteht. Ich habe keine korrekte wissenschaftliche Abhandlung über "Downconvert" geschrieben, sondern anschaulich und vereinfacht und mathematisch falsch angerissen, warum ein Downconvert besser ist. Das kannst du nicht kritisieren. Jede Aufgabe oder jedes Beispiel in der Schule, in der Uni ist vereinfacht. Zur Instruktion nutzt man eben Vereinfachung und Anschaulichkeit.

Die Frage selbst werde ich die Tage im Finalcutpro-Forum stellen. Mal sehen, was dort herauskommt. Du hast in deinem letzten Beitrag mehr (polemische) Fragen gestellt, als dass du sie beantwortet hast;)

Space


Antwort von WoWu:

Das ist nicht richtig, aber so etwas läßt sich so kategorisch nicht beantworten und erst recht nicht begründen. Die meisten Tools zum Downsampling sind leider von so mieser Qualität, dass man schon genauer hinschauen muss, wie man von HD nach SD kommt.
Leider klang das in deiner Empfehlung überhaupt nicht an sondern eher wie ein Selbstgänger : "mach HD und Du hast auf alle Fälle bestes SD" .... leider ist das bei Weitem nicht so und Ratschäge sollten sich wenigstens in der Nähe des Machbaren bewegen.
Ich habe in meiner Praxis seit ich 2003 mit HD angefangen habe ungezählte Tools benutzt, um von HD nach SD zu kommen und die Meisten davon in die Tonne treten müssen. Deswegen kann ich solche Aussagen, wie "empirische Fallstudien" weder nachvollziehen, noch verstehen. Mag ja sein, daß Du bei der Auswahl deiner Tools mehr Glück gehabt hast, aber daraus kannst Du noch lange keine Regel ableiten.
Mag sein, dass Dir meine Art der Antworten nicht gefallen hat aber in jeder Frage steckt zwangsläufig eine Antwort, wenn man sie richtig liest.
Empfehlen kann ich auch nur, die entsprechende Literatur darüber, die es haufenweise gibt und keine klugen Ratschläge aus Foren oder bunten Redaktionen. Fakten werden nicht dadurch beseitigt, das man sie ignoriert oder solange jemand fragt, bis man eine angenehme Antwort bekommt.

Space


Antwort von PowerMac:

"Bestes SD" hat man sicher nicht. Eine Digibeta hat nicht umsonst meistens eine super Optik, eine gute Stabilisierung und angenehme Farben sowie einen hohen Kontrastumfang. Gutes SD ist damit zu vergleichen, was eine Z1 etwa erreichen könnte, wenn sie auf die DV-Komprimierung verzichtete und mit der Komprimierung von Digital Betacam aufzeichnete. Die Optik bleibt mies und die Chips bleiben klein. Aber das Bild wird schärfer und man hat mehr Farbinformationen.

Space


Antwort von WoWu:

Lass uns nicht wieder von Vorne anfangen:
Die Optiken für SD sind in der Regel schlechter als HD Optiken. Und das ist unabhängig vom Aufzeichnungsformat, ob nun Digi Beta oder sonst etwas.
Was den Kontrastumfang angeht, so lässt sich das mit der MTF für die DigiBeta auch nicht festmachen. Und das mit der Farbinformation, ... ich dachte, das hätten wir schon gehabt ?
--- Ach so, das ist ja wieder eine Frage ... also: Das haben wir schon abgehandelt.

Space


Antwort von Alex.A:

Nun eine doch weitere Frage eines verwirrten Users ;)...

Was liefert uns letzendlich bessere Aufnahmen bei einer Canon XHA1:

a) Aufnahmen in HDV, beim Capturen downsamplen HDV-->DV cameraintern

b) Aufnahmen in DV, wobei das Coring auf -9 gestellt werden sollte

Laut Canon Workshop wäre b) die bessere Wahl. Meinem Gefühl nach tendiere ich aber zu a) (wiesoauchimmer). Ich möchte kein Vergleich von irgendwelchen Software Downsamplers, sondern alles soll von der Camera umgesetzt werden.

Was denkt Ihr ?

Space


Antwort von TheBubble:

WoWu,
Ich führe Dein Beispiel mal weiter und stelle fest, dass danach jede weitere Verkleinerung (für das Web) zu einem 4:4:4 Produkt wird .... Kann man so sehen.
mag sein, das das nicht schwer ist, verstehe ich trotzdem nicht ...!!!??? Es ist ganz einfach. Ich mache anschaulich ein Beispiel, wie man mit einem ganz einfachen Verfahren (nearest neighbour) von einer "4:2:2" Abtastung bei einer 50%-igen horizontalen Verkleinerung zu 4:4:4 kommt, indem man überzähliche Helligkeitskomonenten verwirft. Auf Verfeinerungen des Resampling-Filters zur Vermeidung von Aliasing-Effekten verzichte ich der Anschlaulichkeit halber. Bei anderen Fällen (z.B. 4:1:1 Ausgangsmaterial) ist entprechend vorzugehen.

Vorher (Informationen jeweils einer Bildzeile. Für alle Bildzeilen ist genauso vorzugehen): Helligkeit: Y Y Y Y Farbe: C - C - "nearest neighbour" Resampling wäht jede zweite Spalte aus, die mit X markierte Spalte fällt weg: Helligkeit: Y X Y X Farbe: C X C X Zusammengefast erhält man: Helligkeit: Y Y Farbe: C C Diese verkleinerte Bitmap(zeile) liegt nun in einem "4:4:4" Farbformat vor, da für jede Pixelposition eine Farb- und Helligkeitskomponente bekannt ist.
der Adressbereich von 16 bis 235 bei Y"CbCr vorgesehen Du meinst Wertebereich.
In der Spreizung werden die bestehenden Samples durch gleichwertige Werte ersetzt, was bei der Rückführung nach 8 Bit zu Problemen durch die Rundungsungenauigkeiten führt. Beispiel: 100 ("8-Bit") * 4 = 400 ("10-Bit"). Und 400 ("10-Bit") / 4 = 100 ("8-Bit"). Wo sind hier "Rundungsungenauigkeiten"?
Du das auch horizontal anwendest, was man bei Fernsehen ja leider muss, dann wird aus 1920 leider nicht (50%=960) sondern 720 .... Wie rechnest Du denn das dann ? Das ist nun wirklich kein großes Problem.
wenn Du aus 4 umliegenden Pixels ein neues machst, bekommst Du nicht mehr Farben, sondern lediglich eine einzige Mischfarbe und die hat auch nur 8 Bit Man könnte die "Mischung" mit 10 Bit präziser darstellen (lohnen tut es sich aber nicht, wenn am Ende wieder ein 8 Bit Format rauskommen soll).

Space


Antwort von xandix:

Hallo,

wenn du eine XHA1 hast mach ein paar Aufnahmen in HDV und dann in DV und schaus dir selbst auf deinem Monitor an (bzw versuche mit deiner Schnittsoftware das an Farbkorrektur etc. was dir bedenken machen könnte).
Wenn du keinen Unterschied siehst, ists ja wohl egal, wenn nicht hast du den Sieger selbst herausgefunden.....


Gruss

Space



Space


Antwort von WoWu:

@ Alex

Du darfst nie vergessen, dass auch in der Kamera Software, wenn auch in Silkon gegossen, aktiv ist.
Diese Software führt die Interpolationen aus. Software des einen herstellers unterscheidet sich aber durchaus von der eines andern Herstellers. Daher wirst Du immer Vergleichen müssen.
Meine Erfahrungen mit solchen Umwandlungen sind meistens die gewesen, dass Hardware (bzw. deren Software darin) durchweg die besseren Ergebnisse gebracht hat. Das mag aber auch daran liegen, dass ich überwiegend mit kommerziellen Geräten umgehe.
Ich würde an Deiner Stelle, die Software, die Du hast, einmal mit dem Ergebnis der Kamera-Wandlung bzw. des von Canon empfohlenen Verfahrens vergleichen.
Den wesentlichen Vorteil Deiner Kamera, der zu besseren SD Ergebnissen (gegenüber einer SD Kamera) führt, nutzt Du ohnehin: Deine HD Optik.

Space


Antwort von WoWu:

@TheBubble

Solange alle in der Interpolation halbiert bzw. geviertelt wird, wie in Deinen Beispielen, kommst Du damit auch einen schritt weiter.
Wenn Du aber von 1920 auf 720 musst klappt das nicht mehr ...

Ausserdem ist nun ausgerechnet "nearest neighbour" die schlechteste aller Interpolationen ...

Space


Antwort von Alex.A:

hätte ja sein können dass die Experten diesen Vergleich bereits durchgeführt haben ...und ich mir das ganze sparen könnte..

Gruss
Alex

Space


Antwort von TheBubble:

Solange alle in der Interpolation halbiert bzw. geviertelt wird, wie in Deinen Beispielen, kommst Du damit auch einen schritt weiter.
Wenn Du aber von 1920 auf 720 musst klappt das nicht mehr ... Doch, das klappt.

Der erste Schritt (siehe Beispiel oben) wäre ein erstes Resampling auf 960 Pixel in der Breite (Ergebnis in "4:4:4"). Der zweite Schritt ist ein weiteres Resampling auf eine (beliebig) kleinere Auflösung (Ergebnis weiterhin in "4:4:4").

Schritt 1 und 2 können zu einem Schritt zusammengefasst werden.

Space


Antwort von WoWu:

@ Alex
Leider gibt es am Markt eben unzählige Softwaretool, sodass man eben keinen wirklich allgemein gültigen Hinweis geben kann.
(Darum dreht sich im Kern ja auch die ganze Diskussion.)

Es gibt durchaus gute Software, mit ausgezeichneten Interpolationsergebnissen. Hast Du die, kannst Du Glück haben und ein besseres Ergebnis erzielen, als mit der HW Wandlung.
Ich befürchte nur, Canon hat das schon probiert und ist als Ergebnis zu der Empfehlung gekommen.
Meine Ansatz ist, abweichend von PM"s Posting, zu sagen: Downsampling führt nicht automatisch zum besseren Ergebnis.

Space


Antwort von Anonymous:

Filme in HDV und mache per Avisynth dann eine DVD kompatible Datei.
damit bekommst sichtbar - mit dem Auge erfaßbar - bessere Ergebnisse als bei:

- Aufnahme in HDV und per Kamera in DV ausgeben
- Aufnahme in DV

Das ist Erfahrung aus der Praxis!

Google mal und Du wirst den Weg zu Avisynth und Downkonvertierung schon finden...

Space


Antwort von PowerMac:

Lass uns nicht wieder von Vorne anfangen: Tun wir erst seit diesem Beitrag.
Die Optiken für SD sind in der Regel schlechter als HD Optiken. HD-Optiken sollen besser sein als SD-Optiken? Meistens. In der gleichen Preisklasse. Aber ein Canon-SD-Weitwinkel für 30.000 Euro ist besser als eine billige Optik in einer HDV-Kamera. Deine Aussage, Optiken für SD seien in der Regel schlechter als HD-Optiken, ist nur richtig, wenn es sich um die gleiche Qualität/Preisklasse/was auch immer handelt. WoWu bitte, es geht um die optischen Eigenschaften. Wie verzeichnungsfrei und lichtstark eine Optik ist, Ob sie scharfe Bilder liefert, ob sie Farbsäume hat, ob sie atmet beim Fokussieren. Und da ist eine für 2/3 gemachte Optik mit dem zehn bis fünzigfachen Preis immer besser. Unabhängig von SD und HD. Es geht mir hier um den Bildeindruck. Du kennst sicher die Bilduntersuchungen der EBU. Menschen schauen Filme an und bewerten das Bild. Wie angenehm, wie scharf, ob Bildfehler zu sehen sind. Und gute SD-Optiken schlagen schlechte HD-Optiken.

Was den Kontrastumfang angeht, so lässt sich das mit der MTF für die DigiBeta auch nicht festmachen. Dann beweise das bitte! Bei jedem Kameravergleich haben Kameras mit 1/3"-Sensor einen kleineren Kontrastumfang als große Kameras.
Und das mit der Farbinformation, ... ich dachte, das hätten wir schon gehabt ? Ich spreche von Farben, von der Wirkung der Farben! Wie ein Bild wirkt.
Die Farben und das Bild einer Digibeta wirken besser als die einer HD-Kamera. Da gibt es etwa den Vergleichstest der Digital Production, die Vergleichstests im Kameramann.

Space


Antwort von Markus:

zum Bild http://www.smilies.4-user.de/include/Schock/smilie_sh_019.gif

Unglaublich, für was einige User so alles Zeit und vor allem auch Lust haben müssen! Aus dieser Diskussion habe ich zahlreiche Postings in eine Off-Topic-Diskussion verschoben, weil sie mit dem obigen Thema nicht das geringste zu tun hatten.
_________________
Herzliche Grüße
vom Moderator

Space


Antwort von Klausinger:

Dafür, dass diese Thema wohl anscheindend doch so oft diskutiert wurde ich ich gleich auf die Suchfunktion verwiesen wurde, gab es ja wohl doch noch viel zu sagen ;-) Ich fand's auf jeden Fall interessant, auch wenn ich zwischendrin den naturwissenschaftlichen Ansätzen gar nicht mehr folgen konnte. Sobald ich meine Cam habe, kann ich ja berichten was nun "besser" ist. Für mich als Nicht-Physiker zählen die Resultate (auch wenn sie von psychologischer Natur und subjektiv sind) wesentlcih mehr als Datenblätter und technische Zusammenhänge! Das Auge isst ja schliesslich mit ;-)
Klaus.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


FCP Skalieren 5K auf 4K
"Bewegungseffekte beim Ändern der Bildgröße proportional skalieren"
Freigezeichnete Maske skalieren (PremierePro)
Face Refinement: Maske vertikal skalieren
DVD zu Full HD skalieren
Skalieren mit Sony Alpha Kameras.
Stabilizer direkt auf mehrere Clips anwenden
Windstill - von der HFF direkt auf die große Leinwand
Kameraaufnahme direkt auf PC. MAZ
Neuer Snapdragon 8 Gen 3 ermöglicht KI-Funktionen direkt auf dem Smartphone
Warner veröffentlicht alle Kinofilme des Jahres 2021 zeitgleich direkt bei HBO Max
Sony ILME FX6 direkt an SSD anschliessen
2 Funkstrecken direkt in die Kamera?
Sony C3 Portal: Cloud-Lösung für Sony Kameras - vom Dreh direkt zum Schnittplatz
Filme direkt ins Hirn.
Vom Rekorder direkt in die Timeline: Frame.io C2C Support für Atomos Connect
KI Bilder mit Stable Diffusion jetzt auch direkt in Photoshop und Gimp erzeugen
Creator Music - Musik direkt in YouTube Studio lizensieren




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash