Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // Unterschied zwischen ProRes 422 und ProRes 422HQ in der Praxis

Panasonic Lumix S5Advertisement

Frage von pillepalle:


Hallo Allerseits,

ich habe ein paar Testaufnahmen gemacht um die Unterschiede zwischen den verschiedenen Komprimierungsstufen zu sehen, aber ich habe Mühe einen Unterschied zwischen ProRes 422 und ProRes 422 HQ auszumachen. Selbst bei einer 200% Ansicht kann ich das Material unter normalen Bedingungen (also richtig belichtet) nicht auseinander halten. Daher meine Frage... was muß man damit veranstalten um die Unterschiede in der Komprimierung sichtbar zu machen? Extremes Grading oder 5 Blenden Unterbelichten?

Ich überlege ernsthaft gar nicht mit der höchstmöglichen Datenrate aufzunehmen. Immerhin spare ich dabei ca. 40% an Datenmenge ein. Mein Endformat wird ohnehin FHD, sodaß das Material in den meisten Fällen sowieso von UHD runter skaliert wird.

VG

Space


Antwort von nic:

Das ist bei PR relativ schlecht zu sagen. Da es sich bei PR wie bei JPEG um eine DCT-basierte Komprimierung handelt, werden ab irgendeinem Punkt eben (relativ plötzlich) die Makroblöcke sichtbar und von da an ist dein Material auch nach dem Downsampling fast unbrauchbar. Bei einfachen Motiven ist 422 meist ausreichend. Komplexeren Sachen (wie Wald im Regen) profitieren wiederum stark von höheren Datenraten. Am besten ist da: Ausprobieren.

Space


Antwort von pillepalle:

@ nic

Ja, dank Dir erst mal für die Antwort. Ausprobieren macht natürlich nur Sinn, wenn man einen direkten Vergleich mit verschiedenen Kompressionsstufen hat. Muss man also gezielt machen und schauen ob es Situationen geben kann, wo der Unterschied auch sichtbar wird. Ist auch irgendwie logisch das die Kompression bei detailreicheren Aufnahmen wichtiger ist, als bei welchen mit homogenen Flächen, oder weniger Details. In der Fotografie hat man das z.B. eher bei unendlich als im Nahbereich. Also eine weitwinkelige Landschaftsaufnahme stellt in der Regel eine höhere Herausforderung dar, als ein Detail/Close-Up. Wollte jetzt nur nicht das Rad neu erfinden und testen was vor mir vermutlich schon etliche andere ausprobiert haben. Apple sagt ja auch nicht wirklich viel dazu. Außer das sich die Datenraten unterscheiden.

Aber der Tip nach Makroblöcken Ausschau zu halten ist schon mal ein guter. Werde relativ viel Material bei einer dokumentarischen Arbeit ansammeln und da macht es auf Dauer natürlich schon einen Unterschied, ob ich am Tag kanpp 1TB, oder 1,5TB an Daten ansammele.

VG

Space


Antwort von Skeptiker:

Vielleicht zeigt sich ein Unterschied, wenn das ProRes-Material mehrere Bearbeitungsstufen durchläuft: Farbe - Skalierung - Frame-Anapassung etc..

Ansnsten sind bewegte Wasseroberflächen gut geeignet (Seen eher als Fliessgewässer), um Codec-Qualitäten bzw. benötigte Datenraten zu testen.

Space


Antwort von Axel:

Wenn es um ProRes als Intermediate geht, dann gibt es durchaus Erfahrungswerte. 8-bit-Originale in 1080 profitieren nicht im Mindesten davon, mehr Datenrate als ProRes LT zu erhalten, 10-bit UHD (z.B. von der FS7) sollten besser HQ bekommen. ProRes422 ist dann das "visuell verlustfreie" Mittelmaß, das z.B. FCPX alternativlos verwendet (allerdings bloß, wenn die Projekteinstellungen selbst keine höhere Qualität bestimmen, sonst ist das Ganze ein verschwenderischer Proxy).

Bei der Aufnahme (also z.B. durch einen Atomos-Recorder oder eine Blackmagic-Kamera) sind LT und einfaches 422 vergleichbar mit dem "Longplay" von Audiocassetten. Wenn die dadurch erzielbare Qualität für das erwünschte Ergebnis vollkommen ausreicht: prima. Das kann zum Beispiel bei langen Interviews mit sich kaum änderndem Bildinhalt der Fall sein. Das, was man gemeinhin als "Aufzeichnung" bezeichnen würde. Bei ästhetisch komponierten und nach aufwändigerer Nachbearbeitung schreienden "Bildern" würde ich persönlich nicht wegen Speicherplatzersparnis zu sehr geizen.

Space


Antwort von pillepalle:

@ Skeptiker

Danke für den Tip mit den Wasserflächen. Werde ich bei nächster Gelegenheit ausprobieren. Ich gehe erstmal nicht davon aus, das ich viele oder extreme Grading Schritte brauchen werde. Insofern wird das Material nicht wirklich 'gestresst' werden, außer ich versemmele mal was und muß das Material deshalb verbiegen.

@ Axel

Ja, ich nehme auf einen Atomos Ninja V auf. Habe 10 bit Nikon N-Log files... keine Ahnung wo die Qualitativ zu 'ner Blackmagic-Kamera liegen.

In Unterschiedlichen Kompressionen zu arbeiten, je nach Situation, wäre natürlich auch eine Option. Vermutlich ist das aber in der jeweiligen Situation nicht immer so ganz leicht zu entscheiden. Ich denke auch meine ersten Testmotive waren zu einfach um Unterschiede zu erkennen. Habe jetzt mal deutlich detailreichere Aufnahmen gemacht und die Kamera auch mal geschwenkt (mit 1/100 sek um weniger Blur zu haben). Je mehr sich im Motiv verändert, desto mehr kommt der CODEC vermutlich ins Schwitzen.

VG

Space


Antwort von dienstag_01:

pillepalle hat geschrieben:
@ Skeptiker

Danke für den Tip mit den Wasserflächen. Werde ich bei nächster Gelegenheit ausprobieren. Ich gehe erstmal nicht davon aus, das ich viele oder extreme Grading Schritte brauchen werde. Insofern wird das Material nicht wirklich 'gestresst' werden, außer ich versemmele mal was und muß das Material deshalb verbiegen.

@ Axel

Ja, ich nehme auf einen Atomos Ninja V auf. Habe 10 bit Nikon N-Log files... keine Ahnung wo die Qualitativ zu 'ner Blackmagic-Kamera liegen.

In Unterschiedlichen Kompressionen zu arbeiten, je nach Situation, wäre natürlich auch eine Option. Vermutlich ist das aber in der jeweiligen Situation nicht immer so ganz leicht zu entscheiden. Ich denke auch meine ersten Testmotive waren zu einfach um Unterschiede zu erkennen. Habe jetzt mal deutlich detailreichere Aufnahmen gemacht und die Kamera auch mal geschwenkt (mit 1/100 sek um weniger Blur zu haben). Je mehr sich im Motiv verändert, desto mehr kommt der CODEC vermutlich ins Schwitzen.

VG
Ich behaupte mal, visuell wird es keinen Unterschied zwischen den beiden Kompressionsstufen geben.
Mit HQ ist man da aber auf der sicheren Seite.

Space


Antwort von pillepalle:

dienstag_01 hat geschrieben:
Ich behaupte mal, visuell wird es keinen Unterschied zwischen den beiden Kompressionsstufen geben.
Mit HQ ist man da aber auf der sicheren Seite.
Vermutlich hast Du Recht. Ich kann nochmal Wasser und Regen im Wald ausprobieren, aber selbst bei einem detailreichen Testmotiv wie dem unten kann ich auch bei angestrengtem Pixelkpeepen keinen Unterschied in Sachen Bildqualität ausmachen. Muss da wohl nochmal eine Nacht drüber schlafen...


zum Bild


VG

Space


Antwort von mash_gh4:

wenn du wirklich an objektiven vergleichen interessiert bist, nimmst du für solche sachen am besten ohnehin spezialisierte software, die weit aussagekräftigere vergleiche erlaubt. um sich dem ganzen aber mit verhältnismäßig einfachen mitteln anzunähern, die jeder zu verfügung hat, kann man z.b. die differenz zwischen zwei kadern, die in unterschiedlichen kompressionsvarianten vorliegen, in einem bildbearbeitungsprogramm vergleichen. dort treten dann die tatsächlichen unterschiede besser fassbar hervor.

Space



Space


Antwort von pillepalle:

@ mash_gh4

Ich mache mir in Resolve ein Still aus dem jeweiligen Film und vergleiche die in Photoshop. Da kann man viel besser Zoomen und vergleichen als in Resolve. Ok, der Farbraum ändert sich, aber das tut er ja für alle Stills die ich so vergleiche. Filme ja zum ersten Mal mit etwas besseren Codecs und möchte auch ein wenig die Grenzen des Materials kennen lernen. Also auch mal einen Fall erleben wo das Mehr an Daten, das man mit HQ hat, einen visuellen Unterschied macht. Bisher ist das ja mehr so ein Sicherheitsgedanke... mehr hilft mehr :)

VG

Space


Antwort von roki100:

Ich sehe nichtmal ein unterschied zwischen ProRes HQ und LT :(

Space


Antwort von mash_gh4:

pillepalle hat geschrieben:
Ich mache mir in Resolve ein Still aus dem jeweiligen Film und vergleiche die in Photoshop.
ja -- das passt schon!

aber platzier einfach die beiden varianten auf unterschiedlichen layern und überblende sie mit "subtrahieren" (od.ä.), dann sollte man wirklich nur mehr die differenz sehen bzw. deren anzeige auch mit sehr einfachen mitteln ggf. verstärken können...

Space


Antwort von pillepalle:

@ roki100

Da bilde ich mir zumindest ein einen gesehen zu haben :) Ich muss jetzt auch nicht unbedingt an der Datenrate sparen, aber ich möchte auch nicht Platin-Kunde bei Western Digital werden, wenn es überhaupt nicht nötig ist...

@ mash_gh4

Danke für den Tip. Probiere ich mal aus.

VG

Space


Antwort von Skeptiker:

Nochmals kurz wegen meines Vorschlags (auf und ab bewegte See-) "Wasseroberfläche":

Der macht nur Sinn, wenn Du das gleiche Motiv zur gleichen Zeit sowohl in ProRes als auch in ProRes HQ filmen könntest.
Das wird wohl nicht möglich sein.

Immerhin könntest Du so mal extern ProRes (HQ) mit intern H.264 oder H.265 vergleichen.

Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki100

Da bilde ich mir zumindest ein einen gesehen zu haben :)
Es gibt bestimmt einen unterschied, doch ich sehe es nicht. Also nicht so wie mit cDNG und ProRes (HQ) oder BRAW.

Space


Antwort von roki100:

Also jetzt interessiert mich das mehr als vorher, weil ich eben den unterschied überhaupt nicht sehe. Die Beschreibung auf der Apple Seite verstehe ich auch nicht ganz bzw. was mit "visuell verlustfreie Erhaltung" bei ProRes HQ gegenüber ProRes und ProRes LT genau gemeint ist? https://support.apple.com/de-de/HT202410

Ich habe ein Test gemacht und ich sehe gar kein unterschied. Ich habe es mit Standaufnahmen (Kamera auf Stativ) getestet.... auch bewegliche Aufnahmen und ich kann gar keinen unterschied erkennen. Ich weiß auch nicht mal was bei Proxy anders ist, weil ich da auch keinen unterschied sehe .LOL

Space


Antwort von roki100:

Hier ein Vergleich. Leider mit einer nicht so gute Linse (Tamron XR Di II...):

CinemaDNG Bildschirmfoto 2019-05-23 um 21.15.56.png ProResHQ Bildschirmfoto 2019-05-23 um 21.16.50.png ProRes Bildschirmfoto 2019-05-23 um 21.17.47.png ProRes LT Bildschirmfoto 2019-05-23 um 21.18.25.png ProRes Proxy Bildschirmfoto 2019-05-23 um 21.19.10.png Aber wahrscheinlich bringt das nichts, weil alles in *.png ? Ich sehe nur einen minimalen unterschied zwischen ProRes und cDNG. Vielleicht im verschwommenen Bereich, da sehen die Pixel/Noise/Grain, oder jetzt in png, eine Art Banding, etwas anders aus? Keine Ahnung.

Space


Antwort von pillepalle:

@ roki100

Da hast Du Dir aber auch nicht besonders viel Mühe gegeben :) ...alle aus der Hand (jedes hat einen anderen Ausschnitt) und auch kein allzu schwieriges Motiv.

VG

Space



Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki100

Da hast Du Dir aber auch nicht besonders viel Mühe gegeben :)
hahaha... ;) was soll ich den als Motiv nehmen? Wie freezer paar Euro Scheine? Was schärfe betrifft, es sieht nicht anders aus.

Ich dachte das sei gut, weil eigentlich das zu sehen ist wo man vll. den unterschied sieht, schatten, DoF, Kratzer.

Space


Antwort von pillepalle:

@ roki100

Also ich halte Close-Ups für weniger Detailreich, Da wirkt ohnehin jede Kamera gut. Und im unscharfen Hintergrund sieht eh alles gleich aus. Also Lieber 'ne Landschaft mit wenig Himmel, oder so...

Glaube aber ehrlich gesagt selber nicht mehr, das man auf diese Art große Unterschiede feststellen wird. Vermutlich muss man das Material erstmal misshandeln, oder 5 mal neu Komprimieren.

VG

Space


Antwort von carstenkurz:

Bei den Datenraten, die sowohl bei normalem ProRes als auch HQ involviert sind, wirst Du Unterschiede nur mit extrem anspruchsvollen Material visuell sehen können. Da ist soviel Luft drin, dass Du bestenfalls mit Differenzbildung technische Unterschiede lokalisieren kannst, aber selbst wenn Du dir diese Stellen dann nochmal genau in der Vergrößerung anschaust, wird es Dir schwer fallen, Unterschiede zu sehen. Das kannst Du aber vergessen, weil Du gar ja kein unkomprimiertes Original für so eine Differenzbildung hast.
Das ist nunmal einer der Vorteile von Transformationscodierungen. Das, was die 'weglassen' liegt typisch eben unter der Wahrnehmungsschwelle. Genau deswegen verwenden diese Codecs ja diese Verfahren.
Ausserdem - je nachdem, wie dein Quellsignal aussieht, ist das schon unkomprimiert an den maßgeblichen Stellen 'entschärft', so dass da gar kein Potential mehr für offensichtliche Artefakte bei diesen Datenraten existiert.

Wenn da Makroblöcke sichtbar würden, hätte Apple einen schlechten Job gemacht. Die treten bei DCT nur bei niedrigen Datenraten oder sehr häufiger Rekompression auf.

- Carsten

Space


Antwort von Skeptiker:

Die Testobjekte sind zu statisch.

Vom Stativ aus: Blätterwald (Details!) bei Wind oder kräuselnde Seeoberfläche (nah!) bei Wind oder sonst etwas, das mit permanentem Wechsel der Bild-Details den Codec fordert (zeitlich und räumlich - temporal und spatial).

Space


Antwort von dienstag_01:

Skeptiker hat geschrieben:
Die Testobjekte sind zu statisch.

Vom Stativ aus: Blätterwald (Details!) bei Wind oder kräuselnde Seeoberfläche (nah!) bei Wind oder sonst etwas, das mit permanentem Wechsel der Bild-Details den Codec fordert (zeitlich und räumlich - temporal und spatial).
Permanenten Wechsel gibt es nicht bei Einzelbildkompression ;)

Space


Antwort von Skeptiker:

;-)
Aber anspruchsvolle (Datenrate) Momentaufnahmen ständig bewegter und vielleicht als Einzelbild nicht ganz scharfer (fps versus Belichtungszeit) Objekte.

Eignet sich auch gut für einen Vergleich GOP-Codec versus Einzelbild-Codec!

Space


Antwort von carstenkurz:

Je unschärfer, desto einfacher für den Codec. Also nix schönes mit 180Grad Shutter oder fettem Bokeh...

Ich habe bei guten DCT oder Wavelet Codecs Artefakte visuell bisher immer nur mit synthetisch erzeugtem Material gesehen. Dann sind sie ggfs. recht leicht zu provozieren. Das hat aber dann wenig Aussagekraft für Live-Footage.

- Carsten

Space


Antwort von Skeptiker:

Ok, dann so detailreich wie irgend möglich!

Scharfes Objektiv, optimale Blende (nicht geschlossener als 5.6), kontrastreiches Motiv/Bild voller feiner Details - Makro? Platine? feinste Schwarz/Weiss-Kontraste? Nahe beeinanderliegende (an der Auflösungsgrenze Sensor/Objektiv) Punkte, Linien, Muster? Evtl. Moiré-Muster (Makro von geeigneter Briefmarke?), die je nach Kompression unterschiedlich aussehen.

PS:
Wenn ich's mir so überlege:

Es sind eigentlich zwei Ansätze, wo sich die Frage "ProRes (oder AVID) als Light, Standard oder HQ verwenden?" stellt.

1. Schon bei der Aufnahme - mit Atomos & Co.
Kann sein, dass da die Wahl "Standard" oder "HQ" bei normaler Nachbearbeitung nicht so kritisch ist und "Standard" durchaus genügt.

2. Als Intermediate-Format fürs Schneiden - ausgehend von intern aufgenommenem H.264 und H.265.
Hier greife ich immer zur HQ-Variante - a) sicher ist sicher, b) weil das Ausgangsmaterial bereits stark komprimiert ist, c) weil ich bei kritischen Bildvergleichen Unterschiede sah.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


DJI Mavic 3: Neue Firmware bringt u.a. Aufnahme mit ProRes 422 und ProRes 422 LT
Was ist der Unterschied zwischen mpeg4 Codecs V1 ... V3?
DVDs kopieren: Unterschied zwischen transcoden und encoden?
Unterschied zwischen Studio 9 und 9SE?
Unterschied zwischen CMOS und interpolierten Pixeln
Frage: Unterschied zwischen Toshiba VCR 856G und 857G
ProRes 422 LT für TV-Doku?
Asynchron mit Bmpc4k Apple ProRes 422 HQ
Green Screen MP4 oder ProRes, beides 422 10 Bit
ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
Die Nikon Z 6II im Lesertest - 3x ProRes RAW in der Praxis
EOS R5 und Ninja V+: Canon vs ProRes RAW in der Praxis: Belichtung, Hauttöne, Postpro
DJI Ronin 4D mit ProRes RAW und 3D LiDAR in der Praxis: Die Robotik-Film-Zukunft?
Nikon Z9 in der Praxis: Nonstop 8K 10 Bit Aufnahme, N-Log, internes ProRes, Hauttöne, 120p...
DJI Mavic 3 Cine in der Praxis: 5.1K ProRes LOG, die neuen Trackingfunktionen, APAS 5.0 uvm.
Fujifilm X-H2S in der Praxis: 6.2K 10 Bit ProRes HQ, F-Log2 und Hauttöne, Video-AF uvm.
10 Bit 420 vs 8Bit 422
Canon Cinema RAW Light zu 422 10 Bit konvertieren, aber ohne Media Encoder




RSS Facebook Twitter slashCAM-Slash