Logo Logo
/// 

Unterschied zwischen ProRes 422 und ProRes 422HQ in der Praxis



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Frage von pillepalle:


Hallo Allerseits,

ich habe ein paar Testaufnahmen gemacht um die Unterschiede zwischen den verschiedenen Komprimierungsstufen zu sehen, aber ich habe Mühe einen Unterschied zwischen ProRes 422ProRes 422 im Glossar erklärt und ProRes 422ProRes 422 im Glossar erklärt HQ auszumachen. Selbst bei einer 200% Ansicht kann ich das Material unter normalen Bedingungen (also richtig belichtet) nicht auseinander halten. Daher meine Frage... was muß man damit veranstalten um die Unterschiede in der Komprimierung sichtbar zu machen? Extremes Grading oder 5 Blenden Unterbelichten?

Ich überlege ernsthaft gar nicht mit der höchstmöglichen DatenrateDatenrate im Glossar erklärt aufzunehmen. Immerhin spare ich dabei ca. 40% an Datenmenge ein. Mein Endformat wird ohnehin FHD, sodaß das Material in den meisten Fällen sowieso von UHD runter skaliert wird.

VG



Antwort von nic:

Das ist bei PR relativ schlecht zu sagen. Da es sich bei PR wie bei JPEG um eine DCT-basierte Komprimierung handelt, werden ab irgendeinem Punkt eben (relativ plötzlich) die Makroblöcke sichtbar und von da an ist dein Material auch nach dem Downsampling fast unbrauchbar. Bei einfachen Motiven ist 422 meist ausreichend. Komplexeren Sachen (wie Wald im Regen) profitieren wiederum stark von höheren Datenraten. Am besten ist da: Ausprobieren.



Antwort von pillepalle:

@ nic

Ja, dank Dir erst mal für die Antwort. Ausprobieren macht natürlich nur Sinn, wenn man einen direkten Vergleich mit verschiedenen Kompressionsstufen hat. Muss man also gezielt machen und schauen ob es Situationen geben kann, wo der Unterschied auch sichtbar wird. Ist auch irgendwie logisch das die KompressionKompression im Glossar erklärt bei detailreicheren Aufnahmen wichtiger ist, als bei welchen mit homogenen Flächen, oder weniger Details. In der Fotografie hat man das z.B. eher bei unendlich als im Nahbereich. Also eine weitwinkelige Landschaftsaufnahme stellt in der Regel eine höhere Herausforderung dar, als ein Detail/Close-Up. Wollte jetzt nur nicht das Rad neu erfinden und testen was vor mir vermutlich schon etliche andere ausprobiert haben. Apple sagt ja auch nicht wirklich viel dazu. Außer das sich die Datenraten unterscheiden.

Aber der Tip nach Makroblöcken Ausschau zu halten ist schon mal ein guter. Werde relativ viel Material bei einer dokumentarischen Arbeit ansammeln und da macht es auf Dauer natürlich schon einen Unterschied, ob ich am Tag kanpp 1TB, oder 1,5TB an Daten ansammele.

VG





Antwort von Skeptiker:

Vielleicht zeigt sich ein Unterschied, wenn das ProRes-Material mehrere Bearbeitungsstufen durchläuft: Farbe - Skalierung - Frame-Anapassung etc..

Ansnsten sind bewegte Wasseroberflächen gut geeignet (Seen eher als Fliessgewässer), um Codec-Qualitäten bzw. benötigte Datenraten zu testen.



Antwort von Axel:

Wenn es um ProResProRes im Glossar erklärt als Intermediate geht, dann gibt es durchaus Erfahrungswerte. 8-bit-Originale in 1080 profitieren nicht im Mindesten davon, mehr DatenrateDatenrate im Glossar erklärt als ProResProRes im Glossar erklärt LT zu erhalten, 10-bit UHD (z.B. von der FS7) sollten besser HQ bekommen. ProRes422 ist dann das "visuell verlustfreie" Mittelmaß, das z.B. FCPX alternativlos verwendet (allerdings bloß, wenn die Projekteinstellungen selbst keine höhere Qualität bestimmen, sonst ist das Ganze ein verschwenderischer Proxy).

Bei der Aufnahme (also z.B. durch einen Atomos-Recorder oder eine Blackmagic-Kamera) sind LT und einfaches 422 vergleichbar mit dem "Longplay" von Audiocassetten. Wenn die dadurch erzielbare Qualität für das erwünschte Ergebnis vollkommen ausreicht: prima. Das kann zum Beispiel bei langen Interviews mit sich kaum änderndem Bildinhalt der Fall sein. Das, was man gemeinhin als "Aufzeichnung" bezeichnen würde. Bei ästhetisch komponierten und nach aufwändigerer Nachbearbeitung schreienden "Bildern" würde ich persönlich nicht wegen Speicherplatzersparnis zu sehr geizen.



Antwort von pillepalle:

@ Skeptiker

Danke für den Tip mit den Wasserflächen. Werde ich bei nächster Gelegenheit ausprobieren. Ich gehe erstmal nicht davon aus, das ich viele oder extreme Grading Schritte brauchen werde. Insofern wird das Material nicht wirklich 'gestresst' werden, außer ich versemmele mal was und muß das Material deshalb verbiegen.

@ Axel

Ja, ich nehme auf einen Atomos Ninja V auf. Habe 10 bit Nikon N-Log files... keine Ahnung wo die Qualitativ zu 'ner Blackmagic-Kamera liegen.

In Unterschiedlichen Kompressionen zu arbeiten, je nach Situation, wäre natürlich auch eine Option. Vermutlich ist das aber in der jeweiligen Situation nicht immer so ganz leicht zu entscheiden. Ich denke auch meine ersten Testmotive waren zu einfach um Unterschiede zu erkennen. Habe jetzt mal deutlich detailreichere Aufnahmen gemacht und die Kamera auch mal geschwenkt (mit 1/100 sek um weniger BlurBlur im Glossar erklärt zu haben). Je mehr sich im Motiv verändert, desto mehr kommt der CODEC vermutlich ins Schwitzen.

VG



Antwort von dienstag_01:


@ Skeptiker

Danke für den Tip mit den Wasserflächen. Werde ich bei nächster Gelegenheit ausprobieren. Ich gehe erstmal nicht davon aus, das ich viele oder extreme Grading Schritte brauchen werde. Insofern wird das Material nicht wirklich 'gestresst' werden, außer ich versemmele mal was und muß das Material deshalb verbiegen.

@ Axel

Ja, ich nehme auf einen Atomos Ninja V auf. Habe 10 bit Nikon N-Log files... keine Ahnung wo die Qualitativ zu 'ner Blackmagic-Kamera liegen.

In Unterschiedlichen Kompressionen zu arbeiten, je nach Situation, wäre natürlich auch eine Option. Vermutlich ist das aber in der jeweiligen Situation nicht immer so ganz leicht zu entscheiden. Ich denke auch meine ersten Testmotive waren zu einfach um Unterschiede zu erkennen. Habe jetzt mal deutlich detailreichere Aufnahmen gemacht und die Kamera auch mal geschwenkt (mit 1/100 sek um weniger BlurBlur im Glossar erklärt zu haben). Je mehr sich im Motiv verändert, desto mehr kommt der CODEC vermutlich ins Schwitzen.

VG

Ich behaupte mal, visuell wird es keinen Unterschied zwischen den beiden Kompressionsstufen geben.
Mit HQ ist man da aber auf der sicheren Seite.



Antwort von pillepalle:


Ich behaupte mal, visuell wird es keinen Unterschied zwischen den beiden Kompressionsstufen geben.
Mit HQ ist man da aber auf der sicheren Seite.

Vermutlich hast Du Recht. Ich kann nochmal Wasser und Regen im Wald ausprobieren, aber selbst bei einem detailreichen Testmotiv wie dem unten kann ich auch bei angestrengtem Pixelkpeepen keinen Unterschied in Sachen Bildqualität ausmachen. Muss da wohl nochmal eine Nacht drüber schlafen...

zum Bild http://giotta.com/422HQ.jpg

VG



Antwort von mash_gh4:

wenn du wirklich an objektiven vergleichen interessiert bist, nimmst du für solche sachen am besten ohnehin spezialisierte software, die weit aussagekräftigere vergleiche erlaubt. um sich dem ganzen aber mit verhältnismäßig einfachen mitteln anzunähern, die jeder zu verfügung hat, kann man z.b. die differenz zwischen zwei kadern, die in unterschiedlichen kompressionsvarianten vorliegen, in einem bildbearbeitungsprogramm vergleichen. dort treten dann die tatsächlichen unterschiede besser fassbar hervor.



Antwort von pillepalle:

@ mash_gh4

Ich mache mir in Resolve ein Still aus dem jeweiligen Film und vergleiche die in Photoshop. Da kann man viel besser Zoomen und vergleichen als in Resolve. Ok, der Farbraum ändert sich, aber das tut er ja für alle Stills die ich so vergleiche. Filme ja zum ersten Mal mit etwas besseren Codecs und möchte auch ein wenig die Grenzen des Materials kennen lernen. Also auch mal einen Fall erleben wo das Mehr an Daten, das man mit HQ hat, einen visuellen Unterschied macht. Bisher ist das ja mehr so ein Sicherheitsgedanke... mehr hilft mehr :)

VG



Antwort von roki100:

Ich sehe nichtmal ein unterschied zwischen ProResProRes im Glossar erklärt HQ und LT :(



Antwort von mash_gh4:

Ich mache mir in Resolve ein Still aus dem jeweiligen Film und vergleiche die in Photoshop.

ja -- das passt schon!

aber platzier einfach die beiden varianten auf unterschiedlichen layern und überblende sie mit "subtrahieren" (od.ä.), dann sollte man wirklich nur mehr die differenz sehen bzw. deren anzeige auch mit sehr einfachen mitteln ggf. verstärken können...



Antwort von pillepalle:

@ roki100

Da bilde ich mir zumindest ein einen gesehen zu haben :) Ich muss jetzt auch nicht unbedingt an der DatenrateDatenrate im Glossar erklärt sparen, aber ich möchte auch nicht Platin-Kunde bei Western Digital werden, wenn es überhaupt nicht nötig ist...

@ mash_gh4

Danke für den Tip. Probiere ich mal aus.

VG



Antwort von Skeptiker:

Nochmals kurz wegen meines Vorschlags (auf und ab bewegte See-) "Wasseroberfläche":

Der macht nur Sinn, wenn Du das gleiche Motiv zur gleichen Zeit sowohl in ProResProRes im Glossar erklärt als auch in ProResProRes im Glossar erklärt HQ filmen könntest.
Das wird wohl nicht möglich sein.

Immerhin könntest Du so mal extern ProResProRes im Glossar erklärt (HQ) mit intern H.264 oder H.265 vergleichen.



Antwort von roki100:


@ roki100

Da bilde ich mir zumindest ein einen gesehen zu haben :)

Es gibt bestimmt einen unterschied, doch ich sehe es nicht. Also nicht so wie mit cDNG und ProResProRes im Glossar erklärt (HQ) oder BRAW.



Antwort von roki100:

Also jetzt interessiert mich das mehr als vorher, weil ich eben den unterschied überhaupt nicht sehe. Die Beschreibung auf der Apple Seite verstehe ich auch nicht ganz bzw. was mit "visuell verlustfreie Erhaltung" bei ProResProRes im Glossar erklärt HQ gegenüber ProResProRes im Glossar erklärt und ProResProRes im Glossar erklärt LT genau gemeint ist? https://support.apple.com/de-de/HT202410

Ich habe ein Test gemacht und ich sehe gar kein unterschied. Ich habe es mit Standaufnahmen (Kamera auf Stativ) getestet.... auch bewegliche Aufnahmen und ich kann gar keinen unterschied erkennen. Ich weiß auch nicht mal was bei Proxy anders ist, weil ich da auch keinen unterschied sehe .LOL



Antwort von roki100:

Hier ein Vergleich. Leider mit einer nicht so gute Linse (Tamron XR Di II...):

CinemaDNG
Bildschirmfoto 2019-05-23 um 21.15.56.png

ProResHQ
Bildschirmfoto 2019-05-23 um 21.16.50.png

ProRes
Bildschirmfoto 2019-05-23 um 21.17.47.png

ProRes LT
Bildschirmfoto 2019-05-23 um 21.18.25.png

ProRes Proxy
Bildschirmfoto 2019-05-23 um 21.19.10.png

Aber wahrscheinlich bringt das nichts, weil alles in *.png ? Ich sehe nur einen minimalen unterschied zwischen ProResProRes im Glossar erklärt und cDNG. Vielleicht im verschwommenen Bereich, da sehen die Pixel/Noise/Grain, oder jetzt in png, eine Art Banding, etwas anders aus? Keine Ahnung.



Antwort von pillepalle:

@ roki100

Da hast Du Dir aber auch nicht besonders viel Mühe gegeben :) ...alle aus der Hand (jedes hat einen anderen Ausschnitt) und auch kein allzu schwieriges Motiv.

VG



Antwort von roki100:


@ roki100

Da hast Du Dir aber auch nicht besonders viel Mühe gegeben :)

hahaha... ;) was soll ich den als Motiv nehmen? Wie freezer paar Euro Scheine? Was schärfe betrifft, es sieht nicht anders aus.

Ich dachte das sei gut, weil eigentlich das zu sehen ist wo man vll. den unterschied sieht, schatten, DoF, Kratzer.



Antwort von pillepalle:

@ roki100

Also ich halte Close-Ups für weniger Detailreich, Da wirkt ohnehin jede Kamera gut. Und im unscharfen Hintergrund sieht eh alles gleich aus. Also Lieber 'ne Landschaft mit wenig Himmel, oder so...

Glaube aber ehrlich gesagt selber nicht mehr, das man auf diese Art große Unterschiede feststellen wird. Vermutlich muss man das Material erstmal misshandeln, oder 5 mal neu Komprimieren.

VG



Antwort von carstenkurz:

Bei den Datenraten, die sowohl bei normalem ProResProRes im Glossar erklärt als auch HQ involviert sind, wirst Du Unterschiede nur mit extrem anspruchsvollen Material visuell sehen können. Da ist soviel Luft drin, dass Du bestenfalls mit Differenzbildung technische Unterschiede lokalisieren kannst, aber selbst wenn Du dir diese Stellen dann nochmal genau in der Vergrößerung anschaust, wird es Dir schwer fallen, Unterschiede zu sehen. Das kannst Du aber vergessen, weil Du gar ja kein unkomprimiertes Original für so eine Differenzbildung hast.
Das ist nunmal einer der Vorteile von Transformationscodierungen. Das, was die 'weglassen' liegt typisch eben unter der Wahrnehmungsschwelle. Genau deswegen verwenden diese Codecs ja diese Verfahren.
Ausserdem - je nachdem, wie dein Quellsignal aussieht, ist das schon unkomprimiert an den maßgeblichen Stellen 'entschärft', so dass da gar kein Potential mehr für offensichtliche ArtefakteArtefakte im Glossar erklärt bei diesen Datenraten existiert.

Wenn da Makroblöcke sichtbar würden, hätte Apple einen schlechten Job gemacht. Die treten bei DCTDCT im Glossar erklärt nur bei niedrigen Datenraten oder sehr häufiger Rekompression auf.

- Carsten



Antwort von Skeptiker:

Die Testobjekte sind zu statisch.

Vom Stativ aus: Blätterwald (Details!) bei Wind oder kräuselnde Seeoberfläche (nah!) bei Wind oder sonst etwas, das mit permanentem Wechsel der Bild-Details den CodecCodec im Glossar erklärt fordert (zeitlich und räumlich - temporal und spatial).



Antwort von dienstag_01:


Die Testobjekte sind zu statisch.

Vom Stativ aus: Blätterwald (Details!) bei Wind oder kräuselnde Seeoberfläche (nah!) bei Wind oder sonst etwas, das mit permanentem Wechsel der Bild-Details den CodecCodec im Glossar erklärt fordert (zeitlich und räumlich - temporal und spatial).

Permanenten Wechsel gibt es nicht bei Einzelbildkompression ;)



Antwort von Skeptiker:

;-)
Aber anspruchsvolle (Datenrate) Momentaufnahmen ständig bewegter und vielleicht als Einzelbild nicht ganz scharfer (fps versus Belichtungszeit) Objekte.

Eignet sich auch gut für einen Vergleich GOP-Codec versus Einzelbild-Codec!



Antwort von carstenkurz:

Je unschärfer, desto einfacher für den Codec. Also nix schönes mit 180Grad ShutterShutter im Glossar erklärt oder fettem Bokeh...

Ich habe bei guten DCTDCT im Glossar erklärt oder Wavelet Codecs ArtefakteArtefakte im Glossar erklärt visuell bisher immer nur mit synthetisch erzeugtem Material gesehen. Dann sind sie ggfs. recht leicht zu provozieren. Das hat aber dann wenig Aussagekraft für Live-Footage.

- Carsten



Antwort von Skeptiker:

Ok, dann so detailreich wie irgend möglich!

Scharfes Objektiv, optimale BlendeBlende im Glossar erklärt (nicht geschlossener als 5.6), kontrastreiches Motiv/Bild voller feiner Details - Makro? Platine? feinste Schwarz/Weiss-Kontraste? Nahe beeinanderliegende (an der Auflösungsgrenze Sensor/Objektiv) Punkte, Linien, Muster? Evtl. Moiré-Muster (Makro von geeigneter Briefmarke?), die je nach KompressionKompression im Glossar erklärt unterschiedlich aussehen.

PS:
Wenn ich's mir so überlege:

Es sind eigentlich zwei Ansätze, wo sich die Frage "ProRes (oder AVID) als Light, Standard oder HQ verwenden?" stellt.

1. Schon bei der Aufnahme - mit Atomos & Co.
Kann sein, dass da die Wahl "Standard" oder "HQ" bei normaler Nachbearbeitung nicht so kritisch ist und "Standard" durchaus genügt.

2. Als Intermediate-Format fürs Schneiden - ausgehend von intern aufgenommenem H.264 und H.265.
Hier greife ich immer zur HQ-Variante - a) sicher ist sicher, b) weil das Ausgangsmaterial bereits stark komprimiert ist, c) weil ich bei kritischen Bildvergleichen Unterschiede sah.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen:
Quicktime ProRes 422
Adobe Pro Video Apps exportieren Apple ProRes 4444 und 422 jetzt auch unter Windows
ProRes 422 LT für TV-Doku?
ProRes HQ 422 10Bit in 4K Datei wandeln - wer kann helfen?
12 Bit ProRes RAW mit der Nikon Z 6 / Z 7 und Atomos Ninja V
Was ist der Unterschied zwischen mpeg4 Codecs V1 ... V3?
8 Bit vs 10 Bit: Panasonic GH5 vs GH4 - der Unterschied in der Praxis
Windows ProRes - neuer ProRes Encoder für Windows
Unterschied zwischen Studio 9 und 9SE?
Auflösung der BMCC in ProRes
Unterschied zwischen CMOS und interpolierten Pixeln
Objektivvergleich: Unterschied zwischen 130$ und 16.000$ sichtbar?
DVDs kopieren: Unterschied zwischen transcoden und encoden?
Unterschied zwischen den Batterien JVC BN-VF815 und BN-VF815U?
Frage: Unterschied zwischen Toshiba VCR 856G und 857G
Der neue ProRes-Decoder für Windows in DaVinci Resolve
Unterschied zwischen Sennheiser und Sony Lavalier-Klinkenstecker für Tascam DR-10CS
FCP 7 Audio/Video Einstellungen mit der BMPCC im Prores Format
RAW, ProRES oder H.264/HEVC - Welcher Codec bei der Aufnahme?
Reloaded: Arri Alexa SXT mit ProRes 4K und Color Engine
Nikons spiegellose D5 Alternative im Anflug - 8K Video und interne ProRes RAW Aufnahme?
Kyno 1.7 bringt mehr Metadaten-Support und ProRes auch unter Windows
VideoStitch Studio 2.2: 360°-VR Video Editing mit H.265 und ProRes
Magix Vegas Pro 14 vorgestellt mit ua. ProRes und HEVC Support // Photokina
Unterschied zwischen mp4 & mov?
DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom