Nachdem bei uns im Forum immer wieder die Diskussion aufkommt, wie gut die Encoding-Qualität von GPUs hat, kann vielleicht nVidia selber auch ein bisschen Information dazu beitragen. Zum Hintergrund: Um Videos mit modernen Codecs zu komprimieren, ist eine Menge Rechenleistung erforderlich. Um alle Kompressionstricks eines Codecs auszureizen, muss der gesamte Stream am besten in einem ersten Durchgang analysiert werden, um anschließend in einem zweiten Durchgang bessere Entscheidungen zu den eingesetzten Verfahren treffen zu können (2-Pass-Encoding).
Zu diesen Entscheidungen gehört unter anderem, welche Bildbereiche besonders detailreich gespeichert werden sollen und wie man die knappe Datenrate bestmöglich den einzelnen Frames zuteilt.
// Top-News auf einen Blick:
- Neue Gerüchte: Nvidia soll die GPU-Produktion 2026 um 30-40% runterfahren
- Adobe Firefly bekommt Upscaling per Topaz, Editing per Prompt und mehr
- Leak: Samsungs plant SATA-Aus - Kommt der Preisschock auch bei SSDs?
- Kompaktkameras wieder im Trend - trotz Smartphones
- Von Mickey Mouse bis Darth Vader - Disney lizenziert seine Figuren an OpenAIs Sora
- Sony A7 V in der Praxis: Mix aus Sony A1 und FX3 zum halben Preis?
Wer also beim Videoschnitt GPU-Encoder zum Export seiner Videos benutzt, spart vielleicht etwas Zeit, bekommt aber keinesfalls die bestmögliche Qualität für seine Datenrate. Und hier machen wir nun den Bogen rund und verlinken den aktuellen Golem-Artikel, in dem nVidia angibt, dass die neue Turing-Generation in der Qualität auf Augenhöhe mit dem x264-Medium-Preset agiert. Und nur zur Einschätzung: Darüber gibt es in den Presets nicht nur eine, sondern noch drei höhere Qualitätsstufen: Slow, Slower und Very Slow. Wenn es um die finale Distribution geht, würden wir für den Export eines Clips daher immer auf die CPU setzen.



















