das hängt sehr stark von der verwendeten hardwarebeschleunigungslösung ab, aber gerade der unscheinbare sprung von 4:2:0, das gewöhnlich kaum probleme macht, zu 4:2:2 bringt hier wirklich gravierende änderungen mit sich, da letzteres im falle von nivida gar nicht unterstützt wird und bei intel auch erst in der ice lake generation. natürlich kann man vor diesem umstand einfach die augen verschließen und weiterhin unnachgiebig auf formaten bestehen, die mit diesen vorgaben nicht vereinbar sind, oder aber man akzeptiert und berücksichtigt diese gegebenheiten (was im übrigen ohnehin auch die meisten kameras mit ähnlich gelagerten aufzeichnungseinschränkunken nahe legen) und wird dann halt auch mit vernünftiger benutzbarkeit belohnt.Sobald man moderne HEVC-Streams mit 10 Bit 4:2:2 Codierung oder auch 50/60p ins Rennen schickt ziehen trübe Wolken auf.
Wirklich großes Danke für diesen relevanten Nvidia Hinweis. Wir haben diesen Artikel nämlich in den letzten 2 Monaten schon dreimal umgeschrieben und immer wieder nachgetestet und haben festgestellt, dass man hierfür noch weitaus systematischer vorgehen müsste, um wirklich relevante Aussagen treffen zu können. In dieser Zeit hat nicht nur Edius einen neuen Decoder bekommen sondern auch AMD hat unter Resolve einen riesigen Sprung gemacht. Und dabei ging zwischen den Versionen immer mal wieder ein Format besser als das andere. Jetzt haben wir den Artikel einfach so raus gegeben, bevor er komplett für die Tonne ist.mash_gh4 hat geschrieben: ↑Di 02 Jul, 2019 11:14 das hängt sehr stark von der verwendeten hardwarebeschleunigungslösung ab, aber gerade der unscheinbare sprung von 4:2:0, das gewöhnlich kaum probleme macht, zu 4:2:2 bringt hier wirklich gravierende änderungen mit sich, da letzteres im falle von nivida gar nicht unterstützt wird
Danke fürs Danke. Und wie schon im letzten Beitrag geschrieben: Sowas wirklich sinnvoll zu betrachten ist weitaus aufwändiger, als es erstmal scheint. Deine Gedanken dazu sind definitiv ein Teil dieses Problems.dosaris hat geschrieben: ↑Di 02 Jul, 2019 11:42 interessanter Beitrag!
Danke dafür.
Meine Interpretationsversuche zu den skizzierten Problemen können nur theoretisch sein
(hab's selber nicht gemessen). Mir ist auch klar, dass genaues Verifizieren der
Einfluss-Faktoren sehr aufwändig sein kann.
Aber:
mein Einwand wäre (ganz abstrakt betrachtet), ob hier nicht eine Scheinkausalität zu falschem Fazit führt.
Verglichen werden sollte mE footage in gleicher Qualität (Auflösung, Framerate, Bittiefe,etc) in jeweils
h.264 und h.265 encodiert. Dann könnten die Resulate vielleicht anders aussehen.
Hier müssen einfach seeehr viel Pixelei/sec durchgeschoben werden. Bei 4kP50 wären dies ca 400 Mpx/sec
bzw 1200 MB/sec bei interner 24Bit-Darstellung (RGB-8Bit). Bei 10Bit natürlich noch mehr.
Diese Datenmenge muss intern prozessiert werden, um sie überhaupt erstmal darstellen zu können,
hinzu kämen Rechenaufwand für Filter etc, aber eben unabhängig von der codierung (264/265).
Und Vorsicht hier:
die Angaben zum Durchsatz bei SSDs (selbst bei M2) sind immer peak-Werte, nicht sustained!
h.264 und h.265 sind eng verwandt.
Aber die h.264-Encoder haben einige Jahre Optimierungsvorsprung.
Umgekehrt lässt sich h.265 so parametrisieren (im Prinzip zumindest), dass faktisch kein Unterschied zu
h.264 mehr bleibt, aber eben auch keine kleineren Dateien mehr dabei rauskommen.
Ich gehe davon aus, dass die h.265-Encoder in den Cams aus den gleichen Gründen einige Kompromisse
beinhalten müssen, sonst wären Kühlkörper und Akkus doppelt so groß wie die Cam. Denn der Rechenaufwand
ist nunmal so groß, egal wie der erbracht wird.
Diese Kompromisse sind es dann wahrscheinlich, die unterschiedliche Encoder-Dialekte auf
der Decoderseite zum Humpeln bringen. Und hier kommt wieder der Optimierungsvorsprung der
h.264-Encoder zum tragen.
Grundsätzlich ist es vermutlich nicht der Unterschied zw h.264 u h.265 selber.
Ist es nicht so, dass die "größeren" Nvidia-Karten nun auch version 2 von HEVC unterstützen?mash_gh4 hat geschrieben: ↑Di 02 Jul, 2019 11:14das hängt sehr stark von der verwendeten hardwarebeschleunigungslösung ab, aber gerade der unscheinbare sprung von 4:2:0, das gewöhnlich kaum probleme macht, zu 4:2:2 bringt hier wirklich gravierende änderungen mit sich, da letzteres im falle von nivida gar nicht unterstützt wird und bei intel auch erst in der ice lake generation. natürlich kann man vor diesem umstand einfach die augen verschließen und weiterhin unnachgiebig auf formaten bestehen, die mit diesen vorgaben nicht vereinbar sind, oder aber man akzeptiert und berücksichtigt diese gegebenheiten (was im übrigen ohnehin auch die meisten kameras mit ähnlich gelagerten aufzeichnungseinschränkunken nahe legen) und wird dann halt auch mit vernünftiger benutzbarkeit belohnt.Sobald man moderne HEVC-Streams mit 10 Bit 4:2:2 Codierung oder auch 50/60p ins Rennen schickt ziehen trübe Wolken auf.
nein -- ich kenne zwar den wahren grund für diese einschränkung natürlich auch nicht, aber fehlende 4:2:2 unterstützung war im falle von nvidia auch schon bei h.264 in genau der gleichen weise der fall. und so wie dort die 10bit unterstützung bei praktisch allen verbreiteten hardwarebeschleunigungslösungen bis heute ausgeblieben ist, gilt es auch bei 4:2:2 nicht gar zu optimistisch im hinblick auf zukünftigen verbesserungen zu bleiben. im bezug auf hardwarebeschleunigung können die hersteller oft auch einfach nicht ganz so flexibel reagieren wie bei reinen software- bzw. treiber-updates. diesbezügliche einschränkungen bleiben also zumindest für eine chipgeneration weitestegehend unabänderlich. ich glaube aber, dass man es durchaus auch als ein vernünftiges abwägen von tatsächlichen vorteilen, entwicklungsaufwand und realen verfügbaren alternativen werten sollte, wenn hersteller manche dinge, wie eben 4:2:2 unterstützung oder 10bit-h.264, keine übermäßig große bedeutsamkeit beimessen bzw. ihre kräfte und innovationsbemühungen auf anderes konzentrieren.
Nun hab ich aber eben diese Info gefunden, die immerhin besagt, dass Nvidias TU104 doch mehr kann, als 4:2:0:mash_gh4 hat geschrieben: ↑Di 02 Jul, 2019 12:26nein -- ich kenne zwar den wahren grund für diese einschränkung natürlich auch nicht, aber fehlende 4:2:2 unterstützung war im falle von nvidia auch schon bei h.264 in genau der gleichen weise der fall. und so wie dort die 10bit unterstützung bei praktisch allen verbreiteten hardwarebeschleunigungslösungen bis heute ausgeblieben ist, gilt es auch bei 4:2:2 nicht gar zu optimistisch im hinblick auf zukünftigen verbesserungen zu bleiben. im bezug auf hardwarebeschleunigung können die hersteller oft auch einfach nicht ganz so flexibel reagieren wie bei reinen software- bzw. treiber-updates. diesbezügliche einschränkungen bleiben also zumindest für eine chipgeneration weitestegehend unabänderlich. ich glaube aber, dass man es durchaus auch als ein vernünftiges abwägen von tatsächlichen vorteilen, entwicklungsaufwand und realen verfügbaren alternativen werten sollte, wenn hersteller manche dinge, wie eben 4:2:2 unterstützung oder 10bit-h.264, keine übermäßig große bedeutsamkeit beimessen bzw. ihre kräfte und innovationsbemühungen auf anderes konzentrieren.
Aber nur die 8bit Variante per igpu oder T2
genau das ist mein Kenntnisstand, erklärt von Leuten, die auf der Plattform arbeiten.Bei den 10bit Varianten rechnet sich apple nen wolf wie alle anderen auch egal ob mit Amd oder Nvidia
Probiere es aus. Für normale Workflows ohne spezielle Effekte (Debayering, Noise Reduction etc.) kommt Resolve sowieso ohne diese hier immer wieder herbeigeschriebene Grafikkartengigantomanie aus. Ich habe z.B. einige kleinere Sachen in HD mit einer GT und aktuell mit einer GTX950 gemacht. Ohne Probleme.Kamerafreund hat geschrieben: ↑Di 02 Jul, 2019 18:08 Blöde Frage:
Wenn ich eine relativ starke Intel Quicksync CPU habe und nur eine gute Decoder-Performance brauche. (Also keine Effekte und höchstens leichtes Colorgrading). Brauche ich dann auch in Resolve keine starke Grafikkarte? NVDEC und Quicksync wäre ja doppelt gemoppelt..
Naja, ausschließlich iGPU für Resolve hielte ich auch für ein bisschen sportlich ;)Kamerafreund hat geschrieben: ↑Di 02 Jul, 2019 22:55 Danke! Wäre trotzdem ein teures experiment. Bin gerade am überlegen ob neues Macbook oder gleich ein günstiger Desktop PC. Nur Gehäuse, Mainboard und Intel-CPU mit Onboard-Grafik wäre schon deutlich günstiger.. ;)
dienstag_01 hat geschrieben: ↑Di 02 Jul, 2019 23:04Naja, ausschließlich iGPU für Resolve hielte ich auch für ein bisschen sportlich ;)Kamerafreund hat geschrieben: ↑Di 02 Jul, 2019 22:55 Danke! Wäre trotzdem ein teures experiment. Bin gerade am überlegen ob neues Macbook oder gleich ein günstiger Desktop PC. Nur Gehäuse, Mainboard und Intel-CPU mit Onboard-Grafik wäre schon deutlich günstiger.. ;)
Oder ist es nur HD?
Aber vielleicht findet sich hier ja doch noch einer, der Resolve mit Intel iGPU nutzt.
Warum sollen es keine Aufnahmecodecs sein?Frank Glencairn hat geschrieben: ↑Mi 03 Jul, 2019 06:53 Bottom line: H264/65 sind kein Aufnahmecodecs.
Ich kann nicht verstehen, warum man sich sowas antut.
Weil wir das Jahr 2019 schreiben, und CPUs und GPUs so viel Rechenleistung bieten wie noch nie.Frank Glencairn hat geschrieben: ↑Mi 03 Jul, 2019 07:55 Weil wir das Jahr 2019 schreiben, und Datenspeicher so billig wie noch nie ist.
Aber bitte, wenn jemand unbedingt meint er müsse an DER Stelle sparen - be my guest.
Als nächstes lesen wir dann wieder den 12zigzillionsten Post "Hilfe mein Material ruckelt"
Niemand hat ruckelndes Material, wenn er nicht die völlig falsche Hardware benutzt.Frank Glencairn hat geschrieben: ↑Mi 03 Jul, 2019 08:57 Niemand hat dropped Frames, wenn er nicht die völlig falschen Medien benutzt.
Ich begreife solche Einwände nicht...Auch in ProRes HQ kommen übrigens reichlich Daten zusammen, wenn man einen 2 Stunden-Vortrag in 4k aufnimmt.
Wie bescheuert müsste man sein, um so etwas zu tun?
Leute wollen ihre Hochzeit in Hollywood-Qualität gefilmt haben. Da kommen dann mehrere Reds zum Einsatz - nebst Kran, Copter usw.