Newsmeldung von slashCAM:
Alid Nord hat ab dem 24.10 einen ganz interessanten Gaming-Notebook für 1.299 Euro im Angebot, der seinen Spezifikationen nach auch für die Arbeit mit Video gut zu gebrau...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Aldi: Medion Erazer P17815: 17,3" Notebook mit Intel i7-9750H 6-Kern CPU und GTX 1660 Ti
Antwort von Kamerafreund:
Besser als Der von euch getestete hp Pavillon Gaming?
Antwort von rudi:
Kamerafreund hat geschrieben:
Besser als Der von euch getestete hp Pavillon Gaming?
Schwer zu sagen, weil wir den Medion ja nicht kennen. Aber auf jeden Fall teurer, dafür aber ab Werk mit 16 GB und 1GB SSD.
Antwort von Kamerafreund:
Aus eurem Test der gtx 1660 ti:
"So kann die GTX 1660 Ti ruckelfrei das Decoding von H.264 und H.265 Material übernehmen und damit sogar einen flüssigen 50/60p-Schnitt in 4K auf der Resolve Timeline bieten. Dies gilt jedoch beispielsweise nicht für 4:2:2 Formate in 10 Bit. In diesem Fall kann jedoch die Hardware in der CPU übernehmen, falls diese ebenfalls Videodecoder bietet."
Auf der NVIDIA Seite steht bei NVDEC dass die Gtx 1660 ti bis HEVC 444 12bit unterstützt. Warum kann sie das nicht?
https://developer.nvidia.com/video-enco ... ort-matrix
Antwort von rudi:
Kamerafreund hat geschrieben:
Aus eurem Test der gtx 1660 ti:
"So kann die GTX 1660 Ti ruckelfrei das Decoding von H.264 und H.265 Material übernehmen und damit sogar einen flüssigen 50/60p-Schnitt in 4K auf der Resolve Timeline bieten. Dies gilt jedoch beispielsweise nicht für 4:2:2 Formate in 10 Bit. In diesem Fall kann jedoch die Hardware in der CPU übernehmen, falls diese ebenfalls Videodecoder bietet."
Auf der NVIDIA Seite steht bei NVDEC dass die Gtx 1660 ti bis HEVC 444 12bit unterstützt. Warum kann sie das nicht?
https://developer.nvidia.com/video-enco ... ort-matrix
Da gabs hier schon mal ne längere Diskussion und warum das so ist, wissen wir auch nicht. Auf jeden Unterstützt Nvidia nur 4:2:0 und manchmal 4:4:4 aber nie 4:2:2 in HEVC.
Antwort von Kamerafreund:
Das ist wirklich nicht gut, da die nächsten Sony Codecs wahrscheinlich 10 Bit 422 hevc sein werden. Kann es an der Davinci Resolve Version liegen? Studio oder Free? Da gibt es Einschränkungen was die Beschleunigung angeht. Habt ihr auch schon einmal in Avid getestet? Da würde mich die Leistung auch sehr interessieren.
Antwort von rudi:
Kamerafreund hat geschrieben:
Das ist wirklich nicht gut, da die nächsten Sony Codecs wahrscheinlich 10 Bit 422 hevc sein werden. Kann es an der Davinci Resolve Version liegen? Studio oder Free? Da gibt es Einschränkungen was die Beschleunigung angeht. Habt ihr auch schon einmal in Avid getestet? Da würde mich die Leistung auch sehr interessieren.
Ne ist wirklich die Nvidia Hardware. Kann man auch in einigen Developer Foren nachlesen. Unter Resolve kann aber auch die Intel CPU einspringen (wenn sie es unterstützt). Wie es aktuell mit AMD aussieht, bin ich selbst nicht auf dem laufenden....Und AVID leider auch nicht...
Antwort von rudi:
rudi hat geschrieben:
Kamerafreund hat geschrieben:
Das ist wirklich nicht gut, da die nächsten Sony Codecs wahrscheinlich 10 Bit 422 hevc sein werden. Kann es an der Davinci Resolve Version liegen? Studio oder Free? Da gibt es Einschränkungen was die Beschleunigung angeht. Habt ihr auch schon einmal in Avid getestet? Da würde mich die Leistung auch sehr interessieren.
Ne ist wirklich die Nvidia Hardware. Kann man auch in einigen Developer Foren nachlesen. Unter Resolve kann aber auch die Intel CPU einspringen (wenn sie es unterstützt). Wie es aktuell mit AMD aussieht, bin ich selbst nicht auf dem laufenden....Und AVID leider auch nicht...
Un noch ein Nachtrag: HEVC 10bit 422 kann Intel auch erst mit den neuesten IceLakes...
https://github.com/intel/media-driver/b ... a-features
Antwort von Kamerafreund:
Schade. Dann kommt mir der Rechner nicht wirklich Zukunftsfähig vor. Ich glaube schon dass die meisten neuen UHD "Arbeitscodecs" genau diese Spezifikation haben werden.. danke für die ganzen Infos!
https://www.slashcam.de/news/single/Son ... 14793.html
Es scheint wirklich gerade ein Bug zu sein. Ich glaube ich werde bei meinem Uralt MacBook bleiben, bis sich da was tut.
https://devtalk.nvidia.com/default/topi ... sampling-/
Der Tipp auf der Seite ist ja super: einfach 422 auf 444 upscalen, dann wird es auch beschleunigt.. dann kann ich gleich auf dem alten Rechner in Prores arbeiten.
PS: also scheint es sowohl H264 als auch h265 zu betreffen?? Dann macht diese Grafikkarte fürs Videoediting wirklich gar keinen Sinn.
Antwort von MarcusG:
Ich verstehe das Problem nicht, bei einem schwächeren Notebook hier von Slashcam getestet sind CPU und GPU bei Playback von 4k 10bit 422 nicht mal annähernd ausgelastet?
https://www.slashcam.de/artikel/Test/HP ... lles-.html
Antwort von Kamerafreund:
Das verstehe ich auch nicht
422 mit 25 FPS lastet die CPU nur halb so stark aus wie 420 mit 60 FPS. Wird also doch beschleunigt?
4K H.265. 10 Bit 4:2:2 25fps
13%
42%
4K H.265 10 Bit 4:2:0 60fps
27%
47%
Antwort von Kamerafreund:
Könnt ihr da weiterhelfen?
Antwort von rudi:
Kamerafreund hat geschrieben:
Könnt ihr da weiterhelfen?
Letztlich bleibt es Trial and Error. Ein Programm kann zum Decodieren ja auch einen Mix aus CPU und GPU nutzen oder sogar einen Mix aus GPU-Hardware- und Shader-Code. Es kommt aktuell wirklich auf die Software an, was sie aus der gegebenen Kombination aus CPU und GPU rausholen kann. Solange es nur einem Stream in der Timeline geht, ist das alles bei aktuellen Rechnern meist kein Problem. Erst wenn man Multistream-Projekte hat, macht es IMHO Sinn sich die Kombination für die eingesetzten Codecs zu optimieren...
Antwort von dienstag_01:
Kamerafreund hat geschrieben:
Das verstehe ich auch nicht
422 mit 25 FPS lastet die CPU nur halb so stark aus wie 420 mit 60 FPS. Wird also doch beschleunigt?
4K H.265. 10 Bit 4:2:2 25fps
13%
42%
4K H.265 10 Bit 4:2:0 60fps
27%
47%
Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.
Antwort von Kamerafreund:
Kann ich leider nicht, weil das die Testergebnisse von Slashcam sind..
dienstag_01 hat geschrieben:
Kamerafreund hat geschrieben:
Das verstehe ich auch nicht
422 mit 25 FPS lastet die CPU nur halb so stark aus wie 420 mit 60 FPS. Wird also doch beschleunigt?
4K H.265. 10 Bit 4:2:2 25fps
13%
42%
4K H.265 10 Bit 4:2:0 60fps
27%
47%
Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.
Antwort von dienstag_01:
Kamerafreund hat geschrieben:
Kann ich leider nicht, weil das die Testergebnisse von Slashcam sind..
dienstag_01 hat geschrieben:
Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.
Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)
Antwort von Kamerafreund:
Hmm. könnte sein, aber da es ja keine Icelake Intel ist, würde Quicksync ja auch nicht anspringen.
Ganz ohne Beschleunigung sind die Ergebnisse ja ziemlich gut..
dienstag_01 hat geschrieben:
Kamerafreund hat geschrieben:
Kann ich leider nicht, weil das die Testergebnisse von Slashcam sind..
Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)
Antwort von dienstag_01:
Kamerafreund hat geschrieben:
Hmm. könnte sein, aber da es ja keine Icelake Intel ist, würde Quicksync ja auch nicht anspringen.
Ganz ohne Beschleunigung sind die Ergebnisse ja ziemlich gut..
dienstag_01 hat geschrieben:
Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)
Stimmt, vielleicht wurde parallel noch ne Primzahl berechnet ;)
Was ich sagen will, die Tests hier muss man mehr und mehr mit Vorsicht genießen, hier im aktuellen Test arbeitet deutlich sichtbar die GPU, bei den Testern kommen da trotzdem keine Fragen auf. Passt für mich in das Bild mit dem verhunzten Dynamiktest und weiteren merkwürdigen Aussagen der Redaktion.
Wird man sich wohl oder übel anders schlau machen müssen.
Antwort von Kamerafreund:
Danke! Dann ausprobieren, wenn nicht sage ich halt den Kunden: der Beitrag wird heute nichts mehr weil der Rechner kein 422 schafft, aber dafür habe ich diese Primzahl für sie! :)