Schwer zu sagen, weil wir den Medion ja nicht kennen. Aber auf jeden Fall teurer, dafür aber ab Werk mit 16 GB und 1GB SSD.Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 11:23 Besser als Der von euch getestete hp Pavillon Gaming?
Da gabs hier schon mal ne längere Diskussion und warum das so ist, wissen wir auch nicht. Auf jeden Unterstützt Nvidia nur 4:2:0 und manchmal 4:4:4 aber nie 4:2:2 in HEVC.Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 11:42 Aus eurem Test der gtx 1660 ti:
"So kann die GTX 1660 Ti ruckelfrei das Decoding von H.264 und H.265 Material übernehmen und damit sogar einen flüssigen 50/60p-Schnitt in 4K auf der Resolve Timeline bieten. Dies gilt jedoch beispielsweise nicht für 4:2:2 Formate in 10 Bit. In diesem Fall kann jedoch die Hardware in der CPU übernehmen, falls diese ebenfalls Videodecoder bietet."
Auf der NVIDIA Seite steht bei NVDEC dass die Gtx 1660 ti bis HEVC 444 12bit unterstützt. Warum kann sie das nicht?
https://developer.nvidia.com/video-enco ... ort-matrix
Ne ist wirklich die Nvidia Hardware. Kann man auch in einigen Developer Foren nachlesen. Unter Resolve kann aber auch die Intel CPU einspringen (wenn sie es unterstützt). Wie es aktuell mit AMD aussieht, bin ich selbst nicht auf dem laufenden....Und AVID leider auch nicht...Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 12:01 Das ist wirklich nicht gut, da die nächsten Sony Codecs wahrscheinlich 10 Bit 422 hevc sein werden. Kann es an der Davinci Resolve Version liegen? Studio oder Free? Da gibt es Einschränkungen was die Beschleunigung angeht. Habt ihr auch schon einmal in Avid getestet? Da würde mich die Leistung auch sehr interessieren.
Un noch ein Nachtrag: HEVC 10bit 422 kann Intel auch erst mit den neuesten IceLakes...rudi hat geschrieben: ↑Sa 19 Okt, 2019 12:10Ne ist wirklich die Nvidia Hardware. Kann man auch in einigen Developer Foren nachlesen. Unter Resolve kann aber auch die Intel CPU einspringen (wenn sie es unterstützt). Wie es aktuell mit AMD aussieht, bin ich selbst nicht auf dem laufenden....Und AVID leider auch nicht...Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 12:01 Das ist wirklich nicht gut, da die nächsten Sony Codecs wahrscheinlich 10 Bit 422 hevc sein werden. Kann es an der Davinci Resolve Version liegen? Studio oder Free? Da gibt es Einschränkungen was die Beschleunigung angeht. Habt ihr auch schon einmal in Avid getestet? Da würde mich die Leistung auch sehr interessieren.
Letztlich bleibt es Trial and Error. Ein Programm kann zum Decodieren ja auch einen Mix aus CPU und GPU nutzen oder sogar einen Mix aus GPU-Hardware- und Shader-Code. Es kommt aktuell wirklich auf die Software an, was sie aus der gegebenen Kombination aus CPU und GPU rausholen kann. Solange es nur einem Stream in der Timeline geht, ist das alles bei aktuellen Rechnern meist kein Problem. Erst wenn man Multistream-Projekte hat, macht es IMHO Sinn sich die Kombination für die eingesetzten Codecs zu optimieren...
Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 19:32 Das verstehe ich auch nicht
422 mit 25 FPS lastet die CPU nur halb so stark aus wie 420 mit 60 FPS. Wird also doch beschleunigt?
4K H.265. 10 Bit 4:2:2 25fps
13%
42%
4K H.265 10 Bit 4:2:0 60fps
27%
47%
dienstag_01 hat geschrieben: ↑Mo 21 Okt, 2019 09:28Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.Kamerafreund hat geschrieben: ↑Sa 19 Okt, 2019 19:32 Das verstehe ich auch nicht
422 mit 25 FPS lastet die CPU nur halb so stark aus wie 420 mit 60 FPS. Wird also doch beschleunigt?
4K H.265. 10 Bit 4:2:2 25fps
13%
42%
4K H.265 10 Bit 4:2:0 60fps
27%
47%
Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)Kamerafreund hat geschrieben: ↑Mo 21 Okt, 2019 12:15 Kann ich leider nicht, weil das die Testergebnisse von Slashcam sind..
dienstag_01 hat geschrieben: ↑Mo 21 Okt, 2019 09:28
Schalte doch einfach mal die GPU Nutzung ab, dann siehst du, was Sache ist.
dienstag_01 hat geschrieben: ↑Mo 21 Okt, 2019 12:39Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)Kamerafreund hat geschrieben: ↑Mo 21 Okt, 2019 12:15 Kann ich leider nicht, weil das die Testergebnisse von Slashcam sind..
Stimmt, vielleicht wurde parallel noch ne Primzahl berechnet ;)Kamerafreund hat geschrieben: ↑Mo 21 Okt, 2019 16:50 Hmm. könnte sein, aber da es ja keine Icelake Intel ist, würde Quicksync ja auch nicht anspringen.
Ganz ohne Beschleunigung sind die Ergebnisse ja ziemlich gut..
dienstag_01 hat geschrieben: ↑Mo 21 Okt, 2019 12:39
Vielleicht haben sie beim Test die Intel GPU genutzt und nicht gemerkt ;)