Hi,dienstag_01 hat geschrieben: ↑Fr 16 Mai, 2025 18:27 Schaust du dir auch die einzelnen Kerne der CPU an oder nur die Gesamtleistung?
Das mit dem RAM hatte ich überlesen 🙈 sorry :(Onkel Danny hat geschrieben: ↑Mo 19 Mai, 2025 12:45 Hi Martin,
also du hast dir deine Antwort, absolut vorbildlich übrigens, schon selbst gegeben.
Du hast das typische Problem, das Long-GOP in 422/10bit ruckelt.
Das heist konkret das decodieren läuft komplett über die CPU, weil deine GPU es nicht kann.
Zur Erinnerung, decodieren heist darstellen, während encodieren das neue rendern bedeutet.
Deine Datenträger spielen dabei keine Rolle.
Deine RAM-Auslastung liegt bei höstens 50% und somit ist eine Erhöhung völlig sinnlos, sorry JT.
Eine neue CPU inklusive passender integrieter GPU, die dann das decodieren übernimmt, benötigt noch ein
neues Board und eventuell auch neuen RAM. Das wird recht kostspielig.
Eine neue GPU, genau wie von die erdacht, macht am meisten Sinn! Auch deine Wahl ist sehr gut, denn die Intel GPU kann
alles decodieren und encodieren und wird deine Probleme sofort beheben.
Mein Tipp:
-Kaufe die besagte Intel GPU, gibt es ab 270€ neu, vielleicht ein bischen auf Lautstärke achten(Kühlsystem/Lüfter).
-Lade dir die neuesten Treiber und das Tool Display Driver Uninstaller (DDU) runter, entpacke DDU.
-Ziehe das LAN-Kabel oder deaktiviere WLAN, damit keine neuen Treiber runtergeladen/installiert wird.
-Deinstalliere den Nvidia Treiber, starte danach im abgesicherten Modus neu.
-Lasse dann DDU den Rest vom Nvidia Treiber deinstallieren.
-Starte erneut und installieren den Intel Treiber, die Graka muss natürlich schon verbaut sein.
-Wenn alles getan ist, überprüfe in Resolve ob deine neue Graka auch für alles genutzt wird.
Viel Spaß beim ruckelfreien schneiden ;)
https://www.intel.com/content/www/us/en ... phics.htmlGaToR-BN hat geschrieben: ↑Mo 19 Mai, 2025 14:20 Danke für die verschiedenen Antworten.
Ich denke, es wird bei mir vorerst die neue GPU werden und dann sehe ich weiter, was als CPUs und Boards neu rauskommt.
Was mich wundert ist, dass laut Tabelle H264 nur in 8 Bit 4.2.0 dekodiert wird. (Im Video 2:40) oder ist das zu langweilig das vollständig anzugeben.
Danke. Immer wenn man denke, man hat eine gute Entscheidungsbasis gefunden, wird es komplexer:CotORR hat geschrieben: ↑Mo 19 Mai, 2025 14:26 https://www.intel.com/content/www/us/en ... phics.html
nope, stimmt wohl.
Wahrscheinlich macht es für dich dann in Zukunft Sinn H265 zu verwenden.
Werde ich mal Testen, wie das H265 Format mit 4.2.0 und 10 Bit aussieht. Das würde ja ne Menge Daten sparen.dienstag_01 hat geschrieben: ↑Mo 19 Mai, 2025 15:17 Ich würde mal behaupten, 420 statt 422 zu verwenden macht genau 0 Unterschied (422 ist m.W. ursprünglich für interlaced entwickelt worden).
Habe ich auch gedacht. Tatsächlich habe ich dann recherchiert, dass Farbunterabtastung im Interlaced-Verfahren früher noch wichtiger war, weil die Zeilen ja versetzt gespeichert wurden.Onkel Danny hat geschrieben: ↑Mo 19 Mai, 2025 16:57 Die Farbunterabtastung hat natürlich nichts mit Interlace zutun.
Wird sicher funktieren!GaToR-BN hat geschrieben: ↑Mo 19 Mai, 2025 18:06 Nach weiteren Recherchen scheint meine CPU AMD Ryzen 2700+ ger nicht mit der B580 zu laufen.
https://www.intel.com/content/www/us/en ... amily.html
Warum kann es nicht einfach mal einfach sein.... Naja - Dann vielleicht dann noch mit der CPU & Board starten.
denk dran die CPU mit "K" am Ende zu holen. Nicht "KF"GaToR-BN hat geschrieben: ↑Mo 19 Mai, 2025 18:06 Nach weiteren Recherchen scheint meine CPU AMD Ryzen 2700+ ger nicht mit der B580 zu laufen.
https://www.intel.com/content/www/us/en ... amily.html
Warum kann es nicht einfach mal einfach sein.... Naja - Dann vielleicht dann noch mit der CPU & Board starten.
Die Bastelei würde ich mir sparen und direkt ein neues Board mit CPU kaufen. Auf PC-Basis sind die neuen NVidia Karten (5000er) die einzigen, die das maximale H264 4:2:2 10 Bit Material der Lumix Kameras per Hardware unterstützen. Ich hab selbst Intel Arc (A770) und kann bestätigen das das Decoding bei dem Material über die CPU läuft. Die neuere Intel B580 hat die gleichen Encoder wie die erste Generation. Ich würde auch nicht empfehlen eine aktuelle GPU von Intel auf ein altes AMD Mainboard zu stecken. Das wird bestimmt irgendwo Probleme geben.Onkel Danny hat geschrieben: ↑Mo 19 Mai, 2025 18:21Wird sicher funktieren!GaToR-BN hat geschrieben: ↑Mo 19 Mai, 2025 18:06 Nach weiteren Recherchen scheint meine CPU AMD Ryzen 2700+ ger nicht mit der B580 zu laufen.
https://www.intel.com/content/www/us/en ... amily.html
Warum kann es nicht einfach mal einfach sein.... Naja - Dann vielleicht dann noch mit der CPU & Board starten.
Einfach vorher auf das neueste BIOS updaten, noch mit der NVidia.
Danach umbauen, wie angegeben.
Zurückschicken kann man immer.
Und ich bezweifle stark, das es jemand Mal eben schnell für dich testen wird.
Oder du noch signifikant mehr Infos hier im Board dazu erfahren wirst.
Einfach machen und berichten. ;)
Top, das ist nachhaltig :-)GaToR-BN hat geschrieben: ↑Di 20 Mai, 2025 12:27 Noch mal vielen Dank für die Hinweise.
Ich gebe meinem Rechner / Board noch mal eine Chance und nutze das Upgrade von 2700X auf 5800X, um die Limits der CPU zu beheben und setze gleichzeitig die Intel B580 ein.
Das kostet mich mit den Verkauf der alten Teile plus 250 Eur und sollte für 4K und die nächsten Jahre reichen.
Beim ganz neuen Rechner (1000 plus X für Board/CPU/CPU/Speicher evtl. Netzteil) würde ich sehr gerne auch den Stromverbrauch auf Apple-Niveau senken können.
ich glaube dann würde ich eher an deiner Stelle nen Mac direkt holen....das sag ich als PC User und Apple Hater.GaToR-BN hat geschrieben: ↑Di 20 Mai, 2025 12:27 Noch mal vielen Dank für die Hinweise.
Ich gebe meinem Rechner / Board noch mal eine Chance und nutze das Upgrade von 2700X auf 5800X, um die Limits der CPU zu beheben und setze gleichzeitig die Intel B580 ein.
Das kostet mich mit den Verkauf der alten Teile plus 250 Eur und sollte für 4K und die nächsten Jahre reichen.
Beim ganz neuen Rechner (1000 plus X für Board/CPU/CPU/Speicher evtl. Netzteil) würde ich sehr gerne auch den Stromverbrauch auf Apple-Niveau senken können.