Und das hier ist in Wirklichkeit dein Link:
das hingegen ist meiner:
Siehe Eingangsfrage des OT:
nachdem ich vermehrt auf Performance-Einbrüche (Zusammenspiel aktuelle Programmversion Premiere + VLOG aus der S5II + i7 + GTX1070) stoße,
Und das hier ist in Wirklichkeit dein Link:
Siehe Eingangsfrage des OT:
nachdem ich vermehrt auf Performance-Einbrüche (Zusammenspiel aktuelle Programmversion Premiere + VLOG aus der S5II + i7 + GTX1070) stoße,
Gehen tut das unter Windows auch, du Experte. Nur eben anders.
Bissl spät zur Party mit der Häme?
dienstag_01 hat geschrieben: ↑Fr 29 Dez, 2023 19:44
Zumindest finde ich es schon besonders, dass die auf Slashcam am meisten gehypte Kamera so eine eigenwillige Codecausstattung bekommen hat und das noch niemandem aufgefallen zu sein scheint ;)
Alles klar, damit bist du entschuldigt ;)Bildlauf hat geschrieben: ↑Fr 29 Dez, 2023 21:07dienstag_01 hat geschrieben: ↑Fr 29 Dez, 2023 19:44
Zumindest finde ich es schon besonders, dass die auf Slashcam am meisten gehypte Kamera so eine eigenwillige Codecausstattung bekommen hat und das noch niemandem aufgefallen zu sein scheint ;)
Als u.a. S5II Nutzer kann dazu nichts weiter sagen, da es scheinbar windows betrifft, und mich da gar nicht auskenne, aber unter Mac kann ich sagen, daß es mit einem Mac Studio in Kombi mit Davinci KEINEN Codec gibt, der irgendwie nicht funzt aus der S5II und auch damals die S5. Alles flüssig, wie All intra, alles bestens.
Daher konnte einem da nichts auffallen, wenn man ein anderes Computersystem benutzt.....
Ok super ;-)
Zu Adobe Premiere kannst du nicht zufällig was sagen, oder? Denn der TO scheint sich ja dafür zu interessieren, nicht dür Davinci, wenn ich das richtig verstanden habe.
Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 20:38 Auch das hab ich schon ganz am Anfang als eine der Lösungen vorgeschlagen (kauf dir nen Mac).
Der TO schreibt ja was von einem Intel der 6. Generation, dass dürfte ein 4-Kerner sein. Da könnte es schon knapp werden.cantsin hat geschrieben: ↑Fr 29 Dez, 2023 22:43 Ich hatte selbst nie Probleme mit dem 10bit 4:2:2 h264 LongGOP-Material aus der S5 und S5ii (sowie der S1H) in Resolve Studio (Linux und Windows) und habe jetzt deshalb mal die CPU-Belastung beim Abspielen in der Timeline getestet.
Bei meinem Ryzen 9 3900x komme ich beim Abspielen eines [extra super-wacklig gedrehten einminütigen Codec-Stress-Reisschwenk-] DCI 4K-Testclips mit aktiver Gamma/Farbraum-Transformation von VLog+VGamut nach Rec709 in einer 4K DCI-Timeline, ohne Proxies oder reduzierte Abspielauflösung, auf knapp über 4 vollausgelastete logische Kerne. Da die gesamte CPU damit zu einem Drittel ausgelastet ist, war das bisher nicht weiter tragisch bzw. negativ auffällig...
Nimm was mit Quicksync. Anderenfalls investierst Du und hast keine H.265 4:2:2 Hardwarebeschleunigung.blueplanet hat geschrieben: ↑Do 28 Dez, 2023 08:52 Moin zusammen,
nachdem ich vermehrt auf Performance-Einbrüche (Zusammenspiel aktuelle Programmversion Premiere + VLOG aus der S5II + i7 + GTX1070) stoße, wird nun nach 5 Jahren doch ein neuer Video-PC fällig.
Deshalb die Frage (wenn möglich mit fachkundiger Begründung):
Intel Core i9-10900X (3,7GHz, 10Kerne, Sockel Intel LGA 2066, ohne Grafik (!)) oder Intel Core i9-14900K (3,2 GHz, 24Kerne), Sockel 1700 mit Grafik (!) UHD770.
Alternativ würde es wohl auch der i9-13900KS (Vorgängermodell) tun.
Was mich etwas irritiert: weshalb wird (speziell für das Arbeiten in Premiere) überhaupt der Intel Core i9-10900X empfohlen?! Quick-Sync ist damit wohl nicht möglich (?) und das macht sich selbst mit einer HD530 Grafik (i7) bemerkbar.
Da hilft (bisher) auch keine dedizierte Grafikkarte. Wird Quick-Sync jetzt auch in Prozessoren ohne Grafikeinheit verbaut??
Apropo: die GraKa wird eine RX4070TI.
Also bitte keine keine Grundsatzdiskussionen in punkto Intel oder AMD, sondern Entscheidungshilfe zwischen beiden "Sockeln". ;)
Vielen Dank
LG
Jens
Aber du bist nicht wirklich irritiert?!
immer wieder alle die keinen Mac haben. Einmal Mac und es kommt keine Fragen mehr zu Hardwarebeschleunigung.
Es geht nicht um die wiederkehrende Frage, sondern die daraus entstehende immer wieder selbe Diskussion mit den selben Teilnehmern, so als gäbe es aus den vorherigen keinerlei Erkenntnisse, fast wie bei den Bundestagswahlen... :D
Das ist so nicht ganz richtig. Ich sehe jeden Tag allein in diversen FB/Redit Gruppen die Frage "Warum ruckelt XYZ auf meinem neuen Mac" und ähnliche Probleme.
Vielen Dank für den interessanten Tip. Der klingt wirklich Leistung und preislich hitverdächtig, zumal ich ein paar Komponenten (Tower, Netzteil, SSD's, Kartenleser etc.) aus dem "alten PC" mitnehmen könnte.
Billiger, nicht preiswerter. Jetzt sind dann bald alle Aspekte der immer wiederkehrenden Dauerdiskussion abgedeckt...blueplanet hat geschrieben: ↑Sa 30 Dez, 2023 17:37 Eine Arc A770 (wird nun komplett von Adobe unterstützt) scheint eine echte Alternative bis zur RTX4070TI zu sein, ist dabei um die Hälfte preiswerter.
Das stimmt. Aber aus Zeiten als z.B. DaVinci (FX/Plugins, oder sowas wie NR, SuperScale uvm.) nicht ganz für apple soc optimiert war (es sind immer noch nicht alle FX/Plugins optimiert). Auch Adobe ist nicht ganzt optimiert, läuft aber immer noch besser als davor auf x64.Frank Glencairn hat geschrieben: ↑Sa 30 Dez, 2023 14:45Das ist so nicht ganz richtig. Ich sehe jeden Tag allein in diversen FB/Redit Gruppen die Frage "Warum ruckelt XYZ auf meinem neuen Mac" und ähnliche Probleme.
Danke für den Hinweis!roki100 hat geschrieben: ↑Sa 30 Dez, 2023 19:00 @blueplanet
Intel Arc ist eigentlich eine gute Empfehlung, es verbraucht aber sehr viel strom, die Dinger werden zu heiß, es gibt auch unter Windows immer wiedermal Treiber Probleme (k.A. ob das mittlerweile anders ist) und wenn Du z.B. auch mit Blender etwas machst, wirst Du damit nicht zufrieden...
Selbst eine RTX 2060 ist insgesamt schneller als die Arc... hätte es Intel nicht geschafft über die Treiber die DirectX 12 Benchmarks etwas zu manipulieren läge sie noch weiter hinten... oder wie erklärt sich sonst die im Verhältnis miserable DirectX 9, 10, 11 Performance? GPU Compute im Vergleich auch ein Desaster...roki100 hat geschrieben: ↑Sa 30 Dez, 2023 19:00 Intel Arc ist eigentlich eine gute Empfehlung, es verbraucht aber sehr viel strom, die Dinger werden zu heiß, es gibt auch unter Windows immer wiedermal Treiber Probleme (k.A. ob das mittlerweile anders ist) und wenn Du z.B. auch mit Blender etwas machst, wirst Du damit nicht zufrieden...
High-End-Bereich? Hier gehts um Videobearbeitung ;)MK hat geschrieben: ↑Sa 30 Dez, 2023 20:32 Seit wann ist Wärmeentwicklung im Highendbereich ein Thema... Gen 13 ist älter und teurer, Gen 14 hat angeblich verbessertes Threading was für die Verwaltung von Performance und Efficency Cores vorteilhaft ist, da hat es bei Volllast auf allen Kernen bisher stellenweise noch geklemmt.
Natürlich frisst das Teil für das Gebotene zu viel Strom und wird im Verhältnis zu heiß, Gen 13 allerdings auch. AMD wurde als Auswahl ausgeschlossen. Warum des Kaisers alte Kleider kaufen. Von anderen Sachen wie Thunderbolt 5 und WI-FI 7 mal komplett abgesehen.
Ich würde mir ja auch niemals (mehr) die größte der möglichen CPUs kaufen. Ich habe die 13600, guck mal oben wo die beim Decoding steht, der Unterschied ist doch lächerlich. Und wozu sonst braucht man bei der Videobearbeitung die schnellste CPU, das macht ansonsten alles die GPU.