schneidest du 422 10bit? Wobei es natürlich stark auf den jeweiligen codec angeht.
Das ist gewiss ein wichtiger Punkt, jupp!Jost hat geschrieben: ↑Mo 17 Apr, 2023 08:23 Wenn man weiß, dass eine RTX A5000 laut Nvidia bis zu 230W zieht und das Laptop zum Beispiel ein 250W-Netzteil hat, kann man sich vorstellen, dass es irgendwo Leistungseinbußen geben muss. Display und CPU wollen schließlich auch versorgt werden.
Geizhals reicht als Orientierung nicht. Nur weil zwei identische GPUs verbaut sind, heißt das längst nicht, dass deren Leistung auch identisch ist.
Das Problem ist nicht die Perfomance. Da kann man die MACs sehr gut toppen. Es ist die Lautstärke. Um die mache ich mir sorgen.
Nachteile für MAC könnte ich endlos aufzählen. Ich mag diesen Hype und diese Philosophie schon seit mehr oder weniger Angbeginn nicht. Das Ding ist aus meiner Sicht eine einzige Frechheit. Die Lage änderte sich für mich wirklich ausschließlich mit M1 und M2 = Power + kaum Hitze = fast geräuschlose Arbeit. Das ist für mich auch der einzige Punkt für die MACs. Alles andere halte ich weiterhin für Hype und zähle es zu Apple-Religion.wolfgang hat geschrieben: ↑Mo 17 Apr, 2023 09:59 Für mich ist diese ewigwährende Glaubensdiskussion zwischen Mac und Win ohnedies schwer greifbar. Beide Systeme haben wohl Vor- und Nachteile. Für mich wäre etwa ein Nachteil beim Mac, das einiges meiner Software darauf nicht läuft. Und ich mich halt mit Win viel besser auskenne, all meine Systeme Windows Systeme sind. Womit ich die Möglichkeit offen lasse, dass ein Mac durchaus klasse sein kann.
422 10bit sollte die GPU nicht groß belasten, läuft über einen Hardwaredecoder unter Quicksync.smashcam hat geschrieben: ↑Mo 17 Apr, 2023 10:51schneidest du 422 10bit? Wobei es natürlich stark auf den jeweiligen codec angeht.
Aber ein leichtes Rauschen hast du bestimmt auch schon beim Schneiden oder? Wenn Effekte, rauschunterdrückung etc. dazu kommen, lässt sich das hochdrehen vermutlich nicht vermeiden.
beim Rendern wäre mir das egal, da kann man das Ding in den Keller stellen :D
Stimmt, und zumindest mein ASUS hat eine i-GPU, die ich auch aktiviere (bei mir in Resolve und Vegas).dienstag_01 hat geschrieben: ↑Mo 17 Apr, 2023 11:20 422 10bit sollte die GPU nicht groß belasten, läuft über einen Hardwaredecoder unter Quicksync.
Davinci Resolvewolfgang hat geschrieben: ↑Mo 17 Apr, 2023 11:27Stimmt, und zumindest mein ASUS hat eine i-GPU, die ich auch aktiviere (bei mir in Resolve und Vegas).dienstag_01 hat geschrieben: ↑Mo 17 Apr, 2023 11:20 422 10bit sollte die GPU nicht groß belasten, läuft über einen Hardwaredecoder unter Quicksync.
Man sollte aber noch die Frage stellen, mit welcher Software smashcam arbeiten will?
Ich kann es mir nochmals ein wenig ansehen, und bewusster hinhören.
Nö, man braucht bloß die entsprechenden Hardwaredecoder, und für HEVC 10bit in 422 gibt es die nur in der Intel GPU (seit der 10. Generation), nicht auf den Nvidia Karten (AMD glaube, auch nicht).
hmm... wenns geht XAVC-S 4K / 60p / 422 10bitwolfgang hat geschrieben: ↑Mo 17 Apr, 2023 11:32Ich kann es mir nochmals ein wenig ansehen, und bewusster hinhören.
Welche Footage ist von Interesse?
Als 10bit 422 kann ich gerne UHD 10bit 422 25p nehmen, long-GOP wenn es recht ist. Oder auch FS7 XAVC-i UHD 50p footage? Oder willst lieber 6K BRAW 50p haben?
Und die reine footage, oder ein wenig Farbveränderungen drauf legen?
ah, d.h. der codec von A7iv frisst eher bei der CPU?dienstag_01 hat geschrieben: ↑Mo 17 Apr, 2023 11:36 Nö, man braucht bloß die entsprechenden Hardwaredecoder, und für HEVC 10bit in 422 gibt es die nur in der Intel GPU (seit der 10. Generation), nicht auf den Nvidia Karten (AMD glaube, auch nicht).
Jeder Codec, der nicht hardwareunterstützt läuft (und damit ist ein extra Decoder gemeint, nicht die ganzen Cuda Cores etc.), wird ausschließlich auf der CPU dekodiert.smashcam hat geschrieben: ↑Mo 17 Apr, 2023 11:52ah, d.h. der codec von A7iv frisst eher bei der CPU?dienstag_01 hat geschrieben: ↑Mo 17 Apr, 2023 11:36 Nö, man braucht bloß die entsprechenden Hardwaredecoder, und für HEVC 10bit in 422 gibt es die nur in der Intel GPU (seit der 10. Generation), nicht auf den Nvidia Karten (AMD glaube, auch nicht).
XAVC-S 60p habe ich leider nicht verfügbar.
kein Ding, man kann nicht alles haben :D
Super! Danke!
XAVC-I ist aber einzelbildkodiert und braucht prinzipiell weniger Rechenpower als die LongGOP-Formate.smashcam hat geschrieben: ↑Mo 17 Apr, 2023 13:39Super! Danke!
Und wenn Du NR ausmachst, verändert sich das Verhalten stark oder eher mäßig?
Es ist natürlich auch die Frage wie es sich mit der 4070 verhält, was wohl die höchste GPU für dieses Laptop ist.
Aber ich vermute, es wird ähnlich sein. Wobei der Fertigungsprozess auf 4nm glaub baut statt 8nm. Könnte also etwas kühler sein.
Leider findet man so unglaublich wenig Infos zu Lautstärke der Laptops und wenn nur nebenbei. Den meisten ist es wohl nicht so wichtig.
Insofern stark, als die Sache dann mal problemlos mit 50p durchläuft.
Eigentlich findet man doch in fast jedem Laptop-Test auch Infos zur Lautstärke.smashcam hat geschrieben: ↑Mo 17 Apr, 2023 13:39Super! Danke!
Und wenn Du NR ausmachst, verändert sich das Verhalten stark oder eher mäßig?
Es ist natürlich auch die Frage wie es sich mit der 4070 verhält, was wohl die höchste GPU für dieses Laptop ist.
Aber ich vermute, es wird ähnlich sein. Wobei der Fertigungsprozess auf 4nm glaub baut statt 8nm. Könnte also etwas kühler sein.
Leider findet man so unglaublich wenig Infos zu Lautstärke der Laptops und wenn nur nebenbei. Den meisten ist es wohl nicht so wichtig.
Das stimmt natürlich, wobei gerade auf dieser Maschine mit der recht guten Kombination der i-GPU und der RTX 3070 Ti (aber vor allem der i-GPU) die Dekodierung der long-GOP Struktur gut läuft.dienstag_01 hat geschrieben: ↑Mo 17 Apr, 2023 13:51
XAVC-I ist aber einzelbildkodiert und braucht prinzipiell weniger Rechenpower als die LongGOP-Formate.
Ist nicht der sinnvollste Test.
Danke! Das ist schon mal ein Ansatzpunkt für die Entscheidung... und ich befürchte, ich werde mich mit MAC anfreunden müssen. Bei gleichem Preis muss ich wohl die Apple-Philosophie schlucken.wolfgang hat geschrieben: ↑Mo 17 Apr, 2023 13:55 Insofern stark, als die Sache dann mal problemlos mit 50p durchläuft.
Die Kiste bleibt auch erkennbar kühler, etwa bei 70-75 Grad. Und im Standardmodus läuft er auch beim Dauerabspielen nicht völlig lautlos, aber doch geräuscharmer als mit der noise reduction.
Die GPU Last ist ohne NR natürlich deutlich geringer (i-GPU um die 50%, RTX 3070 Ti um die 25%), die CPU ist kaum verändert bei 25%.
Also ja, das ist doch deutlich leiser.
Das Umschalten auf den Leistungsmodus macht die Sache wieder lauter, aber die Temperatur sinkt halt auf unter 70 Grad (ca. 68 Grad). Geht also noch locker im Standardmodus.
ja, das ist richtig. Diese sind aber für eine Entscheidungsfindung sehr oberflächlich.
Im Laptop ist keine Desktop-Variante verbaut... die RTX A5000 Ada Laptop hat eine TGP (Total Graphics Power) von 80 - 175 Watt... für andere GPUs gilt das Selbe.
Daher muss man auch auf die CPU und GPU TDP achten.
Das ist ein Missverständnis: Es gibt genug standardisierte Tests. Niemand muss Mac und Windows kaufen, um zu vergleichen.
290 Watt... aber nur die Desktop-Variante, die in Notebooks verbaute 3070 Ti Mobile hat nur 80 bis 125 Watt TGP...
Also die mobile Variante der 3070 Ti kann gar keine 270 W aufnehmen, wenn etwa mein Netzgerät für den ganzen Laptop nur 240 W stark ist. Die Angaben stimmen sicher für die Desktopvariante, aber ganz offensichtlich nicht für die mobile Variante.Jost hat geschrieben: ↑Mo 17 Apr, 2023 23:06 Aber Fakt ist nun mal: Wenn oben von einer 3070Ti die Rede ist - die nimmt laut Nvidia 270W. Als Netzteil wird 750W empfohlen, um den PC ausfahren zu können. Und da ist noch kein Display dabei.
Wenn es um 3K€ geht, dann sollte man genau wissen: Was bekomme ich für mein Geld?
Das fängt schon damit an dass TDP und TGP für CPU und GPU bei den Mobilvarianten vom Hersteller auf verschiedenen Stufen fest konfiguriert werden, je nachdem wie gut er in der Lage ist die Kühlung zu gestalten... soll heißen er kann z.B. die 3070 Ti fest auf 80 Watt limitieren, das erkennt man als Endanwender gegebenenfalls vor dem Kauf gar nicht und ist natürlich deutlich langsamer als eine die auf 125 Watt konfiguriert ist, bei den CPUs das Selbe.
Und den Herstellern wie Nvidia ist das egal? Intel?MK hat geschrieben: ↑Di 18 Apr, 2023 08:47Das fängt schon damit an dass TDP und TGP für CPU und GPU bei den Mobilvarianten vom Hersteller auf verschiedenen Stufen fest konfiguriert werden, je nachdem wie gut er in der Lage ist die Kühlung zu gestalten... soll heißen er kann z.B. die 3070 Ti fest auf 80 Watt limitieren, das erkennt man als Endanwender gegebenenfalls vor dem Kauf gar nicht und ist natürlich deutlich langsamer als eine die auf 125 Watt konfiguriert ist, bei den CPUs das Selbe.
Daher sind Laptops mit selber Ausstattung leider leistungstechnisch gar nicht miteinander vergleichbar.
Das ist bei den Mobilchips so vorgesehen.dienstag_01 hat geschrieben: ↑Di 18 Apr, 2023 08:53 Und den Herstellern wie Nvidia ist das egal? Intel?
Aber doch wahrscheinlich innerhalb eines *genehmigten* Korridors?MK hat geschrieben: ↑Di 18 Apr, 2023 08:57Das ist bei den Mobilchips so vorgesehen.dienstag_01 hat geschrieben: ↑Di 18 Apr, 2023 08:53 Und den Herstellern wie Nvidia ist das egal? Intel?
Die konfigurierbaren Stufen sind festgelegt, wenn der Laptop-Hersteller die von ihm verwendeten Power Limits nicht offenlegt kann man das vor dem Kauf nur durch Testberichte mit Benchmarks und ausgelesenen Power Limits feststellen...dienstag_01 hat geschrieben: ↑Di 18 Apr, 2023 08:59 Aber doch wahrscheinlich innerhalb eines *genehmigten* Korridors?