Zu der Zeit, in der ich Linux verwendet habe (Ende 90er/Anfang 00er Jahre) gab es gravierende Defizite wie stabile, performante Grafikkartentreiber, Codecunterstützung usw.; auf NTFS konnte damals auch noch nicht geschrieben werden, Lightworks gab es afaik nicht für Linux und war damals auch nicht an dem Stand von heute, Blender das gleiche - das war damals noch sehr sperrig.
Die größte Sicherheitslücke sitzt vor dem Computer.didah hat geschrieben: ↑Do 30 Mai, 2019 12:42https://derstandard.at/2000103122472/Gr ... rozessoren
darum
weil auch wenn gepatched wird ists mitlerweile schon fast normal, da in regelmäßigen abständen solche news zu lesen zu kriegen. amd ist ddavonn weitgehend verschont - hat aber auch vermutlich mit der verbreitungsrate zu tun ;)
Und da frage ich mich, wie groß der Unterschied beim Arbeiten (vs. Rendern) ausschaut, wo ja weniger zig Kerne, sondern eher Pro-Kern Leistung zählt, zumindest beim Großteil der Software. Und mit dem i9 9900ks soll ja 5GHz auf allen Kernen möglich sein...ob es den Mehrpreis wert ist hängt dann logischerweise auch vom Anwendungsfall ab.
Warum sollte z.B. Resolve beim Arbeiten nicht alle Kerne nutzen?markusG hat geschrieben: ↑Do 30 Mai, 2019 15:31
Und da frage ich mich, wie groß der Unterschied beim Arbeiten (vs. Rendern) ausschaut, wo ja weniger zig Kerne, sondern eher Pro-Kern Leistung zählt, zumindest beim Großteil der Software. Und mit dem i9 9900ks soll ja 5GHz auf allen Kernen möglich sein...ob es den Mehrpreis wert ist hängt dann logischerweise auch vom Anwendungsfall ab.
Weil bestimmte Nodes, Effekte usw. nicht für Multicore optimiert sind und dann nur auf einem einzelnen Core laufen. V.a.D. in der Adobe-Welt...und wie gesagt: ich beziehe mich rein auf das Arbeiten, nicht auf das rausrendern ;)
und was wenn es mehr ist? also 30%? Wo ist die Grenze? ;) ausserdem gibt es für den KS noch keinen Preis. Wenn der Preis identisch ist...was dann? Deswegen finde ich es essentiell, dass eine mögichst hohe Bandbreite an Programmen getestet werden, únd nicht v.a.D. wie in dem Bereich der CPU-Reihen (Consumer) haupstsächlich Spielperformance :P
Ich würde das nur machen, wenn Du unter Linux spezifische Software nutzen willst, die unter Windows nicht oder schlechter läuft (wie in meinem Fall z.B. die klassischen unixoiden Kommandozeilen-Werkzeuge) oder wenn Du eine maßgeschneiderte Spezialinstallation à la Raspberry Pi brauchst.
Oder aus idiologischen Gründen. Der Fall Huawei hat ja gezeigt, was Abhängikeiten auslösen können. Und der Fall Final Cut 7 im Falle unfreier Software.
Naja mit dem Ende des Win7-Supports gilt der Grundsatz dann eben nicht mehr, da es dann ins Geld geht und afaik auch gar nicht für alle zugänglich ist. Und bei mir privat stellt sich dann die Frage Win10 "business as usual" oder Linux? Der Supportstopp ist dann ja wie bei FC7 ein gravierendes Problem unfreier, closed Source Software. Bei Open Source bzw. freier Software gibt es im Zweifel ja noch die Hoffnung auf eine mögliche Weiterentwicklung durch ein neues Team, oder Forks usw.cantsin hat geschrieben:Ansonsten sind Betriebssysteme heute wie Automotoren, ziemlich funktionsähnlich und weitgehend austauschbar. Und der Grundsatz "never change a running system" gilt sowieso.
Der Single-Thread-Unterschied soll etwa 1% auf den i9 9900K betragen. Der hat 8 Kerne und kostet 500€.markusG hat geschrieben: ↑Do 30 Mai, 2019 15:54und was wenn es mehr ist? also 30%? Wo ist die Grenze? ;) ausserdem gibt es für den KS noch keinen Preis. Wenn der Preis identisch ist...was dann? Deswegen finde ich es essentiell, dass eine mögichst hohe Bandbreite an Programmen getestet werden, únd nicht v.a.D. wie in dem Bereich der CPU-Reihen (Consumer) haupstsächlich Spielperformance :P
ja - macht doch einen neuen T. auf.
Ist ein Grund des Nachdenkens, auch von Win ähnlichen Vorgehensweisen unabhängig zu werden.Die Problematik wird auch durch den Schnitt von Adobe, alte CC Versionen rauszuschmeissen, ziemlich prominent.
Nö, solange ich quasi täglich solche Meldungen lesen muß:markusG hat geschrieben: ↑Do 30 Mai, 2019 14:20Das scheint sich ja nun zu ändern:Frank Glencairn hat geschrieben: ↑Do 30 Mai, 2019 07:08 Win 10 ist aus verschiedenen Gründen sowieso nicht PrimeTime fähig
https://www.provideocoalition.com/windo ... cal-tasks/
20.05.Fehler 0x80070002: Windows 10 Version 1903 kommt mit kaputter Sandbox
19.05. Das Update KB4494441 für Windows 10 V1809 installiert sich auf manchen Systemen gleich mehrfach. Zudem gibt es Berichte, dass der Update Agent beschädigt wird.
24.04. Windows 10 Version 1903
Windows Insider rätselten über eine Fehlermeldung bei der Installation des Windows 10 Mai 2019 Updates.
11.02. Ursachenforschung zu Microsofts Problem-Patches
Wie kommt es zu schädlichen Bananen-Patches für Windows? Was genau macht Microsofts Qualitätssicherung eigentlich? Und warum reicht das nicht?
5.02.Windows 10: Kampf der Update-Misere
Etliche Updates aus jüngster Vergangenheit schaden Windows mehr, als dass sie nützen. c't gibt Tipps, wie Sie sich gegen die unreifen Patches wehren.
18.01. Januar-2019-Updates verursachen Netzwerkproblem in Windows 10
08.12. Wegen mehrerer Fehler will Microsoft das Update KB4467682 für Windows 10 Version 1803 nicht mehr ausliefern.
07.10.Windows 10 Version 1809: Datenverlust-Probleme waren bekannt
Also gerade bei einem Laptop stelle ich mir das extrem schwierig vor, da mußt du schon einen kaufen, der den Mindestanforderungen von Resolve genügt, und ne Hardware hat, die sich dann auch mit der CentOS Version von BM verträgt.
Nun, diese Nodes, Effekt usw. werden die nicht auf der Grafikkarte gerechnet? Stichwort CUDA ...
Noch wichtiger ist, dass die "Software deiner Wahl" gebencht wird.markusG hat geschrieben: ↑Do 30 Mai, 2019 15:54und was wenn es mehr ist? also 30%? Wo ist die Grenze? ;) ausserdem gibt es für den KS noch keinen Preis. Wenn der Preis identisch ist...was dann? Deswegen finde ich es essentiell, dass eine mögichst hohe Bandbreite an Programmen getestet werden, únd nicht v.a.D. wie in dem Bereich der CPU-Reihen (Consumer) haupstsächlich Spielperformance :P
Ist das der Fall? Ich habe von DaVinci keine Ahnung, deswegen habe ich es als Frage formuliert :)derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31 Nun, diese Nodes, Effekt usw. werden die nicht auf der Grafikkarte gerechnet? Stichwort CUDA ...
z.B. After Effects...wobei es zugegebenermaßen mit jeder Version wieder besser wird. Aber es ist weder billig noch veraltet...derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31Nenn mir mal einen Fall (in moderner Software) der nur auf einen Core beschränkt läuft?
Ich glaube nicht, dass das es sich heute noch ein Softwarehersteller leisten kann Nodes, Effekte usw. nur auf einen Core zu beschränken, es sei denn in veralteter Software oder einem Billigprogramm.
Danke für den Tipp :) hab da ne Weile nicht mehr reingeschaut, mein nächstes Update steht erst frühestens des Jahres an - mal schauen was sich bis dahin alles getan hat (auch preislich).derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31 , beim Aufrüsten meines PCs die Testreihen der pudgetsystems sehr aufschlussreich:
https://www.pugetsystems.com/recommende ... mendations
Ich bin da Hersteller-agnostisch und befürworte eigentlich lieber offene Standards...leider ist das nicht immer so einfach, weil viele Hersteller immer noch auf Nvidia bzw. Cuda beschränkt sind (Redshift & co). Wie gesagt bin ich gespannt, was sich bis Ende des Jahres noch bewegen wird...derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31Intel hat preislich viel Federn lassen müssen in den letzten Monaten. Denk mal drüber nach ... eigentlich müsstest Du den AMD-Käufern danken :-)
Ja!markusG hat geschrieben: ↑Sa 08 Jun, 2019 12:12Ist das der Fall? Ich habe von DaVinci keine Ahnung, deswegen habe ich es als Frage formuliert :)derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31 Nun, diese Nodes, Effekt usw. werden die nicht auf der Grafikkarte gerechnet? Stichwort CUDA ...
z.B. After Effects...wobei es zugegebenermaßen mit jeder Version wieder besser wird. Aber es ist weder billig noch veraltet...[/quote]derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31Nenn mir mal einen Fall (in moderner Software) der nur auf einen Core beschränkt läuft?
Ich glaube nicht, dass das es sich heute noch ein Softwarehersteller leisten kann Nodes, Effekte usw. nur auf einen Core zu beschränken, es sei denn in veralteter Software oder einem Billigprogramm.
Eine Software, die nur auf einem Core rechnet und die anderen Cores sowie die GPU ungenutzt lässt. Und so etwas nennst du nicht veraltet?derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 13:19
z.B. After Effects...wobei es zugegebenermaßen mit jeder Version wieder besser wird. Aber es ist weder billig noch veraltet...derderimmermuedeist hat geschrieben: ↑Sa 08 Jun, 2019 10:31Nenn mir mal einen Fall (in moderner Software) der nur auf einen Core beschränkt läuft?
Ich glaube nicht, dass das es sich heute noch ein Softwarehersteller leisten kann Nodes, Effekte usw. nur auf einen Core zu beschränken, es sei denn in veralteter Software oder einem Billigprogramm.
Und was sagt uns das jetzt?
Ansichtssache...man könnte ja meinen, dass inzwischen die Entwickler mit Kusshand alle Möglichkeiten ausschöpfen, um sich Marktvorteile zu verschaffen.
Ich weiß nicht was der agressive Ton hier soll >:(
Es gibt also noch genug Fälle, wo Single-Core Performance wichtiger ist als die Anzahl der Kerne, darum geht's. Und da ist die Frage wie die kommenden Ryzens sich ggü. den Intel Prosumer CPUs schlagen. Dass man bei AMD sehr günstig viele CPU-Kerne erhält sollte ja nun keine Frage mehr sein...habe aber neulich gelesen, dass die ersten Ryzens noch nicht ihr Potential ausschöpfen konnten, da die Softwarehersteller mit ihren Optimierungen erstmal nachziehen mussten. Kann es als Laie schwer einschätzen wie es sich mit der kommenden Ryzen-Generation verhält, oder ob es sich lohnt einfach zu warten...In a Computer for Animation, we will want a CPU with extremely fast Cores, as the tasks we are dealing with the most, are tasks that can only be calculated by one Core at a time.