Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Infoseite // Heißer Herbst 2020 - Neue CPUs,GPUs und Apple Silicon für die Videobearbeitung



Newsmeldung von slashCAM:





Diesen Herbst gibt es erfrischend viel neue Hardware für Videobearbeiter. Wir wagen einen Ausblick...



Hier geht es zum slashCAM Artikel:
News: Heißer Herbst 2020 - Neue CPUs,GPUs und Apple Silicon für die Videobearbeitung


Space


Antwort von motiongroup:

Denn auch im KI-Bereich steht Apple ohne Nvidia noch auffallend nackt da... nicht wirklich und wenn dann nur deswegen weil Apples A13Bionic bspw. nur in Apples Blase verwendet wird..
Leistungssuche wird das bezüglich OSX on ARMbased so oder so nicht geben... IOS based on OSX based on Darwin und das ganze reotur gesehen wird es da recht wenig Unterschiede geben zwischen IOS und OSX. Alles was aktuell so zu lesen ist von den Entwicklerkids spricht so oder so für sich ... freu mich darauf zumal das Arbeiten auf dem IpadPro12,9 inkl Keyboard und Stift aktuell so klasse und schnell läuft, dass der Blick nach link zu MacOS nicht mehr notwendig ist und ein Kauf wieder in weite Ferne rückt..

Space


Antwort von Valentino:

Einen Satz über den neuen i9 mit 10 Kernen und dem PCIe 4.0 Support der neuen Z470 Boards wären schön gewesen. Wenn man bedenkt, das Intel in dem Consumer-Segment die Jahre zuvor immer nur 4 Kerner am Start hatte.

Apples ARM Ideen finde ich hingegen recht unspannend, da am Ende leider mal wieder die ganze Perpherie (HDD, SSDs) nur per USB/TB anzuschließen ist. Mir ist bewusst, das das eher an Apple selber liegt, aber die werden mit ARM noch weniger Erweiterungsoptionen haben wie aktuell.
Vielleicht gibt es dann auch Module mit dem man sich sein ARM Rechner zusammenbauen kann, bei der meist aber für x86 geschriebener AV-Software wird dieser Umzugsprozess noch 5-8 Jahren dauern. Im Schlimsten Fall geht Apple wieder zu x86 zurück oder kehrt dem Pro Markt komplet den Rücken.
Das in absehbarer Zeit Schnittplätze aus zwei iPad Pros zusammegestückelt werden halt ich für eher unwahrscheinlich. Hier ist schon das Setup 2x24" Monitore über einen echt guten Workstation Laptop+Dockingstation auf Dauer kein Schnittplatz an dem man täglich 8h arbeiten will. Hier ist die Workstation einfach schneller, leißer und deutlich einfacher aufzurüsten.

Deswegen investiere ich lieber alle vier bis 6 Jahren 500-800€ in ein neues Maindboard+CPU+GPU. Der Rest wie Gehäuse, Netzteil und CPU-Kühler hält meist locker 10-15 Jahre.
Wer schon nach 3 Jahren wechselt, bekommt für seine alte Hardware meist auch noch gutes Geld und da ist Intel und Nividia deutlich wertstabiler als AMD.
Das ist nach der Verarbeitungsqualität auch einer der Gründe warum ich mir keine AMD Hardware kaufen würde.

Space


Antwort von motiongroup:

Das ist nach der Verarbeitungsqualität auch einer der Gründe warum ich mir keine AMD Hardware kaufen würde. sehe überhaupt nicht so... wo wären denn da die Unterschiede?

zu der Apple ARM-initiative ist der Zug gerade wegen der Troubles mit Intel Cpu Linie abgefahren und wenn wie MS und Adobe aktuell auch alle anderen switchen, ist das Thema durch und Schnee von Gestern.. es wird einige Zeit dauern, aber es wird unumkehrbar sein für die nächsten Jahre..
Selbiges sehe ich auch für die Rosetta2 Eratzlösungen für den Übergang zur nativen Codebasis.
Spannend wird auch der Vergleich unter BigSure von nativen iOs Apps wie Affinity Photo oder Designer sein, wenn sie auf ARM oder Intel MACs laufen würden...
ich habs irgenwie im Urin, dass die Anpassungen recht schnell vom ästapel laufen werden und sich die Großen nicht erst jetzt um die Developer Kisten kümmern müssen ;)

Space


Antwort von Valentino:

Naja Qualität ist in gewisser Weise natürlich auch subjektiv, aber alleine schon der AM4 Sockel und eine CPU mit Pins wirkt in 2020 extrem retro. Gibt schon extra Halteplatten von CPU Kühler Herstellern, damit man bei der Demontage nicht die CPU raus zieht. Mache das alle zwei Jahre für die Erneuerung der Leitpaste.
Dazu diese Lüfter auf dem Chipsatz, irgendwie erinnert mich das alles doch sehr stark an meine erste AMD Kiste in den Anfängen der 2000er Jahre.
In den Test sind die neuen 8 Kern Intels auch gar nicht so weit von den 10 und 12 Kern AMDs weg und bei AMD Grafikkarten habe ich schon einige Leidensgeschichten mitgemacht. Am Ende wurde trotz knappen Budget die AMD in der Bucht verkauft und die teurere Nvidia bestellt.

Das ARM sich bei Mac durchsetzen wird bezweifle ich nicht, für Linux, Windows und Co. wird x86 aber noch einige Jahre der Standard bleiben. Im Bereich der Server wurde ARM auch schon mehrmals aber recht erfolglos gehypt. Im Spielesektor gibt eine Art ARM ja schon mit den Konsolen, trotzdem verkauft der Aldi seit über 20 Jahren Gamer-PCs wie geschnitten Brot.
Kann mir auch gut vorstellen, das ein paar der großen Softwarehersteller für NLEs ihre Software nicht richtig portiert bekommen oder es gleich lassen und sich nur noch auf Windows konzentrieren. Avid und Blackymagic fallen mir da spontan ein.

Space


Antwort von motiongroup:

Kann mir auch gut vorstellen, das ein paar der großen Softwarehersteller für NLEs ihre Software nicht richtig portiert bekommen oder es gleich lassen und sich nur noch auf Windows konzentrieren. Avid und Blackymagic fallen mir da spontan ein. Bei AVID muss ich dir recht geben, die sind auf der aktuellen Plattform über Jahre immer ein bis zwei Systemzyklen in der Zertifizierung hinterher gewesen... aber bei BM ? Die haben doch über die letzten Jahre soviel in die Entwicklung gesteckt das allen anderen da Wasser besonders durch deren Preispolitik bis zum Halse steht..
Was aber sicher stimmen wird ist , dass durch abhängig durch die verwendete Entwickler-Umgebung einiges an Zeit verloren gehen wird... unter X-Code schaut es da relativ Entspannt aus und die ersten Anbieter vermelden schon das sie die Portierung fertig haben..

Das mit der Qualität ist wie schon oben beschrieben so eine Sache und es wird wie immer für alles ein Pro und Kontra geben, denn was nützen die besten mechanischen Eigenschaften wenn die Troubles im Silicium schlummern und davon nicht zu wenige.
Das erinnert mich irgendwie an das iPhone 5C welches ich nach wie vor das beste aller Gehäuse von Apple halte..
Und wenn ich an mein letztes Hack-Abenteuer denke, wo ich zum 4970K noch nen Celeron dazu buyen musste und von Gigabyte zu Asrock wandern musste weils mit der versprochenen Kompatibilität nicht so weit her war und sich sonst kein Bios flashen ließe, obwohl in den Specs angegeben, bekomme ich noch Heute Sodbrennen..

Aber wie wir sehen, selbst die gute Therese jammert ;)
https://www.youtube.com/c/Morgonaut/videos

Space


Antwort von TheBubble:

Valentino hat geschrieben:
Gibt schon extra Halteplatten von CPU Kühler Herstellern, damit man bei der Demontage nicht die CPU raus zieht. Mache das alle zwei Jahre für die Erneuerung der Leitpaste.
Wenn man weder CPU noch Kühler wechselt, muss man die Paste nicht erneuern und sicher nicht alle zwei Jahre. Das ist doch übertrieben und wird von den meisten Usern auch nicht gemacht.
Valentino hat geschrieben:
Dazu diese Lüfter auf dem Chipsatz, irgendwie erinnert mich das alles doch sehr stark an meine erste AMD Kiste in den Anfängen der 2000er Jahre.
Ein Lüfter ist vorhanden und er ist bei aktivem Silent-Profil im Normalfall aus. Daher sehe ich hier keinen echten Nachteil.

Space


Antwort von MrMeeseeks:

Valentino hat geschrieben:
Naja Qualität ist in gewisser Weise natürlich auch subjektiv, aber alleine schon der AM4 Sockel und eine CPU mit Pins wirkt in 2020 extrem retro. Gibt schon extra Halteplatten von CPU Kühler Herstellern, damit man bei der Demontage nicht die CPU raus zieht. Mache das alle zwei Jahre für die Erneuerung der Leitpaste.
Dazu diese Lüfter auf dem Chipsatz, irgendwie erinnert mich das alles doch sehr stark an meine erste AMD Kiste in den Anfängen der 2000er Jahre.
In den Test sind die neuen 8 Kern Intels auch gar nicht so weit von den 10 und 12 Kern AMDs weg und bei AMD Grafikkarten habe ich schon einige Leidensgeschichten mitgemacht. Am Ende wurde trotz knappen Budget die AMD in der Bucht verkauft und die teurere Nvidia bestellt.

Das ist doch völliger Blödsinn. Du sprichst von "Verarbeitungsqualität"..total lachhaft. Die Wahrheit sieht eher so aus dass AMD die hochwertigen Produkte fertigt. Deine genannten "Pins" haben auch Vorteile.

Fakt ist dass AMD eine wesentlich bessere IPC hat und Intel seit Jahren den alten Wein durch die noch ältere Schläuche quetscht. Die 14nm Fertig ist altbacken und nicht mehr zeitgemäß, diesen Mangel versucht Intel mit hohen Taktraten zu kompensieren. Das Ergebnis sind Chips am thermischen Limit. Aktuelle Intel Prozessoren erinnern an Maschinen aus der damaligen Sowjetunion. Laut, heiß und erledigen die Arbeit halbwegs akzeptabel.

Mir war es schon immer egal was ich da für einen Prozessor verbaue aber wer aktuell auf Intel setzt hat Kontrolle über sein Leben verloren. In einigen Monaten erscheinen wieder neue Prozessoren, dann wird aus einer Führung seitens AMD ein Kreuzigung für Intel.

Space


Antwort von rush:

MrMeeseeks hat geschrieben:
wer aktuell auf Intel setzt hat Kontrolle über sein Leben verloren.
Ganz so weit würde ich sicherlich nicht gehen aber die eher "vorgeschobenen" Qualitätsunterschiede von denen Valentino spricht kann ich auch nicht wirklich nachvollziehen...
Das klingt ein wenig wie jemand der vor Jahren schlechte Erfahrung mit Sigma Objektiven gemacht hat und daher aus Prinzip kein DrittanbieterGlas mehr kauft.

Das sich die Zeiten jedoch ändern können und etablierte Hersteller plötzlich und unverhofft auf der rechten Spur "stehenbleiben" während links frischer Wind vorbeizieht empfinde ich als sehr angenehm.

Um am Beispiel Intel/AMD zu bleiben...
Mein Ryzen 3900x läuft von Tag 1 völlig problemlos und ohne Murren - das der "qualitativ" gegen einen Intel abstinken soll kann ich aktuell nicht bestätigen. Er ist weder sehr anspruchsvoll in Hinblick auf das Board noch sonstige Komponenten und bleibt zudem selbst mit einem günstigen Luftkühler im Prime Stresstest sehr viel unauffälliger was es die Temperaturen angeht.

Okay - bisher ist er noch kein Jahr alt, aber fast... und macht im produktiven Alltag richtig Laune, und das zu einem Preisschild wo man auch als Hobbyist keine allzu großen Bauchschmerzen bekommt verglichen mit ebenbürtigen Intel-Pendents. Natürlich ist der Preis nicht DAS Kriterium - aber in der Summe der Komponenten kommt man an AMD aktuell tatsächlich kaum vorbei sofern man nicht zwingend auf Quicksync oder so angewiesen ist.

Space



Space


Antwort von macaw:

Valentino hat geschrieben:

Wer schon nach 3 Jahren wechselt, bekommt für seine alte Hardware meist auch noch gutes Geld und da ist Intel und Nividia deutlich wertstabiler als AMD.
Das ist nach der Verarbeitungsqualität auch einer der Gründe warum ich mir keine AMD Hardware kaufen würde.
Großer Gott. Sowas albernes und peinliches habe ich schon lange nicht gelesen. Verarbeitungsqualität????? WTF???

Space


Antwort von andieymi:

MrMeeseeks hat geschrieben:

Fakt ist dass AMD eine wesentlich bessere IPC hat und Intel seit Jahren den alten Wein durch die noch ältere Schläuche quetscht. Die 14nm Fertig ist altbacken und nicht mehr zeitgemäß, diesen Mangel versucht Intel mit hohen Taktraten zu kompensieren. Das Ergebnis sind Chips am thermischen Limit. Aktuelle Intel Prozessoren erinnern an Maschinen aus der damaligen Sowjetunion. Laut, heiß und erledigen die Arbeit halbwegs akzeptabel.
Find ich persönlich lustig, das hat man über die letzten Generationen AMD gesagt. Wie sehr sich das Blatt plötzlich wenden kann. Aber hat schon mehr als einen Marktführer (Intel) irgendwann erwischt, die un-innovativ geworden sind, an der Preisschraube gedreht haben und gleichzeitig produktmäßig auf der Stelle traten, es drängen sich Vergleiche zu einem deutschen Volumenhersteller von PKW auf.

Space


Antwort von Valentino:

WOW was ist den hier los, ist man mal ein paar Tage nicht in der digitalen Welt unterwegs und man wird sofort wieder von irgendwelchen netten Zeitgenossen total liebe behandelt ;-)

Habe testweise mal bei einem größeren Händler ein paar aktuelle AMD-Boards im Betrieb und unter Lasst angeschaut bzw. angehört und am Ende hat AMD das bessere Preis/Leistungsverhältnis aber so richtig rund fühlt sich das für mich leider nicht an.

Baue schon seit Beginn der 2000er Jahren für Freunde und mich PCs zusammen und habe damit später mein Studium teilweise finanzieren können. Die in der Zeit gebauten Schnittsystem (alle auf Intel-Basis) laufen dank guter Wartung immer noch ohne größere Problem und auf ihnen wurden schon unzählige Produktionen geschnitten. BlueScreens gab es meist nur, weil mal wieder jemand meinte an den Workstations herumzuschrauben oder ohne Hirn irgendwelche Updates gezogen hat.
In der Zeit ist ein einziges MSI X99 Board mit Ankündigung abgeraucht, die CPU schnurrt bis heute auf einem neuen Asus Board.
Zum Thema Wärmeleitpaste, die Systeme zeigen nach dem üblichen 24/7 Dauerbetrieb leichte Temperaturanstiege an. Weil sie dazu auch noch öfters über weite Strecken transportiert werden, wird der Lüfter dabei demontiert. In dem Zuge erneure ich gerne alle zwei Jahre die Paste, hat bis jetzt noch nicht geschadet. In einem Vorher/Nacher-Test liegt die CPU-Temperatur nach der Erneuerung meist ein paar Grad unter der vorherigen Temperatur. Klar das könnte man auch alle 5-7 Jahren machen, dann stehen die Workstations mal irgendwo in einem staubigen und heißen Raum rum und nach 2 Wochen sind die Luftfilter dicht und die CPU läuft unter Last mal locker mit 10 Grad mehr, was bewiesenermaßen für die Haltbarkeit der gesamte Hardware nicht wirklich zuträglich ist.

Am Ende ist das halt wie beim Lieblinsgsbier, Wein oder gar Automarke. Da hat Jeder seinen Favoriten und dieser ist bei mir aktuell immer noch Intel.
Aber Danke, das man hier gleich als Jemand bezeichnet wird, der sein Leben nicht im Griff hat oder mit WTF angebluft wird, nur weil man eben nicht die gleiche Meinung teilt.

Space


Antwort von macaw:

Valentino hat geschrieben:
WOW was ist den hier los, ist man mal ein paar Tage nicht in der digitalen Welt unterwegs und man wird sofort wieder von irgendwelchen netten Zeitgenossen total liebe behandelt ;-)

Aber Danke, das man hier gleich als Jemand bezeichnet wird, der sein Leben nicht im Griff hat oder mit WTF angebluft wird, nur weil man eben nicht die gleiche Meinung teilt.
Bei dem Unsinn, den du zuvor zum besten gegeben hast muss man sich auch nicht wundern wenn man nicht für voll genommen wird. Es gibt die Probleme bzgl. Qualität schlicht und ergreifend nicht, von denen du da geschrieben hast, sonst wäre AMD schon lange wieder dort gelandet, wo sie verdientermaßen mit dem "Bulldozer" Desaster schon mal waren.

Und dann der Käse mit dem Werterhalt. Der einzige Kollege, der seine noch brauchbare Workstation verkaufte war der, der seinen Beruf gewechselt hat. Die anderen behalten die Mühle bis es nicht mehr geht und halten sie danach noch als Backup oder was weiß ich oder sie ist so alt, daß sie kaum was wert ist. Du faselst von nicht existenten oder irrelevanten Dingen.

Space


Antwort von Valentino:

Danke dir für das konstruktive Feedback, du hast mir die Augen geöffnet.

Oder anders formuliert, andere Meinung zu akzeptieren, auch wenn sie einem nicht ins eigene Weltbild passen, wird leider immer seltener.

Space


Antwort von macaw:

Valentino hat geschrieben:
Danke dir für das konstruktive Feedback, du hast mir die Augen geöffnet.

Oder anders formuliert, andere Meinung zu akzeptieren, auch wenn sie einem nicht ins eigene Weltbild passen, wird leider immer seltener.
Alter, was hat das denn mit Meinung zu tun???
Wenn ich sagen würde, daß 90% aller Computer heute von Apple sind, ist das keine Meinung, sondern nur Unsinn.

Du hast noch immer keine Fakten bzgl. der schlechten "Verarbeitungsqualität" genannt. Hast Du eine CPU unter dem Mikroskop untersucht? Oder sogar mehrere miteinander verglichen von der eine Referenzqualität hat? Hast du langzeittests unter Laborbedingungen gemacht? Also woher kommt die Erkenntnis, die so gewichtig ist, daß sie der Hauptgrund für dich ist, keine AMD CPU zu kaufen?

Space


Antwort von motiongroup:

Leute Leute in der Ruhe liegt die Kraft...;) seid froh das es hier keine strenge Moderation gibt.. ich bin erst unlängst bei MTN geflogen, daich nicht nach deren Kriterien Bewertet hatte denn sie waren mit meinen Daumen rauf und runter nicht wirklich zufrieden und ich hätte mich flegelhaft gegen die Marmeladinger geoutet, da ichmich nach massiven Ischgl- Bashing erdreistet, die Empfehlung in das Netz geblasen, dass eben sie am besten ihre Urlaube stornieren und am Ballermann fahren und ihre Zweitwohnsitze zurückgeben sollten.... ;)

Mann glaubt es kaum, sie warfen mir unterschwellig Rassismus vor leicht rechts angehaucht zu sein..:))) Jaja die Sache lief vollends aus dem Ruder als klar wurde das die größte Gruppe wie wird das immer genannt Menschen mit Migrationshintergrund aus Deutschland kommen... ein Schelm der böses dabei Denk....:)

Leute es ist vollkommen Wurst ob nun von AMD oder Intel, hier dreht sich's um Apples SOCs und weder um Religion und Staatsangehörigkeiten und auch nicht um pers. Animosiotäten.

Space


Antwort von motiongroup:

Ich bin bei MTN erst unlängst raus geflogen weil ich beim Bewertungssystem nach deren Meinung nicht objektiv bewertet hatte ..
So gesehen haben wir hier echt ein Glück wurd ich meinen gell ;))

Space


Antwort von patfish:

Valentino hat geschrieben:
Deswegen investiere ich lieber alle vier bis 6 Jahren 500-800€ in ein neues Maindboard+CPU+GPU. Der Rest wie Gehäuse, Netzteil und CPU-Kühler hält meist locker 10-15 Jahre.
Wer schon nach 3 Jahren wechselt, bekommt für seine alte Hardware meist auch noch gutes Geld und da ist Intel und Nividia deutlich wertstabiler als AMD.
Das ist nach der Verarbeitungsqualität auch einer der Gründe warum ich mir keine AMD Hardware kaufen würde.
Da hat wohl jemand seinen Rechner schon 6 Jahre nicht mehr upgedated :D ...im Jahr 2020 bekommst du für 600- 800€ nur mehr low-end Komponenten mit denen die vielleicht 2 Jahre eine Freude haben wirst.

Ich würde sage unter 1000€ kommst du nicht mehr aus wenn du damit wirklich 6 Jahre arbeiten willst. 160€ fürs MB, 280€ für die CPU und 430€ für die GPU (2060 Super) ...und da du nach 6 Jahren sogut wie sicher auch einen neuen RAM für das MB brauchst, kommt noch mal 160€ (32 GB) ...Und da die meisten dann auch nicht mehr auf einer alte und langsamen HDD booten wollen bzw. der Speicher langsam knapp wird kommt dann wahrscheinlich noch eine 500TB M.2 und eine 2TB HDD dazu und schon kann man sich eigentlich gleich einem komplett neuen Mittelklasse PC um 1400€ kaufen :D

Ich behalte meinen PC mittlerweile auch ca. 6 Jahre, dieser koster dann aber auch viel mehr und ich tausche nach ca. 3-4 Jahre die Grafikkarte und erweitere hin und wieder den Speicher.

Deine Meinung von AMD kommt übrigens wahrscheinlich auch daher, dass du schon länger keinen PC upgedated hast - aktuell gibt es keinen Weg an AMD vorbei wenn es um reine Leistung oder den Preis geht.

Space



Space


Antwort von patfish:

macaw hat geschrieben:
Und dann der Käse mit dem Werterhalt. Der einzige Kollege, der seine noch brauchbare Workstation verkaufte war der, der seinen Beruf gewechselt hat. Die anderen behalten die Mühle bis es nicht mehr geht und halten sie danach noch als Backup oder was weiß ich oder sie ist so alt, daß sie kaum was wert ist. Du faselst von nicht existenten oder irrelevanten Dingen.
Stimmt! Ich habe auch noch immer 3x Intel Xeon Workstations (4 Cores) + 3x 1TB Raid0 und 24GB RAM von 2013 herumstehen (nur eine ist bzgl. Test/Backup usw. noch hin und wieder immer im Einsatz). Selbst wenn die Daten auf den 1. Blick noch OK klingen (waren damals auch nicht billig), die Geräte sind einfach durch ihre 7 HDDs zu laut und braucht viel zu viel Strom :D Weiters haben normale SSDs die Raid0 Verbindungen (jener Systeme) längst obsolet gemacht.

Auf Werterhalt braucht man bei einem PC/Workstation wirklich nicht schauen! - Den gibt es nicht :D ...einzig auf Zukunftssicherheit bzgl. des verbauten Sockel und der einzelnen Schnittstellen kann geachtet werden - wen ein PC länger im Einsatz bleiben soll.

Ich hoffe, dass ich mit meinem neuen AMD (24 Cores) doch wieder ein paar Jahre auskommen werde. Da Intel aber endlich wieder Konkurenz hat, könnte sich die nächsten Jahre doch wieder deutlich mehr tun als in den vergangenen. Ich bin gespannt!

Space


Antwort von markusG:

patfish hat geschrieben:
aktuell gibt es keinen Weg an AMD vorbei wenn es um reine Leistung oder den Preis geht.
Das stimmt so nicht pauschal, es kommt immer auf die jeweilige Software und den Einsatzzweck an. Siehe Benchmarks @ Puget Systems.

Space


Antwort von patfish:

markusG hat geschrieben:
patfish hat geschrieben:
aktuell gibt es keinen Weg an AMD vorbei wenn es um reine Leistung oder den Preis geht.
Das stimmt so nicht pauschal, es kommt immer auf die jeweilige Software und den Einsatzzweck an. Siehe Benchmarks @ Puget Systems.
Ok, dass stimmt schon! ...Programme welche die Power von mehreren Kernen noch immer nicht ausnützen können, sind teils wirklich noch auf Intel schneller :D ...diese Programme werden aber hoffentlich in den nächsten 2 Jahren alle ausgestorben sein und dann schaut es für Intel wirklich düster aus wenn sie nicht ganz schnell auf 7nm umstellen (was aktuell nicht so ausschaut) :-/ ...Und ja, Ich (und ganz viele andere) komm mir in After Effects dezent verarscht vor, wenn meine CPU nie über 17% ausgelastet wird. Ich frag mich wie es da erst User mit 64 (statt meiner "überschaubaren" 24) Cores geht :D

Space


Antwort von dienstag_01:

patfish hat geschrieben:
markusG hat geschrieben:

Das stimmt so nicht pauschal, es kommt immer auf die jeweilige Software und den Einsatzzweck an. Siehe Benchmarks @ Puget Systems.
Ok, dass stimmt schon! ...Programme welche die Power von mehreren Kernen noch immer nicht ausnützen können, sind teils wirklich noch auf Intel schneller :D ...diese Programme werden aber hoffentlich in den nächsten 2 Jahren alle ausgestorben sein und dann schaut es für Intel wirklich düster aus wenn sie nicht ganz schnell auf 7nm umstellen (was aktuell nicht so ausschaut) :-/ ...Und ja, Ich (und ganz viele andere) komm mir in After Effects dezent verarscht vor, wenn meine CPU nie über 17% ausgelastet wird. Ich frag mich wie es da erst User mit 64 (statt meiner "überschaubaren" 24) Cores geht :D
Es wird auch in Zukunft nicht für jede Anwendung sinnvolles Skalieren auf mehrere Kerne/Threads möglich sein. Da sollte man nicht zu blauäugig sein.

Space


Antwort von patfish:

dienstag_01 hat geschrieben:

Es wird auch in Zukunft nicht für jede Anwendung sinnvolles Skalieren auf mehrere Kerne/Threads möglich sein. Da sollte man nicht zu blauäugig sein.
Im Videoschnitt, Postproduktion/VFX und 3D Render - Bereich geh ich zumindest stark davon aus, dass zumindest viele Prozesse in Zukunft die Vorteile von mehreren Cores nützen werden können und nicht wie im After Effects aktuell einfach brach liegen ...After Effects hat ja z.B. 2014 sogar schon einmal Multithreding Rendering auf der Timeline unterstützt (war richtig flott aber offensichtlich nicht sauber implementiert) diese Funktion is bis heute die meist gewünschte der ganzen Community.

Space


Antwort von dienstag_01:

patfish hat geschrieben:
dienstag_01 hat geschrieben:

Es wird auch in Zukunft nicht für jede Anwendung sinnvolles Skalieren auf mehrere Kerne/Threads möglich sein. Da sollte man nicht zu blauäugig sein.
Im Videoschnitt, Postproduktion/VFX und 3D Render - Bereich geh ich zumindest stark davon aus, dass zumindest viele Prozesse in Zukunft die Vorteile von mehreren Cores nützen werden können und nicht wie im After Effects aktuell einfach brach liegen ...After Effects hat ja z.B. 2014 sogar schon einmal Multithreding Rendering auf der Timeline unterstützt (war richtig flott aber offensichtlich nicht sauber implementiert) diese Funktion is bis heute die meist gewünschte der ganzen Community.
Mehrkernprozessoren gibt es schon seit 15 Jahren im Consumerbereich, im professionellen noch länger. Seit dieser Zeit werden Anwendungen dafür optimiert, nicht erst seit der Einführung der letzten Generation von AMD.
Daneben hat z.B. Rendern im Bereich Videobearbeitung in den letzten Jahren eine gänzlich andere Entwicklung genommen, die finden mehrheitlich auf der GPU statt.

Ich bin da eher skeptisch, dass da wesentliches ansteht. Vielleicht der eine oder andere Einzelfall ;)

Space


Antwort von markusG:

patfish hat geschrieben:
After Effects hat ja z.B. 2014 sogar schon einmal Multithreding Rendering auf der Timeline unterstützt (war richtig flott aber offensichtlich nicht sauber implementiert) diese Funktion is bis heute die meist gewünschte der ganzen Community.
iirc war es nicht auf der Timeline, sondern nur bei der Ausgabe (und ja, war wohl zu fehleranfällig). Kann man sich mit Renderboss/Rendergarden/BGRender "wieder holen". Aber größtenteils ist Adobe etwas hinten an und hat zu viele alte Zöpfe.

Space


Antwort von patfish:

dienstag_01 hat geschrieben:
Mehrkernprozessoren gibt es schon seit 15 Jahren im Consumerbereich, im professionellen noch länger. Seit dieser Zeit werden Anwendungen dafür optimiert, nicht erst seit der Einführung der letzten Generation von AMD.
Daneben hat z.B. Rendern im Bereich Videobearbeitung in den letzten Jahren eine gänzlich andere Entwicklung genommen, die finden mehrheitlich auf der GPU statt.

Ich bin da eher skeptisch, dass da wesentliches ansteht. Vielleicht der eine oder andere Einzelfall ;)
Der Core von z.B. After Effects ist aber eben schon 30 Jahre alt und müsste wahrscheinlich komplett neu geschrieben werden. Nur darum hat sich Adobe davor so lange gedrückt. Bei meist 2 oder 4 Kernen war das eine Zeit auch noch verkraftbar aber da es nun Workstations mit bis zu 64 Kernen und mehr gibt, wird sich Adobe nicht mehr lange entziehen können.

Space


Antwort von motiongroup:

sofern die Aussagen zur WWDC stimmen, ist dies schon geschehen und somit ist es quasi fix das die Adobe Suite nativ auf den AppleSOCs läuft..

selbiges gilt auch für die MS Office Lösungen, wobei das mit der 100% kompatiblen portierung noch nicht mal unter x86 osx oder ios gelungen ist..
und wenn wir die kompatibilität und leistungsumfang von Adobe PS auf iOS denken, schwant mir schreckliches;)

Space



Space


Antwort von markusG:

motiongroup hat geschrieben:
sofern die Aussagen zur WWDC stimmen, ist dies schon geschehen und somit ist es quasi fix das die Adobe Suite nativ auf den AppleSOCs läuft..
Hat du Infos abseits von Photoshop und Lightroom? Ersteres wurde aufgrund der Konkurrenz durch Affinity und Procreate ja eh schon vorher portiert. Interessant wären aber mMn eher Premiere und After Effects. As ist in letzter Zeit ja eh schon eine Flickschusterei, bereits unter "normalen" Bedingungen...

https://www.appgefahren.de/wwdc-2020-ap ... 79499.html

Space


Antwort von motiongroup:

Nein genaue Infos habe ich auch nicht nur die von der WWDC und aus den Medien..
Es kann aber auch gar nicht anders sein, dass Adobe nicht damit Zeitnah daher kommt und eben die PS und LR Infrastruktur an die CLOUD Initative gekoppelt sein muss um am Ball zu bleiben.. da sehe ich noch nicht mal so sehr MS damit im Zugzwang gefangen die Office Suite zu Portieren..

Mal luaga wie sich das entwickeln wird .. mir läuft eh nix davon und alle Maschinen laufen und laufen und laufen..

Space


Antwort von markusG:

motiongroup hat geschrieben:
da sehe ich noch nicht mal so sehr MS damit im Zugzwang gefangen die Office Suite zu Portieren..
Ich denke Office wird das einfachste sein. Gab es für Windows RT auch schonmal, lief richtig gut, war aber auch abgespeckt und entstammte wohl eher den mobilen Versionen.

Keine Ahnung warum es für Windows on Arm noch nicht portiert wird... Ob sie direkt in Richtung Web App schielen?

Aber ich sehe auch keinen Zugzwang, bin aber eh noch auf Wintel unterwegs und werde frühestens nächstes Jahr schauen wohin es (zumindest privat) geht. Im stationären Bereich bietet AMD momentan "sexier" Lösungen als ARM, und wenn die mit ihrer Konsolenerfahrung in den Desktop Bereich schwappen wäre es eh win-win. Aber das ist da wieder ein anderes Thema.

Space


Antwort von motiongroup:

Keine Ahnung warum es für Windows on Arm noch nicht portiert wird... Ob sie direkt in Richtung Web App schielen? Würde schon viel weiter sein wenn Qualcomm von Intel keinen Riegel vorgeschoben bekommen hätte und MS nun durch die Finger schaut...

Zu Thema Schwierigkeiten bei der Portierung... Apple hat nun Zeitnah die Entwicklertools für Windows zu Metal bereit gestellt...
Unter OSX/xCode/Swift, sollte die Portierung relativ problemlos von statten gehen..

Space


Antwort von pulowaFrau:

UM jeden Preis?
Und bhöse wer darüber nachdenkt?

Die Mülltonne habe ich verhökert. War nicht das einzige sys und über Os oder welches
zu streiten milder Lächler.
Denn leeren Einsteigerrechner ( für den 8 Core Intel könnes nix) kurz aufgenmacht.
Man fühlt sich verarscht. Die 39,90,-noname-ssd aus hinten in China ganz feste Sahne. äääwsome.
Das MOthaboard... das dann das Wertteil, der 4000 Euro die ich quasi leer bezahlt habe.
( ich fand ASUS ganz kleine... ) Den Hobel etwas aufgewertet ( 4tbt ssd) damit der Student, der sein
letzes Geld.. ich gabs ihm um 4900,-
-------------
seit 3 Monaten beweg ich drei 16 Core Hackis, Amd. Thrreadripper 2gen. simpel. ( VALLUE!!!!!!)
Wenn das nicht kannst, kannst wh auch nix mit Maya oder Z-brusch und mit Haxerl übers Knie, warum du
son juter Filmer bist. Frisst das Material der 6k Poket, Resolve sowieso wie aus Stein auf jedem Sys.
Und plötzlich wird Intel wach!
I3 aka vormals i7 im kleinen 10000 er werkt den ganzen Tag in Z-brush und co.

UND NUN SOLL ICH ARM verz ÄERBÄRMLICH holen? mit die Kraft von gute i5 von 2011?
Und wh weil so gut ab 9999,-

JA ICH BIN SAUER. Apple von 1996 bis 2019. auch. die sind nur noch unfähig und ausgefressen.
und irgendwie so uncool old fashioned in der Zeit stehen geblieben.

nö. und aus

Space


Antwort von motiongroup:

:))) was man nicht so alles braucht um sich zufrieden zurückzulehnen ...die 2013NPs gehen weg wie warme Semmeln, da findest relativ wenige gute mit der D500/700er konfig über 8Cores..
Läuft und läuft und langsam bekommen sie Liebhaberpreise ...
Einzig der Hack ist keiner mehr und läuft unter 20.4 auch sehr gut und auch sehr fein..;)

Jammern ohne Fakt weil keine Sau weis wie es ausgeht... aber du hast ja die Option mit deinen Hacks Windows oder Linux drauf zu plätten, weil wie wir ja wissen das OS vollkommen überbewertet wird wie der gute Frank die letzten Jahre ausgeführt hatte :))
Done

Space


Antwort von markusG:

Sgywalka is back again :D

@motiongroup:
Die 2013er MPs waren was ich so mitbekommen habe ein feines Fiasko... Ihrer Zeit damals voraus (dual gpu ohne nennenswerte Unterstützung abseits von Resolve), boten eine unzureichende Ausrüstmöglichkeit und waren daher schnell obsolet. Selbst der neue MP wird ja von AMD rein von der Leistung super easy in die Tasche gesteckt. Aus der Perspektive hat Apple keine andere Wahl als umzudenken, wenn sie nicht ständig hinterher hinken wollen. Ist ein wenig wie bei Spielekonsolen, aber ist ja auch be ähnliche Philosophie (Walled Garden, hochgradige Abstimmung aller Komponenten usw). Ich denke auch dass Metal eine zentrale Rolle spielen wird wie sehr die Softwarehersteller mitziehen. Schaut ja bis jetzt gar nicht so schlecht aus, hätte schlimmeres erwartet (wie sonst immer beim splitten von Schnittstellen).

Space


Antwort von motiongroup:

Die 2013er MPs waren was ich so mitbekommen habe ein feines Fiasko... Überhaupt nicht, im Gegenteil. Die säuseln seit Jahren ohne Probleme dahin und wurden bei Anschaffung vorher genau in die Infrastruktur eingeplant.. die will auch keiner her geben und wir hatten gerade mal einen Ausfall auf GPU Ebene und der wurde 1:1 getauscht und nicht repariert im Zuge des Plans..

Vor allem wenn man sich wie hier die typischen Ergebnisse her nimmt, geht uns nicht wirklich was ab und unter fcpx, Motion x sieht es nicht viel anders aus ... raunzen auf höchsten Niveau eben

Space


Antwort von Frank Glencairn:

motiongroup hat geschrieben:
..wie der gute Frank die letzten Jahre ausgeführt hatte :))
..und das auch weiterhin tun wird ;-)

Space



Space


Antwort von markusG:

motiongroup hat geschrieben:
Überhaupt nicht, im Gegenteil. Die säuseln seit Jahren ohne Probleme dahin und wurden bei Anschaffung vorher genau in die Infrastruktur eingeplant.. die will auch keiner her geben und wir hatten gerade mal einen Ausfall auf GPU Ebene und der wurde 1:1 getauscht und nicht repariert im Zuge des Plans..
Achso ne so meinte ich das nicht...sondern eher aus Sicht von Apple. Dass die Mühlen zuverlässig laufen sollten halte ich für obligatorisch, das tut sogar meine Consumer-i7-Mühle seit nunmehr 12 Jahren.
motiongroup hat geschrieben:
raunzen auf höchsten Niveau eben
Und wie sieht es unter Davinci Resolve* aus? Adobe Premiere? After Effects? FCPX läuft ja sogar auf Laptops rund...denn auch auf meinem 2008er i7 hab ich bisher nix vermisst und früher auch bissl 3D gemacht. Ein Kollege kriegt dagegen bei Blender die GPUs nicht zum mitrendern bewegt, was ich kaum glauben kann in 2020.

*wo der VRAM ja irgendwann limitiert...

Space


Antwort von motiongroup:

Bei der D700 Konfiguration? Hatten wir damals unter Adobe und unter fcpx nicht.. Resolve wurde nicht verwendet und soviel ich weis auch heute noch nicht.. Privat habe ich's verwendet und auf dem alten MBP 17" 2011 mache ich damit keinen Meter mehr.

Aktuell läuft bei meiner alten Abteilung. Fcpx, Motion, Comp, die komplette Affinity Suite .. aktuell geht der Switch von Adobe weg und es wurden weil die rasenden Reporter aktuell mit den IPadPRos ausgestattet wurden auch dort Affinity eingesetzt..
Das ist auch der Grund warum ich auf den Switch von Affinity von Intel auch Apples SOC gespannt bin.
Mit 3D Paketen like Maya, Blender usw. läuft bei uns nix und somit laufen wir auch nicht der Rechnerleistung hinterher..

Aber wie Du so schön schriebst tuts auch bei mir betagte Hardware voll und ganz und der Switch für die Pension zu Linux ist schon durch und die Maschine (i7 4970k mit ner RX580/GTX970 ) macht genau das was sie soll selbst beim privaten Videoschnitt und hat sogar unter Steam bei CSGO oder Metro2033 runde 250fps rausgehauen..

Wie gesagt raunzen geht immer, nur für was?

Space


Antwort von markusG:

motiongroup hat geschrieben:
Aktuell läuft bei meiner alten Abteilung. Fcpx, Motion, Comp, die komplette Affinity Suite .. aktuell geht der Switch von Adobe weg und es wurden weil die rasenden Reporter aktuell mit den IPadPRos ausgestattet wurden auch dort Affinity eingesetzt..
Das ist auch der Grund warum ich auf den Switch von Affinity von Intel auch Apples SOC gespannt bin.
Also mMn sind die Apple SOCs besonders interessant für mobile Anwendungen. Das von dir genannte läuft doch schon auf alten Kisten rund, da reicht doch oft ein iMac oder Mac Mini. Ok, Motion kenn ich jetzt nicht so, aber alleine AE wird auf alten PCs zur Geduldprobe - da ist ja nach oben noch ganz viel Luft, je nachdem was man da macht. Da rächen sich die Xeons der MPs (und ähnlicher Plattformen).
motiongroup hat geschrieben:
Mit 3D Paketen like Maya, Blender usw. läuft bei uns nix und somit laufen wir auch nicht der Rechnerleistung hinterher..
Aber genau da bin ich mega gespannt wie das Apple lösen wird. Geht ja stark Richtung GPU-Renderer, und ob da Apple noch auf AMD setzen wird (im nicht mobilen Bereich) ist ja afaik noch immer offen. Und ob Apple da groß Entwicklung reinsteckt - bin da mal gespannt. Wäre auf jeden Fall eine passende Möglichkeit für ein Come Back :)
motiongroup hat geschrieben:
Aber wie Du so schön schriebst tuts auch bei mir betagte Hardware voll und ganz und der Switch für die Pension zu Linux ist schon durch und die Maschine (i7 4970k mit ner RX580/GTX970 ) macht genau das was sie soll selbst beim privaten Videoschnitt und hat sogar unter Steam bei CSGO oder Metro2033 runde 250fps rausgehauen..
Es kommt immer auf das Einsatzgebiet an. Klar, für einfache Dinge reicht auch alte Hardware, und gerade MPs sind ja eigentlich auch keine lahme Kisten gewesen. Aber die Entwicklungen in den letzten Jahren in einigen Bereichen ist extrem an Apple vorbeigeschritten. Es ist schön zu sehen dass zumindest die Hersteller nach und nach nun nachziehen und sich z.B. auf Metal einlassen.

Ich finde den Schritt zu eigenen SOCs auf jeden Fall das spannendste der letzten Jahre seitens Apple. Der MP2019 war zwar nett, aber eigentlich auch kein Meilenstein im Gesamtumfeld. Bin auch mal gespannt wie es mit Nvidia weitergeht: die wollen ja evtl. ARM kaufen, so wie es ausschaut. Intel adaptiert Philosophien von ARM, und AMD geht gerade eh durch die Decke (bestimmt nicht unwesentlich mit dem Kosnolengeschäft). Vielleicht stehen wir wirklich vor einem Paradigmenwechsel, mit Apples Weckruf ganz vorne. Ich wollte nächstes Jahr privat endlich aufrüsten, da schau ich dann mal was es so gibt und was es wird. Vielleicht behalte ich auch einfach meine Kiste und steige auf Linux um^^

*edit:
was direkt zum Thema: der Port scheint wohl tatsächlich erst das Macbook und das Macbook Pro zu betreffen, wenn sich die Gerüchte bewahrheiten: MacBook
A14X
RAM 8GB,16GB
SSD 256GB,512GB,(1TB)
12” Retina Display
15hr~20hr battery life
720p Facetime HD Camera
Single USB-C port
lighter than 1kg
4th gen Butterfly Keyboard
$799(at least)~

Difference between MacBook and MacBook Pro 13”
-Butterfly or Magic Keyboard
-cooling systems (fans)
-1 or 4 Ports
-bigger battery
-better performance (due to cooling systems)
-Touch Bar
-Touch ID
-Price $300 higher(standard)
https://www.notebookcheck.com/Apple-Sil ... 687.0.html

Space


Antwort von motiongroup:

Es ist sogar extrem spannend und wir brauchen nicht auf den ersten SOC von Apple warten, da dieser schon als Entwicklerkit verborgt wird ;) Wir sehen es läuft schon und das mit dem alten SOC sehr gut und als Office und Entwicklerumgebung im Verhältnis schnell.

Das sich Nvidia für die Vergabe der ARM Lizenzen interessiert ist gewissermaßen logisch und für Apple an sich irrelevant, für andere wieder der Supergau, speziell für die Neueinsteiger.. Interessant ist das Mircosoft sich für einen Qualcomm SOC basierenden Weg für seine Maschinen auserkoren hatte und von Intel eine verpasst bekam das sie mit den Ohren gewackelt haben.. Das ganze schon vor der Apple Ankündigung auf den einen SOC umzusatteln und das ist keine Geschichte die so in ein paar Monaten geplant wird, sondern über Jahre angefahren werden muss.

Maya in der Rosetta2 Umgebung wurde kurz gezeigt etwas genaues dazu zu sagen wäre vermessen. Ich selber schaue auf das nicht mehr da mich diese Schiene seit langen nicht mehr interessiert .. bei mir ist bei 2.5D Schluss :) auch beim zusehen..

Wie schon geschrieben, es ist interessant, aber mehr auch nicht zumindest nicht für mich das meine Jahre vorbei sind und das was ich brauche erledigt mein iPad Pro mit Stift und Tastatur, eventuell noch mein alten MBP2011 bis es stirbt und meine Ubuntu Maschine auf der LWKS, FotoGIMP, Inkscape, Digicam, LibreOffice, Firefox GFX und Evolution seine Arbeit problemlos verrichtet.
Mir geht nicht ab.. Ich habe zwar versucht die Affinity Entwickler für Linux zu begeistern, aber das war wohl nichts ;)

Space


Antwort von markusG:

motiongroup hat geschrieben:
Wir sehen es läuft schon und das mit dem alten SOC sehr gut und als Office und Entwicklerumgebung im Verhältnis schnell.
Alles schön und gut. Ob das die Windows-Mühlen in den Großraumbüros ablöst wage ich zu bezweifeln, und in dem Forum hier dürfte die meisten wohl eher HEDT oder Workstations interessieren. Insbesondere Davinci Resolve scheint sich ja zu verbreiten und klassische NLEs abzulösen, da wäre ein Vergleich sinnvoll. Für Office reicht wahrlich ein olles Ipad & co^^

Nvidias Arm-Ambitionen werden wohl in erster Linie auf Großrechner zielen; mit Tegra hatten sie ja auch bereits eine Consumer-Lösung, hat sich aber abseits von Nintendo ja nicht so durchgesetzt. Vielleicht ändert sich das ja noch, und wir sehen dann auch mal Nvidias Pendant zu Apple^^ im Desktop Bereich führt ja in vielen Anwendungen nichts an Cuda vorbei, wobei sich das teilweise endlich mal aufbröselt (Octane würde zB auf Metal portiert).

Space


Antwort von motiongroup:

Für Office reicht wahrlich ein olles Ipad & co^^ Office ja, MS Office leider nein da die Kompatibilität nicht 100% gegeben ist.. ein Schelm der böses dabei denkt..
Was Gestern HEDT ist Heute? Das ist alle Jahre samt die gleiche Mär vom must have... In Großraumbüros stehen entweder Nettops oder wie bei IBM bspw Mac der Mobilen und Imac Generation LOWEND jeder Zeit tauschbar über bspw Citrix angeflanscht..

Space


Antwort von markusG:

motiongroup hat geschrieben:
Was Gestern HEDT ist Heute? Das ist alle Jahre samt die gleiche Mär vom must have... In Großraumbüros
Gerade von Großraumbüros redete ich ja nicht ;) gibt ja denke ich auch nicht wenige Freelancer hier im Forum, oder Angestellte in nem Studio. Heißt ja slashcam und nicht slashexcel oder so 😅

Das mit MS Office und den Unzulänglichkeiten weiß ich, wer auch nur exemplarisch. Die meisten von dir gemeinten Personen würden zum Arbeiten nie ein iPad anfassen, viel zu ungewohnt 👀

Space


Antwort von motiongroup:

Oh da muss ich dich enttäuschen Markus, die iPads sind gerade im Servicebereich Favoriten vor den Standard Laptop und auch in den 'Studios ist das Groß der Rechner Stangenstandardware mit Schneller Anbindung an die interne Netzstruktur. Ich habs schon mal hier geschrieben, dass ich mit einem von Dneg über den Fuhrpark der Interstellar Produktion geplaudert hatte.. Dort wurden zum Großteil Stangenware i7 mit LoW Range GTX von Nvidia benutz, was mich Anfangs verwundert hatte, aber nach nem klaren Statement Glas klar zurück lies "Wozu" für Photoshop...die Renderdevision ist ein anderes Feld und wird nicht auf der WKST oder der HEDT abgebildet..

Space


Antwort von markusG:

Sicherheitschip T2 im Mac: Keylogger bricht lokale Verschlüsselung
https://www.heise.de/news/Sicherheitsch ... 22382.html

Da denkt man weg von Intel sei man die Sicherheitsprobleme los...grmpf...immerhin nur lokal ein Problem

Space



Space


Antwort von motiongroup:

der angriffsvektor ist so umständlich und daher fast uninteressant aber vorhanden und bei neugeräten schon hardwareseitig gefixt wie zu lesen ist

Space


Antwort von motiongroup:

https://www.apple.com/apple-events/

Nun gehts aber los. :))

Space


Antwort von iasi:

motiongroup hat geschrieben:
https://www.apple.com/apple-events/

Nun gehts aber los. :))
Wer?
Wohin?

Space


Antwort von Darth Schneider:

Eine Freundin von mir arbeitet als Grafikerin, sie hat ihre eigene Firma.
Sie sagt, ihr seie es schon peinlich, vor den Kunden,
wenn sie daran denkt wieviel sie inzwischen insgeheim mit dem iPad Pro arbeitet während der teure iMac langsam vor sich hin rostet.
Ich denke das kommt auf uns Filmer auch zu.
Wartet mal ab bis Premiere, Resolve und Co. auch auf den iPads laufen....
Gruss Boris

Space


Antwort von rdcl:

"Darth Schneider" hat geschrieben:
Eine Freundin von mir arbeitet als Grafikerin, sie hat ihre eigene Firma.
Sie sagt, ihr seie es schon peinlich, vor den Kunden,
wenn sie daran denkt wieviel sie inzwischen insgeheim mit dem iPad Pro arbeitet während der teure iMac langsam vor sich hin rostet.
Ich denke das kommt auf uns Filmer auch zu.
Wartet mal ab bis Premiere, Resolve und Co. auch auf den iPads laufen....
Gruss Boris
Ich frage mich bei sowas immer wie einige Leuten in der eigentlich Post arbeiten. Du kannst ein skaliertes Bild nicht richtig beurteilen. Nicht von der Bildwirkung in der Montage her, und schon gleich garnicht die Schärfe, Moire, Farben etc. Professionelle Post wird noch sehr lange an Workstations mit entsprechender Peripherie (Preview-Monitore, Lautsprecher etc.) gemacht werden.
Ich lasse mich gerne überraschen, aber ich bekomme regelmäßig von meinem Kollegen im Büro Projekte zum "rausrendern", weil es auf seinem brandneuen Macbook Pro (aktuellstes Modell) ca. 20 mal so lange dauert wie auf meiner Workstation.

Dass Grafik jetzt nicht gerade viel Power braucht ist ja ein ganz anderes Thema.

Space


Antwort von markusG:

"Darth Schneider" hat geschrieben:
Eine Freundin von mir arbeitet als Grafikerin, sie hat ihre eigene Firma.
Sie sagt, ihr seie es schon peinlich, vor den Kunden,
wenn sie daran denkt wieviel sie inzwischen insgeheim mit dem iPad Pro arbeitet während der teure iMac langsam vor sich hin rostet.
Ich denke das kommt ganz auf die Aufgaben an. Illustrationen kann ich mir sehr gut vorstellen, gerade mit dem gepimpten Photoshop, Affinity, Procreate...das hat vieles frei gemacht. Aber auch das hat ja Grenzen, gibt ja nicht umsonst Cintiqs in einer bestimmten Größe. Für unterwegs sicher super. Aber wenn es dann z.B. um DTP (InDesign...) mit mehren GB an Dateien geht, aufwändige Animation...das ist noch ein langer Weg dass ein iPad da reicht, von Dongle-City & co mal ganz zu schweigen, wie rdcl schon geschrieben hat.

Klar, für den EDB-Bereich usw. wo es eher um Geschwindigkeit geht wird das sicher irgendwann eine gute Alternative. Aber alles andere? puh...weniger wegen der Leistung, sondern schlicht die Ergonomie.

zum Thema:
https://www.golem.de/news/apple-silicon ... 51881.html

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Wartet mal ab bis Premiere, Resolve und Co. auch auf den iPads laufen....
Selbst wenn, wo ist der Punkt?

Gerade bei Resolve will man ja trotzdem mehrere anständige Monitore in einer vernünftigen Größe, ne richtige Tastatur, die Resolve Surface oder wenigstens ein paar Bälle, anständig Speicherplatz etc. Soll ich das jetzt alles an ein iPad anschließen? Und wenn ja - was hab ich davon, außer einen Kabel Octopus auf dem Schreibtisch?

Space


Antwort von Darth Schneider:

Nun ja, seit nicht so fantasielos und so festgefahren.
Es gibt schon Lightversionen von Photoshop und Lightroom fürs iPad, und die sind jetzt schon ziemlich gut. Also warum nicht Resolve Light auf dem iPad ?
So weit hergeholt ist das nicht.
Oder warum nicht ein iPad als Eingabegerät und ein zweites iPad oder ein, oder mehrere Monitore um das Bild beurteilen ?
So wie in Star Trek The Next Generation.
Die nutzen die Pads um von überall die grossen stationären Computer zu steuern.
Das ist doch schon durchaus sinnvoll und auch die Zukunft denke ich.
Gruss Boris

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:
Nun ja, seit nicht so fantasielos und so festgefahren.
Es gibt schon Lightversionen von Photoshop und Lightroom fürs iPad, und die sind jetzt schon ziemlich gut. Also warum nicht Resolve Light auf dem iPad ?
So weit hergeholt ist das nicht.
Oder warum nicht ein iPad als Eingabegerät und ein zweites iPad oder ein Monitor zum das Bild beurteilen ?
Gruss Boris
Und warum sollte ich mich mit weniger Monitoren, kleineren Monitoren, weniger Speicherplatz, und irgendwelchen light Versionen zufrieden geben, wenn ich das volle Programm haben kann, das ich jetzt habe? Ich will ja keinen Rückschritt machen, sondern mich verbessern.

Space



Space


Antwort von rdcl:

"Darth Schneider" hat geschrieben:
Nun ja, seit nicht so fantasielos und so festgefahren.
Es gibt schon Lightversionen von Photoshop und Lightroom fürs iPad, und die sind jetzt schon ziemlich gut. Also warum nicht Resolve Light auf dem iPad ?
So weit hergeholt ist das nicht.
Oder warum nicht ein iPad als Eingabegerät und ein zweites iPad oder ein Monitor zum das Bild beurteilen ?
Gruss Boris
Wie gesagt, die Leistung die man für Photoshop oder Lightroom benötigt ist ein Bruchteil derer, die man z.B. für 4K Grading oder komplexe Animationen braucht.

Und dann ist da halt noch die Physik. Wo soll die Leistung in so einem kleinen Tablet herkommen? Und wo soll die Hitze hin? Da kommen ja Laptops mit richtigen Lüftern schon ans Limit.
Und persönlich schneide ich, zumindest im Avid, fast ausschließlich mit der Tastatur. Ich stelle mir eine Touch-Bedienung in der Post recht grauenhaft vor.
Aber wer weiß, ich bin generell immer offen für neue Technik, wenn sie denn meine Arbeit effizienter macht.

Space


Antwort von Darth Schneider:

@Frank
Ich denke du hast nicht alles gelesen was ich geschrieben habe.
Ich denke du könntest theoretisch auch mit dem iPad arbeiten und trotzdem dein Bild ganz gewohnt auf den grossen Monitoren beurteilen und speichern muss das iPad ja nicht, nur den Servern sagen wohin sie dir die Bilder speichern sollen.

Ich denke auch nicht das das iPad etwas für deinen Workflow wäre, aber kleinere Projekte zu bearbeiten geht auch heute schon sehr gut mit dem 300 € iPad.

@rdci
Das aktuelle iPad Pro soll ja immerhin schon mal so schnell sein wie ein 2000€ Notebook...
Also, nicht genug Speed wird in ein paar Jahren bei den iPads gar kein Thema mehr sein.
Und Tastaturen ?
Sieht danach aus das die auch bald mal ausgestorben sein könnten.
Klar beim Filmschnitt ev. nicht so schnell wie in den Büros ;D
Gruss Boris

Space


Antwort von rdcl:

"Darth Schneider" hat geschrieben:
@Frank
Ich denke du hast nicht alles gelesen was ich geschrieben habe.
Ich denke du könntest theoretisch auch mit dem iPad arbeiten und trotzdem dein Bild ganz gewohnt auf den grossen Monitoren beurteilen und speichern muss das iPad ja nicht, nur den Servern sagen wohin sie dir die Bilder speichern sollen.

Ich denke auch nicht das das iPad etwas für deinen Workflow wäre, aber kleinere Projekte zu bearbeiten geht auch heute schon sehr gut mit dem 300 € iPad.

@rdci
Das aktuelle iPad Pro soll ja immerhin schon mal so schnell sein wie ein 2000€ Notebook...
Also, nicht genug Speed wird in ein paar Jahren bei den iPads gar kein Thema mehr sein.
Gruss Boris
Sprichst du von diesem iPad, oder gibt's da nochmal ein neueres?
https://www.pcgameshardware.de/iPad-Tab ... 46289/amp/

Welcher 2000€ Laptop wurde da in was geschlagen, oder genauso schnell bzw. langsam?

Space


Antwort von Darth Schneider:

Ja ich denke schon, aber der Test den ich gelesen habe sagte ganz was anderes aus, nicht das ich jetzt das wörtlich noch wüsste, aber die Aussage war das neue iPad kann mit einem 2000€ Notebook mithalten.
Ausserdem, das letzte iPad Pro war auch nicht gerade langsam.
Und die neuen Apple Prozessoren sind ja noch frisch oder in der Entwicklung, so gib denen doch ein wenig Zeit.
What is your Point ?
Gruss Boris

Space


Antwort von rdcl:

"Darth Schneider" hat geschrieben:
Ja ich denke schon, aber der Test den ich gelesen habe sagte ganz was anderes aus, ausserdem das letzte iPad Pro war auch nicht langsam.
Und die neuen Apple Prozessoren sind ja noch frisch oder in der Entwicklung, so gib denen doch ein wenig Zeit.
Gruss Boris
Wie kommst du denn auf diesen Vergleich mit einem 2000€ Laptop? Da muss es ja irgendeine Quelle dazu geben, oder?

Space


Antwort von Darth Schneider:

Siehe nochmal oben, hab’s geändert.
Gruss Boris

Space


Antwort von rdcl:

"Darth Schneider" hat geschrieben:
Siehe nochmal oben, hab’s geändert.
Gruss Boris
Ich weiß nicht was du meinst, sorry.

Space


Antwort von Darth Schneider:

Das selbe Video hab ich nicht mehr gefunden, dafür ein anderes.

Gruss Boris

Space


Antwort von cantsin:

"Geekbench 5, the new iPad Pro running iOS 13.4 managed a single-core score of 1114, a multi-core score of 4654 and a Metal score of 9894." - https://appleinsider.com/articles/20/03 ... benchmarks

Das aktuelle Macbook Pro 13" erreicht im Geekbench 5 einen Score von 1240 bei Single-Core und 4521 bei Multi-Core: https://browser.geekbench.com/macs/macb ... hz-4-cores

Space



Space


Antwort von freezer:

cantsin hat geschrieben:
"Geekbench 5, the new iPad Pro running iOS 13.4 managed a single-core score of 1114, a multi-core score of 4654 and a Metal score of 9894." - https://appleinsider.com/articles/20/03 ... benchmarks

Das aktuelle Macbook Pro 13" erreicht im Geekbench 5 einen Score von 1240 bei Single-Core und 4521 bei Multi-Core: https://browser.geekbench.com/macs/macb ... hz-4-cores
Zum Vergleich meine 9 Jahre alte Workstation hier erreicht im Geekbench 5:
Intel Core i7-980X 3338 MHz (6 cores)
Single-Core Score ... 723
Multi-Core Score ... 3926

Space


Antwort von rdcl:

freezer hat geschrieben:
cantsin hat geschrieben:
"Geekbench 5, the new iPad Pro running iOS 13.4 managed a single-core score of 1114, a multi-core score of 4654 and a Metal score of 9894." - https://appleinsider.com/articles/20/03 ... benchmarks

Das aktuelle Macbook Pro 13" erreicht im Geekbench 5 einen Score von 1240 bei Single-Core und 4521 bei Multi-Core: https://browser.geekbench.com/macs/macb ... hz-4-cores
Zum Vergleich meine 9 Jahre alte Workstation hier erreicht im Geekbench 5:
Intel Core i7-980X 3338 MHz (6 cores)
Single-Core Score ... 723
Multi-Core Score ... 3926
Ich weiß nicht ob man das OS-Übergreifend so gut vergleichen kann, aber ich habe den Test eben auch mal laufen lassen.
Single-Core Score: 1204 | Multi-Core Score: 6240 | OpenCL Score: 69090 | CUDA Score: 78012

Das ist ein Lenovo Laptop mit RTX2060 für 1.300€, und ich würde nicht im Traum daran denken irgendwelche halbwegs anspruchsvollen Projekte auf dem Laptop zu rendern.
Aber jeder wie er möchte.

Space


Antwort von Frank Glencairn:

freezer hat geschrieben:

Zum Vergleich meine 9 Jahre alte Workstation hier erreicht im Geekbench 5:
Intel Core i7-980X 3338 MHz (6 cores)
Single-Core Score ... 723
Multi-Core Score ... 3926
Ja, aber niemand schneidet Filme auf Geekbench.
Is ja schön wenn ein iPad da hohe Zahlen erreicht, aber das hilft mir bei der Arbeit nicht weiter.
Deshalb sind nur Realworld Vergleiche irgendwie zielführend.
Wie schnell läuft Resolve auf meiner WS vs. wie schnell läuft Resolve auf einem iPad.

... ah moment

Es läuft gar nicht. Thema durch.
Fragt mich nochmal wenn es drauf läuft, 4 Monitore inkl externer Decklink ansteuern kann, und sonst auch alles was die WS kann.

Jetzt mal ehrlich Leute. Gehen wir mal von ner einfachen Konfiguration aus:

Mittelprächtiger Threadripper, Bord dazu, 64Gig RAM, 500er SSD fürs OS, Kühler, billiges Gehäuse, Netzteil, RTX3080.
Kostet aus dem Bauch raus so ca 3000 Öcken.

Warum sollte mir ausgerechnet Apple (die jetzt nicht für ihre billige Hardware bekannt sind) dann was für 900,- hinterherwerfen, daß angeblich schneller ist? Das stimmt alles hinten und vorne nicht.
Wenn das iPad tatsächlich schneller wäre würde es bei Apple 6000 - 8000 kosten.

Space


Antwort von freezer:

"Frank Glencairn" hat geschrieben:
freezer hat geschrieben:

Zum Vergleich meine 9 Jahre alte Workstation hier erreicht im Geekbench 5:
Intel Core i7-980X 3338 MHz (6 cores)
Single-Core Score ... 723
Multi-Core Score ... 3926
Ja, aber niemand schneidet Filme auf Geekbench.
Is ja schön wenn ein iPad da hohe Zahlen erreicht, aber das hilft mir bei der Arbeit nicht weiter.
Deshalb sind nur Realworld Vergleiche irgendwie zielführend.
Wie schnell läuft Resolve auf meiner WS vs. wie schnell läuft Resolve auf einem iPad.

... ah moment

Es läuft gar nicht. Thema durch.
Fragt mich nochmal wenn es drauf läuft, 4 Monitore inkl externer Decklink ansteuern kann, und sonst auch alles was die WS kann.
Ich habe hier nicht behauptet dass ich mit einem iPad zukünftig meine Filmarbeiten machen werde.

Space


Antwort von Frank Glencairn:

Dich hab ich auch nicht gemeint - es ging nur um das Vergleichen mit irgendwelchen generischen Benchmarks.

Space


Antwort von cantsin:

Die Ausgangsfrage war, ob ein iPad Pro bzw. ein auf derselben Architektur basierendes Macbook mit einem heutigen 2000-Euro-Macbook mithalten können. Und da lautet die Antwort wohl: ja.

Space


Antwort von rdcl:

Ich bin jetzt eher von einem Windows Laptop ausgegangen, da Darth Schneider ja "Notebook" geschrieben hat.
Mit einem Macbook mag das iPad also mithalten. Mit einem 1000€ Laptop eher nicht.

Space


Antwort von rdcl:

"Frank Glencairn" hat geschrieben:
Dich hab ich auch nicht gemeint - es ging nur um das Vergleichen mit irgendwelchen generischen Benchmarks.
Ich mag solche Zahlen, auch wenn sie keine Realworld-Performance für die Post abbilden. Deswegen hier mal die Werte von meiner Workstation:
Signle-Core Score: 1094 | Multi-Core Score: 8564 | Open CL Score: 181683 | CUDA Score: 207358

Das sind dann eben doch Unterschiede die meiner Meinung nach nicht in naher Zukunft von mobilen Devices aufgeholt werden. Die Desktop-Hardware bleibt ja auch nicht stehen.

Space


Antwort von rush:

Mir wird der Begriff "Workstation" immer suspekter - in Zeiten der bezahlbaren Desktop-Ryzens benötigt man die vermeintlich großen Workstations in vielen Fällen scheinbar kaum noch... Meine private Maschine kommt in Geekbench5 immerhin auf folgende Werte, und das ist nun wirklich keine High-End Maschine sondern ein Ugrade-Kit von CSL mit einfacher 450er Platine nebst 3900x.

Single-Core Score - 1297
Multi-Core Score - 11444

Meine GraKa-Werte sind aufgrund der betagten 1070 dagegen eher so lala unter GB5 - da wäre also am ehesten noch Steigerungspotential an meiner Kiste, aber das war ja klar.

OpenCL - 47301
CUDA - 43184

Ich denke auch das man heute mit Geräten wie den neuen Ipads bereits sehr viel machen kann - besonders im Grafikbereich ist da schon sehr viel möglich, allein schon weil man Touch hat bzw. Stifte nutzen kann... Klar - die kleinen Teile sind nicht perfekt und besonders die Speicherlösungen bzw. der quasi Cloud-Zwang machen mir persönlich eher keinen Spaß - aber das hat man bei mobiler Google-Hardware bspw. genauso.
Wenn man bereits mit Apple unterwegs ist kommt man da kaum dran vorbei bzw. erhält eine ziemlich geniale Ergänzung.

Ist schon beachtlich was die kleinen "Schneidebretter" zu leisten vermögen - interessant wäre für mich mal ein Vergleich zu einem top ausgestatteten Android-Tablet. Wahrscheinlich liegt Apple da aktuell deutlich vor den Android-Derivaten... und die Surface-Tablets mit hoher Leistung und Windows wiederum sind ja leider ziemlich preisintensiv und für mich keine wirkliche Lösung.

Ich schaue tatsächlich aktuell hier und da nach einem Tablet-Update... mein ganz altes ipad 4 tut's nicht mehr bzw. es macht wirklich keinen Spaß mehr, das seit einigen Jahren genutzte Android-Gerät ist mir mit knapp 8" etwas zu klein und ist leistungsmäßig auch eher schwach auf der Brust und keine produktive Alternative für mobile Fotobearbeitung. Schnitt interessiert mich weniger auf dem Tab...

Die Ipads sind dann halt in der Tat schon wieder recht attraktiv in der neuesten Generation - aber ich habe kein passendes Öko-System dahingehend und auch nicht vor auf Apple zu switchen, also zumindest nicht komplett. Als reines Tablet sind die Dinger wunderbar - kann ich wenig negatives zu sagen.

Space



Space


Antwort von iasi:

Nvidia wird zunächst keine Varianten der 3800 und 3700 mit mehr als 10GB-VRAM bringen.

Ärgerlich, weil eben nicht zukunftssicher.

Wer wirklich in nativen 8K oder 12K arbeiten will, muss zudem erst einmal eine Grafikkarte finden, die genügend Speicher besitzt. Unsere RTX2080Ti mit 11GB Speicher quengelt jedenfalls bereits beim aktivieren einer 8K Timeline-Auflösung nach kurzer Zeit, dass ihr Speicher voll ist. Und in einem 12K-Projekt gelingt es nur gelegentlich überhaupt einen einzigen Frame auszuspielen, bevor die GPU "überläuft".

https://www.slashcam.de/artikel/Test/De ... Shutt.html

Space


Antwort von markusG:

rush hat geschrieben:
Mir wird der Begriff "Workstation" immer suspekter - in Zeiten der bezahlbaren Desktop-Ryzens benötigt man die vermeintlich großen Workstations in vielen Fällen scheinbar kaum noch...
Wo gibt es denn klassische Workstations (wie noch in den 90ern) überhaupt noch? Die wurden doch längst durch reguläre, aber leistungsstarke Desktop-PCs ersetzt (wie den Ryzen, oder auch Threadripper & co als CPU-Basis) und auf die sich der Begriff mMn inzwischen bezieht...ist die Frage ob man Miniaturisierung in dem Bereich unbedingt braucht oder den freigewordenen Platz (durch bessere Effizienz im Laufe der Jahre) einfach durch noch mehr Leistungsbringende Hardware füllt...klar wenn Mieten immer weiter steigen und Platz knapp wird - gerade in Metropolen - könnte es vielleicht einen Trend geben, aber bis wir soweit sind...


Apple plant Workstation Mac Pro mit ARM-Prozessor
Der Mac-Hersteller wird wohl auch eine Workstation mit ARM-SoC offerieren. Davon geht der bekannte Apple-Journalist Mark Gurman aus.
https://www.heise.de/news/Mac-Pro-mit-A ... 46910.html
Klingt mMn allerdings nach Mülleimer 2.0...

Space


Antwort von iasi:

Ihr hängt euch wirklich am Begriff "Workstation" auf?!

Work·sta·tion
/?w??kste??n?/

sehr leistungsfähiger, an einem Arbeitsplatz installierter, meist an ein lokales Netz angeschlossener Computer, der besonders beim Einsatz und bei der Entwicklung umfangreicher Systeme von Programmen benötigt wird

Definitionen von Oxford Languages


Space


Antwort von Jott:

Klingt halt wichtiger als "Rechner". Man muss sich ja positionieren! :-)

Space


Antwort von freezer:

Jott hat geschrieben:
Klingt halt wichtiger als "Rechner". Man muss sich ja positionieren! :-)
Wieso?
Server, Thin-Client-PC, Mini-PC, All-In-One-PC, Spiele-PC, Desktop-PC, Workstation-PC, Notebook , Workstation-Notebook, Ultrakompakt-Notebook, Gaming-Notebook sind alles "Rechner".
Aber woher weißt Du dann welcher dieser "Rechner" mit dem Wort "Rechner" gemeint ist?

In meiner Workstation im Big-Tower unter dem Tisch befindet sich ein 8-port SAS-Hardware-Raidcontroller, 8x 14TB Festplatten im RAID-5 und 2 SSDs. Dazu eine GTX Titan 12GB, eine extra Intel-10-GBit-NIC, ein i7-980X mit Towerkühler und 48GB RAM auf einem Asus-Workstation-Board. Was wenn nicht so eine Konfiguration ist eine Workstation?

Space


Antwort von TheBubble:

freezer hat geschrieben:
In meiner Workstation im Big-Tower unter dem Tisch befindet sich ein 8-port SAS-Hardware-Raidcontroller, 8x 14TB Festplatten im RAID-5 und 2 SSDs. Dazu eine GTX Titan 12GB, eine extra Intel-10-GBit-NIC, ein i7-980X mit Towerkühler und 48GB RAM auf einem Asus-Workstation-Board. Was wenn nicht so eine Konfiguration ist eine Workstation?
Das ist ein Enthusiasten-PC ;-)

Space


Antwort von mash_gh4:

TheBubble hat geschrieben:
Das ist ein Enthusiasten-PC ;-)
hängt nur vom verwendeten betriebsystem ab, ob das wirklich als workstation angesehen werden kann.

Space


Antwort von markusG:

mash_gh4 hat geschrieben:
hängt nur vom verwendeten betriebsystem ab, ob das wirklich als workstation angesehen werden kann.
Und was bei Consumer-Komponenten, aber Win10-Workstation Lizenz? ;) (von der Unsinnigkeit mal abgesehen)

Space


Antwort von motiongroup:

es muss was kleines her in der Art eines Nuc...
habe grad einen NUC8i5BEH mit 16Gig und einer 512GB WD Blue M2 Nvme als klassische iMac Clone Lösung mit Ubuntu Budgie am laufen
2230D4FE-6144-45BF-BBBD-9D41A65EAC5D.jpeg 410,-Euronen und habe schon zwei Interessenten die sich einen bauen lassen wollen...

Space



Space


Antwort von cantsin:

motiongroup hat geschrieben:
habe grad einen NUC8i5BEH mit 16Gig und einer 512GB WD Blue M2 Nvme als klassische iMac Clone Lösung mit Ubuntu Budgie am laufen
Und den "Kofler" als Linux-Handbuch dabei.... Sehr schön! (Mit dessen erster Auflage hab' ich '98 Linux und Unix gelernt, was damals noch 'ne ziemlich harte Tour war, weil Desktop-Linux noch bei weitem nicht da war, wo heute Ubuntu & Co. sind.)

Space


Antwort von motiongroup:

der 1000endseiter vom Kofler liegt daheim ;) das ist ja nur die Kommandoreferenz.. daheim läuft die 20.4er LTS von Ubuntu mit dem Gnome3.36er Desktop... wird das Pensionssystem

Space


Antwort von Frank Glencairn:

Morgen werden ja die ersten Apple "But there's one more thing..." ARM Rechner vorgestellt.

Da es ja geradezu ein Naturgesetz ist, daß ein neues Model mehr Leistung haben muß, als das Vorgängermodell,
bin ich gespannt was da an Rechenleistung auf den neuen Chips tatsächlich um die Ecke kommt.

Ich meine, nicht mal Apple kann es sich nicht IMHO leisten, langsamere Rechner als bisher auf den Markt zu bringen. Also nehme ich an, daß wenigstens native Apple Apps flotter als bisher laufen. Ob das auch für AE oder Resolve gilt, werden wir hoffentlich morgen erfahren.

Space


Antwort von Jott:

Blackmagic ist sehr Mac-affin, die werden ihre Software sicherlich entsprechend optimieren. Je nachdem, welche Katze(n) aus dem Sack gelassen werden.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Morgen werden ja die ersten Apple "But there's one more thing..." ARM Rechner vorgestellt.

Da es ja geradezu ein Naturgesetz ist, daß ein neues Model mehr Leistung haben muß, als das Vorgängermodell,
bin ich gespannt was da an Rechenleistung auf den neuen Chips tatsächlich um die Ecke kommt.

Ich meine, nicht mal Apple kann es sich nicht IMHO leisten, langsamere Rechner als bisher auf den Markt zu bringen. Also nehme ich an, daß wenigstens native Apple Apps flotter als bisher laufen. Ob das auch für AE oder Resolve gilt, werden wir hoffentlich morgen erfahren.
Design und Lifestyle - darauf kommt es im Apfel-Universum an.

Ein Mac-Pro kommt doch eh nicht, also müssen nur die Zwerge ein wenig überragt werden.

Space


Antwort von Frank Glencairn:

Hab ich was übersehen, oder haben die alle den selben SOC, und damit eigentlich die selben Specs?
Die Performance richtet sich jetzt nach der Lüftergröße oder was? Anders getaktet? Mehr oder weniger Kerne aktiviert?

Space


Antwort von Jott:

Da neue MacBook Pros friedlich mit den „alten“ Intels koexistieren, wird es in Kürze reale Performance-Vergleiche geben.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Antworten zu ähnlichen Fragen //


Neue CPUs,GPUs und Apple Silicon für die Videobearbeitung
Heißer Herbst 2020 - Neue CPUs,GPUs und Apple Silicon für die Videobearbeitung
Günstige GPUs für die Videobearbeitung am Horizont...
Welche AMD Ryzen CPU für Videobearbeitung
Apple: Neues 7K Studio Display mit integriertem Apple Silicon in Entwicklung?
MSI: Laptop Update bringt Nvidia GeForce RTX Super GPUs und neue Intel CPUs
Upgrade: Neue Razer Blade Notebooks mit besseren GPUs, CPUs und Displays
Acer: Upgrade für ConceptD Pro Serie mit Intel Alder Lake CPUs und Nvidia RTX-GPUs
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Resolve 17.3 Update- 2-3 x schneller auf Apple Silicon.
2022: Neuer MacBook Pro/Air, iMac, Mac mini mit M2 - und erstmals Apple Silicon Mac Pro
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Gigabyter Aero Laptops mit neuen Intel Comet Lake-H CPUs und GeForce RTX Super GPUs
Alienware Area 51m R2 mobile Workstation mit neuen Intel CPUs und Nvidia Super GPUs
Preisrutsch bei Hardwarekomponenten - CPUS und GPUs spürbar billiger
Apple Mac Pro: Neue Grafikkarten-Module mit bis zu 4 AMD Radeon Pro W6800X GPUs mit 128 GB VRAM
Apple stellt neue iMacs und MacBook Pros mit erstmalig 3 nm M3 CPUs vor
Google Dreamix: Neue KI demonstriert die Videobearbeitung der Zukunft
AMD Ryzen 7000 und Mendocino - neue Prozessoren für Herbst angekündigt
Kommen neue MacBook Pro 13"/16" mit M1X und Mini-LED Displays im Herbst?
Update für Apples 13" MacBook Pro: Neue Tastatur, neue CPUs, mehr Speicher




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash