Ui, das ist ja mal was Neues:
Nicht wahr? Und vor allem und am aller wichtigsten: Apple-ONLY. Ist ja klar. Auf keiner anderen Plattform hat man jemals von irgendwelchen Problemen und/oder Inkompatibilitäten nach einem größeren (meist völlig blind überschwänglichem) OS Versionssprung gehört!
Das sind ja alles Hersteller Apps von Apple selbst. Wäre ganz schön peinlich wenn die nicht zeitig portiert worden wären.
Whataboutism? Es geht hier um Big Sur. Davon ab kenne ich persönlich nur den umgekehrten Fall dass Software nicht mehr auf alten Betriebsystemen läuft, z.B. Adobe Cloud. Umgekehrt hatte ich den Fall noch nie.
Wusste gar nicht, dass Apple Resolve gekauft hat.
Genau. Wenn du das sagst! Wo du mit Sicherheit super mitreden kannst. 😂
Hast du in dem zitierten Post auch nicht erwähnt ;)
Das ist ja wohl das unwichtigste überhaupt von allen Ports^^ Wo doch eh alles inzwischen als WebApp läuft, falls die Desktop Apps nicht funzen.
Wayne...es schneiden jedenfalls genug damit für die das interessant ist.
Ach und wieso sollte ich nicht mitreden können? Habe auch genug Mac User im Umfeld deren Gejammer ich mir immer anhören darf. Mit jedem Update die gleiche Leier. Wie gesagt - wo ist der Vorteil einer einheitlichen Plattform? Das haben die anderen nämlich nicht, ist alles ein heterogenes Feld.
Na hoffentlich wissen die auch, dass eine solche Hardwareanschaffung so oder so nichts bringt, oder? Für die also völlig irrelevant. „Problem” gelöst.
Bingo. Ein Fachmann. Wie vermutet. 😂
Da du meine Fragen ja nicht beantwortet hast bringst ja ausgerechnet du nichts zum Thema bei und scheinst die Anliegen anderer nicht zu verstehen.
Aber sicher lohnt es sich... teile davon sind schon in der Beta und das wurde doch auch so publiziertMir persönlich z.B. geht es um die Zukunft von Adobe auf dem MAC, insbesondere After Effects. Lohnt es sich hier zu warten oder eben nicht.
Selbst wenn DIr jemand hier Zahlen auf der Basis der heutigen Intel-Macs gibt, sind die relativ nichtssagend, weil bei einer anderen Prozessorarchitektur (zumal bei einer RISC-Architektur wie ARM ggü. einer CISC-Architektur wie x86, und unified memory ggü. separatem CPU- und GPU-Speicher) anderer Speicherverbrauch anfällt.DV_Chris hat geschrieben: ↑Fr 13 Nov, 2020 15:32 Seit über einem Tag ist meine Frage unbeantwortet. Kann das niemand auf die Schnelle beantworten?
Wie viel RAM ist denn belegt wenn ein Mac gestartet hat und dann FCPX oder Resolve laufen und ein durchschnittliches 4K Projekt geöffnet ist? Oder in PS oder AE mehrere Bilder offen sind oder eine durchschnittliche Comp?
also ich habe eben gerade zufällig Apple Motion (Ressourcen verbrauch in etwa so viel wie FCPX vll. sogar mehr) mit 3D Timeline und 4K Videos und dazu noch Davinci Resolve mit einer Timeline und 4k Videos geöffnet... Hier ein Screenshot:DV_Chris hat geschrieben: ↑Fr 13 Nov, 2020 15:32 Seit über einem Tag ist meine Frage unbeantwortet. Kann das niemand auf die Schnelle beantworten?
Wie viel RAM ist denn belegt wenn ein Mac gestartet hat und dann FCPX oder Resolve laufen und ein durchschnittliches 4K Projekt geöffnet ist? Oder in PS oder AE mehrere Bilder offen sind oder eine durchschnittliche Comp?
Du hattest aber nach FCPX und Resolve gefragt, und die liegen beide ARM-/Apple Silicon-nativ vor. Übrigens dürften die ARM-Versionen im Zweifelsfall mehr RAM brauchen als die Intel-Versionen, weil der Quellcode vom Compiler für einen Prozessor mit weniger eingebauten Befehlen kompiliert werden muss.
Nee, das ist eine andere Kiste - bei Intel hast Du "shared memory", das heißt, der Arbeitsspeicher wird segmentiert und ein Teil für die GPU und der andere für CPU reserviert. Bei den neuen Macs bzw. bei "unified memory" greifen CPU und GPU dynamisch auf denselben Speicher zurück, ohne Segmentierung.2. Das Konzept unified/shared sagt ja nichts anderes aus als dass CPU und GPU auf den gleichen Pool zugreifen. Also so etwas gibt es ja auch bei den Intel Macs, die nur mit der in der CPU integrierten Grafik arbeiten.
Nö .... es läuft auf den Apple SOCs und kümmert sich darum das sich x86 Anwendungen darauf laufen.. x86 MacOS braucht für x86 Apps kein Rosetta2...1. Bei Rosetta2 ist die ausführbare Datei ja die, die jetzt auf den Intel Macs läuft, also 1 zu 1 vergleichbar. Plus der Overhead von Rosetta2 selbst.
Apple ist aber nicht Deutsche Telekom...hahaha ;))Frank Glencairn hat geschrieben: ↑Di 10 Nov, 2020 20:05 "Bis zu" ist schon mal ne Nullaussage (das kennen wir ja von der Internetgeschwindigkeit) und heißt übersetzt: so gut wie nie.
Das ist mMn nicht so sinnvoll. Soweit aufzurüsten, bis Neat nicht mehr Daumenkino ist, ist Irrsinn. Alternativvorschlag: XAVC-HS in 2er, 3er, 4er-Pip.Mediamind hat geschrieben: ↑Sa 14 Nov, 2020 11:19 Vorteil ist, ich weis, wie sich das Projekt bei meinen Macs verhält. Beispiel: Neat mit Nachschärfeneffekt kombiniert, macht bevor es "durchgerendert" ist aus meinem Macbook Pro aus 2016 ein Daumenkino.Leider wird Neat ja nicht im Store installiert sein.
Nimm dir doch einfach einen Klon deiner Systemplatte mit allen notwendigen Programmen mit, dann kannst du alles beliebig ausprobieren, sofern dies im Store zulässig ist.Mediamind hat geschrieben: ↑Sa 14 Nov, 2020 11:19 Vorteil ist, ich weis, wie sich das Projekt bei meinen Macs verhält. Beispiel: Neat mit Nachschärfeneffekt kombiniert, macht bevor es "durchgerendert" ist aus meinem Macbook Pro aus 2016 ein Daumenkino.Leider wird Neat ja nicht im Store installiert sein.
IMHO sind die heutigen maximalen 16GB RAM (wegen des unified memory von CPU und GPU) der echte Flaschenhals und werden die Rechner interessant, sobald sie mit 32GB verfügbar werden. Geekbench zufolge ist auch die schwächere Multicore-Performance immer noch auf dem Niveau von ca. 5 Jahre alten i7-6 Core-Desktop-CPUs, mit denen auch heute noch (wie auf meinem eigenen Rechner) problemlos 4K schneiden kann. Die Frage ist, wie gut die GPU bei Anwendungen wie FCPX und Resolve performt.
Wäre mir neu, dass es eine UB Version von Neat gibt. Womit so ein Test auch reichlich sinnbefreit bzw. nichtssagend wäre.
Vor allem wo FCPs Denoiser zum Teil bessere Ergebnisse liefert und das in einem Bruchteil der Zeit. Auch ohne M1.
Das ist ein Effekt den du immer haben wirst, egal ob Du auf der gleichen Hardwareplattform bleibst oder nun auf den Apple SOC wechselst..
a recht a liabe Gschicht zumal sich aus dem Konvolut aus Date, Time, Computer, ISP, City, State, Application Hash scho ein wenig mehr anbleiten lässt ;) ein Schelm der böses dabei denkt weil eben die OCSP Validierung an sich als Standard eben nicht anderes arbeiten kann..Schutz der Privatsphäre
macOS wurde so konzipiert, dass die Benutzer und ihre Daten sicher sind und gleichzeitig ihre Privatsphäre respektiert wird.
Gatekeeper führt Online-Prüfungen durch, um zu überprüfen, ob eine Anwendung bekannte Malware enthält und ob das Signaturzertifikat des Entwicklers widerrufen wurde. Wir haben niemals Daten aus diesen Überprüfungen mit Informationen über Apple-Benutzer oder deren Geräte kombiniert. Wir verwenden Daten aus diesen Überprüfungen nicht, um zu erfahren, was einzelne Benutzer auf ihren Geräten starten oder ausführen.
Die notarielle Beglaubigung prüft, ob die Anwendung bekannte Malware enthält, wobei eine verschlüsselte Verbindung verwendet wird, die gegen Serverausfälle resistent ist.
Diese Sicherheitsprüfungen haben nie die Apple-ID des Benutzers oder die Identität seines Geräts einbezogen. Um die Privatsphäre weiter zu schützen, haben wir die Protokollierung von IP-Adressen, die mit Zertifikatsüberprüfungen der Entwickler-ID verbunden sind, eingestellt, und wir werden sicherstellen, dass alle gesammelten IP-Adressen aus den Protokollen entfernt werden.
Darüber hinaus werden wir im Laufe des nächsten Jahres mehrere Änderungen an unseren Sicherheitsprüfungen einführen:
Ein neues verschlüsseltes Protokoll für Developer-ID-Zertifikatswiderrufsprüfungen
Starker Schutz gegen Server-Ausfall
Eine neue Vorliebe für Benutzer, sich von diesen Sicherheitsvorkehrungen abzumelden
Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
Ja, das glaube ich auch, aber eines sollte man auch nicht vergessen: Apple setzt hier auf DEN aktuellen Top-Fertigungsprozess: 5nm TSMC. Wenn sie jetzt mehr GPU oder CPU Leistung wollen, dann müssen sie die Chipfläche erhöhen, was extrem unrentabel wird. Bis 2022 gibt es nichts besseres als 5nm. Die GPU Leistung wird sich bis dahin ohne dedizierten Chip nicht steigern lassen. Nach aktuellen Gerüchten, wird Apple eine dedizierte GPU bringen, aber damit ist dann das Shared Memory Konzept dahin. Und für viel mehr Kerne wird Apple auch auf mehrere Dies auf einem Interposter gehen. Dass musste auch Intel auf dem harten Weg lernen, nachdem sie sich zuerst über AMDs "glued Dies" lächerlich gemacht haben. Ich frage mich nur, ob Apple das wirklich machen wird. Für den relativ kleinen Apple Pro-Markt sind das enorme zusätzliche Entwicklungskosten. Ich denke eher, dass bei Apple bis 2022 einfach bei 8 CPU-Kernen Schluss sein wird.Frank Glencairn hat geschrieben: ↑Mo 16 Nov, 2020 09:45 Was den SOC betrifft, darf man glaub ich nicht vergessen, daß das der langsamste Chip sein wird, den wir wahrscheinlich jemals in einem PC sehen werden. Die nächsten Generationen werden sich nicht auf dem Niveau bleiben.