Es wird zwar immer von der Akkulaufzeit geredet, aber letztlich sind die kleinen, leichten Apples doch für Ansteckfaule oder Sessel-Chatter.rush hat geschrieben: ↑Mi 16 Dez, 2020 20:12 Naja die verheizte Verlust-Leistung darf man dabei schon nicht völlig ausblenden... Am Netz ist das relativ egal, aber "on the Go" ist ein länger durchhaltender Akku durchaus ein Vorteil. Und da wird der Apple dann bei vergleichbarer Leistung einfach spürbar länger laufen aufgrund der geringeren Leistungsaufnahme.
Man muss kein Apple Fan sein - aber sie bekommen dieses System-in-a-Chip Prinzip aktuell ziemlich clever hin, da hat es die Konkurrenz nicht einfach.
Solange es da keine Design-Flaws / Defekte innerhalb des System gibt ist das schon eine coole Lösung die es erleichtert Software dafür zu optimieren. Und die Pro Varianten lassen ja noch Luft nach oben. Und das sage ich als Windows Nutzer ;-)
Tja - und der arme M1X muss allein werkeln, während sich der AMD auch Verstärkung holen kann.steinhans hat geschrieben: ↑Mi 16 Dez, 2020 20:48 Hmm, Acht High Performance Cores gegen Vier. Gleiche Multi Core Leistung, da bleibt aber beim AMD irgendwie nix übrig von dem tollen Single Core Wert...45 Watt gegen 15 Watt - Augenhöhe sieht anders aus. D.h. eigentlich das der M1 3x so schnell ist und das wird der M1X mit 45 Watt dann auch sein. Und Tschüss...
NEIN auch wenn sich’s manche zusammenreimen wollen.. und man sollte dazu sagen LEIDER denn Konkurrenz belebt das Geschäft..AMDs kommender Ryzen 7 5800H - auf Augenhöhe mit Apples M1?
Das will doch auch gar keiner, darum wundert mich auch dieser Beitrag...Aber den Vorteil einer dedizierten AMD oder Nvidia GPUs kann man je nach Game oder Anwendung eben auch nicht von der Hand weisen, deswegen schrieb ich anwendungsbezogen.
Ich denke nach obenhin ist das ganze schon durch den Stromverbrauch gedeckelt. Oder hast du einen Rechner mit Drehstromanschluß und der Größe eines Kühlschrankes bei dir rumstehen. Das wird nötig sein um Konkurrenzfähig zu bleiben. Eine 128 Core GPU von Apple könnte bei 80 Watt eine 350 Watt Nvidia Top Karte um 50% überbieten. Mit 80 Watt könnte die sogar noch im SOC enthalten sein...warten's wir ab was kommt. Aber auf Dauer siegt die effektivere Technik, da besser und weiter skalierbar.TOBIUNDTRON hat geschrieben: ↑Do 17 Dez, 2020 10:14 Ich hab nicht viel Ahnung von Benchmarks etc. aber....: Wer zu Hölle achtet bei Videobearbeitung, Postproduktion oder Motiongraphics auf Stromverbrauch?? Gibt es wirklich Menschen die im Sommer im Park sitzen und und auf ihren slicken Apple Laptops ernsthaft Videoproduktion betreiben? ...wie uns manche Shutterstock Clips suggerieren wollen :-D. Ich müsste dann eh noch ein Notstromaggregat mitnehmen für meine zwei Monitore, Resolve Panel und Boxen. Da könnte ich dann auch noch den Laptop anschliessen.... :-) Und schnell mal zum Kunden und ihm im Meeting einen vorrendern gibts auch eher selten bei uns...
...also wtf?
Ich persönlich denke, dass Apple hier wirklich was Tolles geliefert hat. Aber die Präsentation mit so Aussagen wie "3x schneller als Irgendwas, das wir nicht genau sagen", war in meinen Augen unnötig grenzwertig. Aber es hat funktioniert. In meinem Umfeld glauben einige jetzt, dass die neuen Apple Notebooks deutlich schneller als die schnellsten PC-Notebooks sind. Das ist erfolgreiche PR.
Intel falls on report Microsoft plans to design own chips for PCs and serversGummibando hat geschrieben: ↑Do 17 Dez, 2020 09:50 Ich könnte mir gut vorstellen, dass wenn man in 10 Jahren zurückschaut, der M1 den schleichenden Niedergang von CISC und der x86-ISA – in der gesamten Branche – eingeläutet hatte.