Der PC stirbt einen langsamen Tod
Zum fünften Mal in Folge sinken die Verkaufszahlen pro Quartal. Auch wenn der PC in weiten Teilen der Welt einen zweiten Frühling feiert, wird er als zentrales Technik-Werkzeug zum Auslaufmodell. Die Zukunft gehört den Web-Handys.
2007
Der Computer auf dem Schreibtisch stirbt aus
Der Desktop war lange ein Prestigeobjekt – schwer und laut, aber mächtig. Das mobile Internet macht ihn überflüssig. Hersteller wie AMD und Intel kämpfen mit dem Wandel.
2013
Der Desktop-PC stirbt langsam aus
In immer weniger deutschen Haushalten steht ein Desktop-PC. Stattdessen setzen die Deutschen auf mobile Computer wie Notebooks und Tablet-PCs.
2013
Der PC stirbt einen schönen Tod
Auf einen PC kommen inzwischen fünf verkaufte Smartphones. Die Welt wird nicht nur digitaler, sondern auch immer mobiler.
Schon im sechsten Jahr in Folge ist der Absatz von Laptops und Desktop-Computern gesunken. Das hat das Marktforschungsunternehmen Gartner ausgerechnet.
2018
Kann ich mir ehrlich gesagt nicht vorstellen.cantsin hat geschrieben: ↑Do 22 Aug, 2024 18:57 Ich schrieb ja nicht, dass die stationären Rechner aussterben, sondern die klassische PC-Architektur.
Lest Euch mal den Artikel oben vollständig durch und was darin über die architekturbedingt drastisch lahmere Hauptspeicheranbindung klassischer PCs ggü. modernen SoCs steht.
Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Gibt´s doch schon längst.
Wird nicht passieren - bei hochintegrierten SoCs wäre das reine Platzverschwendung. Und bei allem was modular sein muss macht so eine SoC keinen Sinn, da Modularität beschnitten wird, der KSP von den "Kisten". Siehe aktueller Mac Pro - Aufrüstung der GPU Leistung - geht nicht...(Okay ist zugegebenermaßen ein eher ein Apple-spezifisches Problem).cantsin hat geschrieben: ↑Do 22 Aug, 2024 18:57 Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Ist doch in der Mac-Welt längst passiert?!? Mit den aktuellen Mac Mini/Mac Studio-Modellen?markusG hat geschrieben: ↑Fr 23 Aug, 2024 09:42Wird nicht passieren - bei hochintegrierten SoCs wäre das reine Platzverschwendung.cantsin hat geschrieben: ↑Do 22 Aug, 2024 18:57 Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Denn selbst die modernsten Mainboards für Desktop Rechner können nur mit zwei RAM-Bänken (Dual Channel RAM) bestückt werden, was bei günstigen DDR4-Modellen gerade mal Datenraten im Bereich von ungefähr 30 GB/s ermöglicht. Und sogar die teuersten Desktop-Boards mit zwei DDR5 Kanälen schaffen in Kombination mit dem teuersten RAM nur knapp 80 GB/s, was zwar für viele Fälle ausreichend scheint, jedoch nicht besonders zeitgemäß ist. Eine schnelle Hauptspeicheranbindung ermöglicht nicht nur besonders viele Farbkorrektur-Masken in Resolve, sondern erhöht auch allgemein den flüssigen/reibungslosen Ablauf vieler Funktionen der Bedienoberfläche.
Wirklich schlecht sind die typischen 70 GB/s natürlich auch nicht, aber wenn man auf Macs schielt, die aktuell bis zu 800 GB/s hinbekommen, sehen Desktop-PCs in dieser Disziplin einfach alt aus.
Wenn ein Rechner bis zu 4mal schneller die geforderte Aufgabe abarbeitet, als der Mac, dann ist das ein durchaus signifikanter Unterschied.cantsin hat geschrieben: ↑Fr 23 Aug, 2024 10:03Ist doch in der Mac-Welt längst passiert?!? Mit den aktuellen Mac Mini/Mac Studio-Modellen?
Ich zitiere noch mal den Slashcam-Artikel:
Denn selbst die modernsten Mainboards für Desktop Rechner können nur mit zwei RAM-Bänken (Dual Channel RAM) bestückt werden, was bei günstigen DDR4-Modellen gerade mal Datenraten im Bereich von ungefähr 30 GB/s ermöglicht. Und sogar die teuersten Desktop-Boards mit zwei DDR5 Kanälen schaffen in Kombination mit dem teuersten RAM nur knapp 80 GB/s, was zwar für viele Fälle ausreichend scheint, jedoch nicht besonders zeitgemäß ist. Eine schnelle Hauptspeicheranbindung ermöglicht nicht nur besonders viele Farbkorrektur-Masken in Resolve, sondern erhöht auch allgemein den flüssigen/reibungslosen Ablauf vieler Funktionen der Bedienoberfläche.
Wirklich schlecht sind die typischen 70 GB/s natürlich auch nicht, aber wenn man auf Macs schielt, die aktuell bis zu 800 GB/s hinbekommen, sehen Desktop-PCs in dieser Disziplin einfach alt aus.
Bei den aktuellen Macbooks und dem Mac Mini sehen wir doch, dass SoCs hinreichende Leistung selbst für Resolve, 10bit-h265 und Raw-Video bieten und das selbst bei Apple niedrigeren Preisen als für PC-Systeme mit vergleichbarer Performance.
Da jetzt die erste Generation von ARM-Hochleistungs-SoC-Notebooks für WIndows auf den Markt kommt, wiederholt sich das ganze Spiel in der Windows-Welt. Und absehbar wieder so, dass die Windows-Systeme erheblich preiswerter als die Apple-Systeme sein werden.
Der Punkt ist nicht, dass sich jemand für höchste Workstation-Leistung immer noch einen PC für ein paar tausend Euro bauen wird. Sondern, was passiert, wenn wie bei Apple in der Windows-Welt ein SoC-ARM-Rechner für 700-1500 EUR Leistung bringt, die den meisten Videobearbeitern genügt und gleichpreisige klassische Intel-/AMD-PCs deutlich übertrifft. Dann ändert sich, wie bei Apple, der Normal- bzw. Regelfall.
Ich auch:
Diese SoCs/Arm/M Technik ist hauptsächlich für Stromsparer interessant (also Laptops) - wenn es wirklich um reine Leistung geht (auch um Leistung per Euro) sind modulare Custombuild-Workstations nicht zu toppen.Wer viel nackte GPU Rechenleistung für seine Effekte sucht, bekommt am Mac "nur" maximal 27.2 TFLOPS FP32-Rechenleistung (M2 Ultra, ab ca. 6000 Euro) während man bei Nvidia aktuell unter 1.800 Euro rund die dreifache GPU-Rechenleistung erhält (85.03 TFLOPS (FP32), RTX 4090). "On top" bekommt man mit einer Nvidia Karte auch noch eine sehr gute Unterstützung für KI-beschleunigte Effekte.
Genau die Modelle sind ja eben nicht der "Desktop" - sondern Mini-PCs (okay das Studio ist nen Zwitter). Den Mac Pro gibt es ja auch noch, und da ist es Platzverschwendung. Der Mac Mini wird ja nun angeblich auch noch weiter geschrumpft, da macht das alles auch Sinn (ebenso bei nem AIO a la iMAC). Aber nicht bei einem Computer den man sich unterm Schreibtisch stellt.
Bisher hinkt ARM noch hinterher (ob's an Windows liegt...). Apple hat da eine andere Position.
Ist ja nicht der Fall wie im Artikel von Slashcam beschrieben (siehe Franks Post). Interessant sind ja nicht irgendwelche Specs wie Datendurchsatz, sondern das was am Ende dabei rauskommt. Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio). Oder genauer: kommt auf den Aufgabenbereich an (Blender anyone? Unreal Engine?). Zumal bei Apple zusätzlich keine eGPU möglich ist, k.A. wie es bei Qualcom & co ausschaut...cantsin hat geschrieben: ↑Fr 23 Aug, 2024 10:03wenn wie bei Apple in der Windows-Welt ein SoC-ARM-Rechner für 700-1500 EUR Leistung bringt, die den meisten Videobearbeitern genügt und gleichpreisige klassische Intel-/AMD-PCs deutlich übertrifft. Dann ändert sich, wie bei Apple, der Normal- bzw. Regelfall.
Geben ja. Aber für 3.000 Eur plus X (14900hx 4090m) und nicht mit der Effizienz wie bei Apple.
Es gibt auch Notebooks für 300 Euro.
Sowas habe ich jetzt als Unterwegsrechner. Darauf läuft Resolve nur bis zur Version 17.4.
GPU und ihr Speicher möglicherweise.
Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
Aber genau das ist in der Praxis doch längst kein Problem mehr.cantsin hat geschrieben: ↑Fr 23 Aug, 2024 13:53Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
(Und wenn ich mir den Wikipedia-Artikel "Desktop Computer" durchlese, habe ich wohl recht: https://en.wikipedia.org/wiki/Desktop_computer "Desktop computer" bedeutet ja auch im Wortsinne "Rechner, der auf dem Schreibtisch steht".)
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
Nun, diese Mini-PCs mit ARM (ob Apple oder künftig Qualcom) haben keinen Vorteil gegenüber Laptops (außer evtl. mehr Anschlüsse), daher sehe ich sie nicht wirklich relevant als Unterscheidungsmerkmal ggü. "Tower" PCs. Und wie gesagt sind wir bereits bei ausreichender Leistung, egal ob Mac Mini oder AMD APU.
Das übernehmen dann die Intel-CPUs (bz. iGPUs) afaik seit der 11. Generation - auch die Einstiegsmodelle; und bei einem Desktop mit AMD CPU kann man sich eine ARC GPU dazustecken, falls das wirklich notwendig ist; idR wird das unnötig sein da man ja nicht auf die Leistungsaufnahme schielen muss. Und bei der Pugetlist kommt man jedenfalls auch mit ner zB RTX3080 noch sehr gut weg - wie gesagt geht's nicht um nackte Zahlen aufm Papier, sondern was am Ende nutzbar ist und was man für Projekte/Assets nutzt.cantsin hat geschrieben: ↑Fr 23 Aug, 2024 13:53 In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...
Ja, und die Frage ist halt, was dann zum Mainstream wird. Wenn zur Effizienz noch bessere Performance in der +/- 1000 EUR-Preisklasse hinzukommt, und die Geräte für die meisten Bildbearbeiter "genug gut" sind, wird sich das IMHO durchsetzen. Bei den Macs haben ich jedenfalls noch keine Klagen über den Architekturwechsel gehört, und der Anteil Mac-Nutzer in unser Community ist ja hoch.
Das ist als ob ich fragen würde ob sich eher ein Ferrari oder ein Traktor durchsetzten wird.
Ich frage mich natürlich, warum es bei Dir so rasend schnell gehen muss:VBehrens hat geschrieben: ↑Fr 23 Aug, 2024 23:24 Wer wirklich ein TOP System zum Videoschnitt möchte, muß deutlich mehr Geld ausgeben.
Die im Artikel genannten Geräte würde ich deswegen eher als "Spielzeug für Energiesparer" bzeichnen.
Ich spare nicht an Energie, um wirklich schnell Videos zu schneiden und zu rendern.
Natürlich nicht - schon gar nicht bei der vergleichsweise lächerlichen Leistungsaufnahme eines Rechners.
Ganz Deiner Meinung. Dazu kommen die aktuellen Stabilitätsprobleme bei Intel. Hardware-Bug ist Mist. Außerdem: In welchem Umfang wird gedrosselt, damit in den Mini-Gehäusen der Hitzetod nicht eintritt? Was an Komponenten verbaut ist, sagt nichts über die tatsächliche Leistungsfähigkeit aus. Bei Mobilgeräten bleibt im Grunde nur ein Apple. Was die sich aber traditionell sehr gut bezahlen lassen.cantsin hat geschrieben: ↑Fr 23 Aug, 2024 13:53Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
(Und wenn ich mir den Wikipedia-Artikel "Desktop Computer" durchlese, habe ich wohl recht: https://en.wikipedia.org/wiki/Desktop_computer "Desktop computer" bedeutet ja auch im Wortsinne "Rechner, der auf dem Schreibtisch steht".)
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
Es hat insofern was damit zu tun, dass zB die Unreal Engine vermehrt in Filmproduktionen eingesetzt wird. Aber das dürfte für die meisten hier eine Randnotiz sein.
Hatte den Erfahrungsbericht weiter oben verlinkt:
Da gebe ich Dir ja recht, wobei der passende Vergleich eher Geländewagen (Workstation-PC) versus VW Golf (ARM-SoC-Mac und demnächst auch -PC) wäre.Frank Glencairn hat geschrieben: ↑Sa 24 Aug, 2024 06:53Das ist als ob ich fragen würde ob sich eher ein Ferrari oder ein Traktor durchsetzten wird.
Wir reden von völlig verschiedenen Tools für verschiedene Anwendungen, die dann halt alle ihre Vor- und Nachteile haben.
Die meisten Mac Besitzer die ich kenne sind extrem leidensfähig.
Weil er 25.000 aufwärts kosten würde, und trotzdem nicht so wirklich Power hat - siehe den letzten Versuch von Apple.
Projektionen sind immer problematisch.cantsin hat geschrieben: ↑Sa 24 Aug, 2024 11:50
So, und jetzt projizieren wir dieses Szenario mal auf die Zukunft der Windows-Plattform... (Wo ohnehin die große Masse von reinen PC-Büroarbeitern mit ARM-SoCs besser bedient sein wird, wegen Energieverbrauch, Platzverbrauch, Geräuscharmut und Preis-/Leistung.)
Gab aber auch solche, die an ihren überhitzenden/übertaktenden (und deshalb dann drosselnden = throttle'nden') PC-Notebooks mit Intel-Prozessoren (Turbobooster = Turbopuster) bzw. den zu heissen Desktop-GraKa's darin litten und ganz froh waren, auf Apples schnelles & kühles & Akku-schonendes M-System umsteigen zu können! ;-)Frank Glencairn hat geschrieben: ↑Sa 24 Aug, 2024 15:47Die meisten Mac Besitzer die ich kenne sind extrem leidensfähig.
Außerdem wissen sie oft nicht, daß sie leiden, weil sie seit 20 Jahren keinen PC mehr angefaßt haben.
;-)
...
...