Meinung Unified Memory für PC? Neue Prozessoren auf der CES 2024 - Verschlafene Chancen im PC-Sektor

Unified Memory für PC? Neue Prozessoren auf der CES 2024 - Verschlafene Chancen im PC-Sektor

Der PC-Branche geht es zwar wieder etwas besser und die zuletzt übervollen Lager sind deutlich abgeschwollen. Dennoch vermissten wir zur diesjährigen CES etwas frischen Wind im Bereich der PC-Prozessoren...

// 13:31 Fr, 19. Jan 2024von

Alle Jahre wieder nutzen AMD, Intel und Nvidia (aber nicht Apple) die Consumer Electronics Show in Vegas (CES), um Hardware Neuigkeiten für die kommenden Monate im adäquaten Licht vorzustellen. Mittlerweile sind die fetten Jahre für PC-Technik jedoch vorbei. Während sich um die Jahrtausendwende gefühlt mindestens eine Person in jedem deutschen Haushalt mit dem Thema PC auseinandersetzte und PC-Magazine mit Auflagen in halber Millionenhöhe gedruckt wurden, ist es mittlerweile sehr still um die PC-Schrauberei geworden.



Heute stellen sich fast nur nur noch Gamer (sowie Videobearbeitungs-Enthusiasten) einen erweiterungsfähigen PC im voluminösen Gehäuse unter den Schreibtisch. Apple sieht dagegen schon seit geraumer Zeit keinen Massenmarkt mehr für erweiterungsfähige Rechner - zum eigenen Mac Pro mit entsprechenden Erweiterungsmöglichkeiten fallen sogar dem Hersteller selbst kaum sinnvolle Erweiterungen ein, die den deutlichen Aufpreis gegenüber den Mac Studio Geräten rechtfertigen könnten.





Unified Memory - Alter Wein in neuen Schläuchen

So dominieren seit Jahren auf der CES Laptops sowie miniaturisierte PCs die Neuvorstellungen jenseits des Gamings. Und gerade in diesen Marktsegmenten hat Apple in den letzten Jahren der Windows-Welt die Rücklichter gezeigt: Denn Apples hauseigenes Silicon - die M-Prozessoren- nutzen für CPU und GPU-Aufgaben den selben Speicher. Unified Memory heißt hier das Schlagwort, das für speziell angepasste Anwendungen echte Geschwindigkeitsgewinne bei der Verarbeitung großer Datenberge bedeuten kann. Nämlich weil Daten bestenfalls nicht mehr zwischen CPU und GPU hin- und her-kopiert werden müssen.



AMDs mobile APU-Prozessoren vereinen CPU- und GPU-Kerne
AMDs mobile APU-Prozessoren vereinen CPU- und GPU-Kerne


Apple hat dieses Konzept allerdings nicht erfunden, sondern es waren Ingenieure von SGI, welche diese Idee erstmals in ihren Workstations -u.a. zu Videobearbeitung - verwirklichten. In den folgenden Jahren nutzten vor allem Spielekonsolen diese Technik, welche seinerzeit bereits von AMD mitentwickelt wurden. Schon seit dem Zukauf der ehemaligen Grafikkarten-Schmiede ATI vor fast zwei Jahrzehnten schwebte AMD die Kombination einer potenten GPU mit x86 CPU-Kernen vor (APU), doch erst in den letzten Jahren gelang es schließlich, wirklich konkurrenzfähige Designs zu entwickeln, die in diesem Jahr erstmals dedizierte Einsteiger-Grafikkarten in vielen Laptops und PCs überflüssig machen können.





AMDs APUs sind jetzt konkurrenzfähig - DDR5 machts möglich

Möglich macht dies vor allem der branchenweite Sprung von DDR4- auf DDR5-RAM. Hiermit sind bei einem zweikanaligen Speicherinterface Übertragungsraten von 100GB/s Sekunde möglich, was bisher außer Workstations nur dedizierte GPUs mit breit angebundenem GDDR-Ram geschafft haben. Dass sich die GPU-Kerne diesen Speicher in einer APU mit der CPU teilen müssen, wird bestenfalls durch die ausbleibenden Kopiervorgänge mindestens wettgemacht.



Ironischerweise finden sich die neuesten AMD-Designs nun jedoch nicht bei direkten Macbook Air Konkurrenten, sondern vor allem in mobilen Handheld-Spielekonsolen. Dies wird sich jedoch vielleicht in diesem Jahr ändern.






Auch Intel findet den GPU-Anschluss
Intels mobile Prozessoren legen wieder bei der GPU-Leistung zu
Intels mobile Prozessoren legen wieder bei der GPU-Leistung zu


Auch Intel hat die Leistung seiner integrierten GPUs deutlich erhöht und kann zu dieser CES seit langem wieder mobile CPUs vorstellen, die mit AMDs neuesten APUs nahezu auf Augenhöhe konkurrieren - wobei noch nicht ganz klar ist, ob Intel auch bei der Effizienz Anschluss finden kann.



Festzustellen ist jedenfalls, dass die neuen mobilen Prozessoren von AMD und Intel gegenüber Apples einfachen M-Chips wieder besser aufgestellt sind. Doch wir denken, dass dies nicht für neue Anwenderschichten genügt. AMD und/oder Intel müssten sich nur einen kleinen Schritt mehr bewegen und könnten damit Großes bewirken.





Dringend notwendig - breitere Speicherinterfaces

Wir sprechen hier von mehr Speicherkanälen für APUs. Hätten x86 APUs eine breitere Speicheranbindung, könnten sie auch diskrete Mittelklasse GPUs obsolet machen, wie es Apple mit seinen größeren Pro, Max und Ultra Modellen vorgemacht hat. Hier ließe sich richtig Geld verdienen, weil man diese APUs auch in teuren Laptops mit größerer Marge verkaufen kann.



Und genau deswegen wundern wir uns, warum besonders AMD (aber auch Intel) noch nicht auf diesen Zug aufgesprungen sind. Nur wenn PC-Notebook-Prozessoren wie Apples M-Prozessoren über den Speicherbus skalieren, kann es für den PC-Laptop-Markt in den nächsten Jahren noch relevante Leistungssprünge geben. Dass dagegen reines Prozessor-Shrinking durch neue Fertigungsprozesse kaum noch mehr Leistung ermöglicht, durfte aktuell Apple mit seiner neuen M3-Generation am eigenen Leib spüren.



Für den Videoschnitt wird dies bedeuten, dass Effekte unter Windows noch effektiver beschleunigt werden können, weil sich GPU und CPU endlich wie am Mac einen Speicher teilen und somit die CPU sehr komplexe Effekt Algorithmen mit vielen Sprüngen ausführen kann, während die Datenbearbeitung großer Pixel-Ströme vom GPU Part übernommen werden kann.



Doch auch für KI-Anwendungen kann Unified Memory am PC ungeahnte Türen öffnen. Denn mehr Speicherbandbreite bedeutet zugleich größerer maximaler Speicherausbau. APUs mit breiter Speicheranbindung könnten so viel mehr günstigen Speicher unterstützen, als diskrete GPUs (dGPUs). Dieser Speicher wäre zwar relativ langsam, aber große KI-Modelle könnten immerhin grundsätzlich laufen. Während aktuelle diskrete GPU-Modelle (dGPUs) unter 2.500 Euro auf maximal 24 GB Speicher limitiert sind, können APUs aktuell selbst mit heute schon existierenden zwei Speicherkanälen bereits 96 GB ansprechen. Mit vier Speicherkanälen wären es schon 192 GB. Und mit acht nach heutigem Stand 384 GB. Doch acht Speicherkanäle bieten aktuell nur PC-basierte Workstations wie Intels Xeons oder AMDs Threadripper/EPYC-Serien.



Apple beherrscht mit seinen Ultra-Prozessoren 800GB/s Unified Memory.
Apple beherrscht mit seinen Ultra-Prozessoren 800GB/s Unified Memory.


Eine AMD APU, die wie der Mac-Ultra Prozessor 800GB/s Speicherdurchsatz nutzen kann, wäre sowohl für die Videobearbeitung als auch für KI eine extrem begehrenswerte Technologie. Besonders weil Apple sich große Speicher-Ausstattungen weiterhin fürstlich bezahlen lässt (wie Nvidia auch). Selbst wenn die DRAM-Preise wieder deutlich anziehen sollten, würden 192 GB RAM als PC-Ausstattung noch weit unter 1000 Euro kosten. Und Anwendern KI-Modelle jenseits der Cloud ermöglichen, die aktuell nur auf GPUs über 30.000 Dollar genutzt werden können - und die bereits in diesem Jahr für KI-Videoeffekte höchst interessant werden dürften.




Warum (noch) nicht?

Auch weil AMD und Intel mit Apple wieder direkt konkurrieren wollen (was beide Firmen immer wieder anmerken), müssen sie den Weg des Unified Memory mit breiteren Speicherpfaden beschreiten. Beide Firmen haben auch schon länger das Know-how dazu und es ist nur eine Frage der Zeit, bis sie es auch nutzen werden. Und gerade deswegen ist es besonders schade, dass man in dieser Richtung auf der CES 2024 noch nichts anzukündigen hatte.



Ähnliche Artikel //
Umfrage
    Meine nächste Kamera wird eine










    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash