AMDs APUs sind jetzt konkurrenzfähig - DDR5 machts möglich

Möglich macht dies vor allem der branchenweite Sprung von DDR4- auf DDR5-RAM. Hiermit sind bei einem zweikanaligen Speicherinterface Übertragungsraten von 100GB/s Sekunde möglich, was bisher außer Workstations nur dedizierte GPUs mit breit angebundenem GDDR-Ram geschafft haben. Dass sich die GPU-Kerne diesen Speicher in einer APU mit der CPU teilen müssen, wird bestenfalls durch die ausbleibenden Kopiervorgänge mindestens wettgemacht.



Ironischerweise finden sich die neuesten AMD-Designs nun jedoch nicht bei direkten Macbook Air Konkurrenten, sondern vor allem in mobilen Handheld-Spielekonsolen. Dies wird sich jedoch vielleicht in diesem Jahr ändern.






Auch Intel findet den GPU-Anschluss
Intels mobile Prozessoren legen wieder bei der GPU-Leistung zu
Intels mobile Prozessoren legen wieder bei der GPU-Leistung zu


Auch Intel hat die Leistung seiner integrierten GPUs deutlich erhöht und kann zu dieser CES seit langem wieder mobile CPUs vorstellen, die mit AMDs neuesten APUs nahezu auf Augenhöhe konkurrieren - wobei noch nicht ganz klar ist, ob Intel auch bei der Effizienz Anschluss finden kann.



Festzustellen ist jedenfalls, dass die neuen mobilen Prozessoren von AMD und Intel gegenüber Apples einfachen M-Chips wieder besser aufgestellt sind. Doch wir denken, dass dies nicht für neue Anwenderschichten genügt. AMD und/oder Intel müssten sich nur einen kleinen Schritt mehr bewegen und könnten damit Großes bewirken.




Dringend notwendig - breitere Speicherinterfaces

Wir sprechen hier von mehr Speicherkanälen für APUs. Hätten x86 APUs eine breitere Speicheranbindung, könnten sie auch diskrete Mittelklasse GPUs obsolet machen, wie es Apple mit seinen größeren Pro, Max und Ultra Modellen vorgemacht hat. Hier ließe sich richtig Geld verdienen, weil man diese APUs auch in teuren Laptops mit größerer Marge verkaufen kann.



Und genau deswegen wundern wir uns, warum besonders AMD (aber auch Intel) noch nicht auf diesen Zug aufgesprungen sind. Nur wenn PC-Notebook-Prozessoren wie Apples M-Prozessoren über den Speicherbus skalieren, kann es für den PC-Laptop-Markt in den nächsten Jahren noch relevante Leistungssprünge geben. Dass dagegen reines Prozessor-Shrinking durch neue Fertigungsprozesse kaum noch mehr Leistung ermöglicht, durfte aktuell Apple mit seiner neuen M3-Generation am eigenen Leib spüren.



Für den Videoschnitt wird dies bedeuten, dass Effekte unter Windows noch effektiver beschleunigt werden können, weil sich GPU und CPU endlich wie am Mac einen Speicher teilen und somit die CPU sehr komplexe Effekt Algorithmen mit vielen Sprüngen ausführen kann, während die Datenbearbeitung großer Pixel-Ströme vom GPU Part übernommen werden kann.



Doch auch für KI-Anwendungen kann Unified Memory am PC ungeahnte Türen öffnen. Denn mehr Speicherbandbreite bedeutet zugleich größerer maximaler Speicherausbau. APUs mit breiter Speicheranbindung könnten so viel mehr günstigen Speicher unterstützen, als diskrete GPUs (dGPUs). Dieser Speicher wäre zwar relativ langsam, aber große KI-Modelle könnten immerhin grundsätzlich laufen. Während aktuelle diskrete GPU-Modelle (dGPUs) unter 2.500 Euro auf maximal 24 GB Speicher limitiert sind, können APUs aktuell selbst mit heute schon existierenden zwei Speicherkanälen bereits 96 GB ansprechen. Mit vier Speicherkanälen wären es schon 192 GB. Und mit acht nach heutigem Stand 384 GB. Doch acht Speicherkanäle bieten aktuell nur PC-basierte Workstations wie Intels Xeons oder AMDs Threadripper/EPYC-Serien.



Apple beherrscht mit seinen Ultra-Prozessoren 800GB/s Unified Memory.
Apple beherrscht mit seinen Ultra-Prozessoren 800GB/s Unified Memory.


Eine AMD APU, die wie der Mac-Ultra Prozessor 800GB/s Speicherdurchsatz nutzen kann, wäre sowohl für die Videobearbeitung als auch für KI eine extrem begehrenswerte Technologie. Besonders weil Apple sich große Speicher-Ausstattungen weiterhin fürstlich bezahlen lässt (wie Nvidia auch). Selbst wenn die DRAM-Preise wieder deutlich anziehen sollten, würden 192 GB RAM als PC-Ausstattung noch weit unter 1000 Euro kosten. Und Anwendern KI-Modelle jenseits der Cloud ermöglichen, die aktuell nur auf GPUs über 30.000 Dollar genutzt werden können - und die bereits in diesem Jahr für KI-Videoeffekte höchst interessant werden dürften.




Warum (noch) nicht?

Auch weil AMD und Intel mit Apple wieder direkt konkurrieren wollen (was beide Firmen immer wieder anmerken), müssen sie den Weg des Unified Memory mit breiteren Speicherpfaden beschreiten. Beide Firmen haben auch schon länger das Know-how dazu und es ist nur eine Frage der Zeit, bis sie es auch nutzen werden. Und gerade deswegen ist es besonders schade, dass man in dieser Richtung auf der CES 2024 noch nichts anzukündigen hatte.



Leserkommentare // Neueste
Frank Glencairn  //  08:33 am 21.1.2024
Man muß allerdings auch sagen, daß es nur sehr wenige - sehr spezialisierte und winzige - Nischen-Bereiche (z.b. 3D Rendering) gibt, die CPUs überhaupt auslasten können. Bei...weiterlesen
patfish  //  22:36 am 20.1.2024
Die CPU Entwicklung am PC ist in den letzten 5, 6 Jahren wirklich dezent langweilig... die "Fortschritte" haben fast alle nur im Bereich der Grafikkarte und Festplatte...weiterlesen
dienstag_01  //  20:58 am 19.1.2024
Aus dem Artikel: *Während aktuelle diskrete GPU-Modelle (dGPUs) unter 2.500 Euro auf maximal 24 GB Speicher limitiert sind, können APUs aktuell selbst mit heute schon...weiterlesen
Ähnliche Artikel //
Umfrage
    Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
RSS Facebook Twitter slashCAM-Slash