Anfang des Jahres hatte Nvidia unter dem Projektnamen DIGITS eine KI-Mini-Tischcomputer-Workstation angekündigt, die es in sich haben sollte: Basierend auf NVIDIAs Grace/Blackwell-Architektur sollte das System bis zu 1 Petaflop KI-Leistung bei FP4 Quantisierung liefern. Dazu gesellen sich eine 20-Core-ARM-CPU, 128 GB DDR5 Unified Memory sowie eine bis zu 4 TB große SSD. Und das Ganze sollte noch im Mai ab 3.000 Dollar zu haben sein.
Nun haben es stattdessen die auf der GTC 2025 veröffentlichten Spezifikationen und Modelle in sich, die viele potentielle Kunden eher enttäuschen dürften. Zuallererst kostet der DGX Sparc mit 4 TB Speicher bei Nvidia mit 3.999 US-Dollar satte 1.000 Dollar mehr. Ein Einstiegsmodell soll von Asus allerdings mit 1 TB für 3.000 Dollar schnell folgen.

Die größere Enttäuschung ist jedoch die Hauptspeicheranbindung: Hier werden entgegen der hohen Erwartungen nur 256 Bit Busbreite angeboten - und das bedeutet, dass die 128 GB LPDDR5x auf eine Bandbreite von gerade einmal 273 GB/s kommen werden. Dies ist für KI-Anwendungen deutlich zu wenig. Nutzt man beispielsweise ein KI-Sprachmodell, welches mit 100GB fast den gesamten Hauptspeicher belegt, so könnte dieses Modell pro Sekunde nur 2-3 sogenannte Token generieren. Ein Token lässt sich ungefähr mit einer Silbe beschreiben, d.h. der Output läge durchschnittlich im Bereich eines Wortes pro Sekunde. Dies ist für praktisch jede Anwendung mit großem Speicherbedarf zu langsam.
// Top-News auf einen Blick:
- Blackmagic DaVinci Resolve 20 Beta 2 bringt neue Funktionen und Bugfixes
- Blackmagic Camera for Android 2.1 bringt neue Features
- Neuer superschneller PoX Flash-Speicher könnte DRAM und SSDs ersetzen
- Achtung: Verpixelte Videos können wieder kenntlich gemacht werden
- KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer ...
- Beleuchtung für Foto und Video lernen mit kostenlosem Tool von Google
Das Beispiel ist nicht aus der Luft gegriffen, da man in der Regel genau für solche Modelle Speichergrößen von 128 GB und mehr benötigt. Doch nicht nur das: AMD hat mit Strix Halo praktisch die gleichen Rahmendaten als Laptop-SOC-Lösung schon verkaufsbereit - wahrscheinlich deutlich unter 2.000 Euro. Und Apple kann bereits mit dem M4 Max Prozessor für 4.000 Dollar schon heute eine doppelt so schnelle 128 GB RAM-Speicheranbindung anbieten (546 GB/s) - und wird auch schon aktiv für große Sprachmodelle eingesetzt.
Kurz gesagt, für KI ist die DGX Sparc nun ziemlich "underwhelming" geraten - was zugleich belegt, wie selbstsicher sich Nvidia ist, dass sie ihr CUDA-Alleinstellungsmerkmal auch auf dem Desktop mit einem satten Aufpreis anbieten können. Es ist zwar zu erwarten, dass Universitäten und andere Ausbildungsstätten hier vielleicht größere Stückzahlen für den CUDA-Unterricht ordern werden. KI-Frickler und -Bastler werden dagegen sicherlich eher zu den günstigeren und/oder besseren Alternativen greifen. Denn zum Experimentieren taugen ROCm oder Triton als Framework mittlerweile ebenso.
Auch dass sich eine DGX Sparc eventuell als besonders effiziente DaVinci Resolve Workstation erweisen könnte, ist mit der nun veröffentlichten Speicherbandbreite "vom Tisch". Denn selbst der kleinste Mac Mini mit M4 Pro Chip könnte unter Resolve sicher schneller rendern.