Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Neuer GPU Gamechanger?



Frage von Frank Glencairn:


image_2025-03-10_202332527.png New Challenger To NVIDIA's RTX 5090: Zeus Graphics Card Promises 10x Power

Last week, startup Bolt Graphics unveiled Zeus, an entirely new graphics card tailored for high-performance workloads, including rendering and gaming. Zeus aims to overcome traditional GPUs' performance, efficiency, and functionality limitations.

Zeus boasts unique features such as expandable memory and built-in Ethernet interfaces, and it will be available in several form factors, including PCIe cards, servers, and cloud-based solutions. In the future, Bolt plans to expand Zeus into smartphones, tablets, laptops, consoles, and cars, creating a unified GPU architecture across multiple platforms.

The official announcement makes no mention of AI. According to the slides published by ServeTheHome, Bolt compares its Zeus GPU to the NVIDIA GeForce RTX 5090, claiming it's 10 times faster.

However, an analysis by Tom's Hardware highlights a key drawback: Zeus outperforms the RTX 5090 only in path tracing and FP64 compute workloads, as it lacks support for traditional rendering techniques, which reduces its potential to become one of the top graphics cards.

Bolt's Glowstick path tracing rendering engine could provide a promising in-house solution for real-time rendering, making it well-suited for professional visualization applications. Compared to existing solutions, Bolt claims up to 2.5x faster performance on single-chip variants, with even greater scaling potential when using multiple GPUs.

Since Zeus is based on RISC-V, it also has the potential to leverage existing open-source tools and libraries. Still, it remains unclear whether Zeus will support industry-standard frameworks like OpenCL, Vulkan, and CUDA translation layers, critical components for gaining traction in HPC workloads. As for availability, Bolt Graphics states that the first developer kits will be released in late 2025, with full production scheduled for late 2026.
Klingt an sich ja vielversprechend, aber ne unbekannt Firma die 10x schneller sein will als Nvidia?

Ich würde sagen das ist ein Bolt Claim :D

Warten wir's ab, es bleibt spannend.

Space


Antwort von macaw:

Zu wünschen wäre es. Nvidia hat zwar ne ganze Zeitlang geliefert, sind aber so langsam zu einem Intel 2.0 mutiert...

Space


Antwort von macaw:

Die sollten sich mit einen von diesen Firmen (beide interessanterweise aus Deutschland) zusammentun, die optische CPUs entwickeln:

https://www.akhetonics.com/technology

oder

https://qant.com/photonic-computing/

Das würde den explodierenden Stromhunger mal etwas zügeln...

Space


Antwort von StanleyK2:

Alles zu schön um wahr zu sein, Vaporware und Visionen. Wir werden noch eine ganze Weile mit den bekannten Lösungen leben müssen.

Space


Antwort von macaw:

Ich glaube das alles auch erst, wenn es
1. erhältlich ist
2. die gemachten Versprechungen erfüllt
3. bezahlbar ist

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
image_2025-03-10_202332527.png

New Challenger To NVIDIA's RTX 5090: Zeus Graphics Card Promises 10x Power

Last week, startup Bolt Graphics unveiled Zeus, an entirely new graphics card tailored for high-performance workloads, including rendering and gaming. Zeus aims to overcome traditional GPUs' performance, efficiency, and functionality limitations.

Zeus boasts unique features such as expandable memory and built-in Ethernet interfaces, and it will be available in several form factors, including PCIe cards, servers, and cloud-based solutions. In the future, Bolt plans to expand Zeus into smartphones, tablets, laptops, consoles, and cars, creating a unified GPU architecture across multiple platforms.

The official announcement makes no mention of AI. According to the slides published by ServeTheHome, Bolt compares its Zeus GPU to the NVIDIA GeForce RTX 5090, claiming it's 10 times faster.

However, an analysis by Tom's Hardware highlights a key drawback: Zeus outperforms the RTX 5090 only in path tracing and FP64 compute workloads, as it lacks support for traditional rendering techniques, which reduces its potential to become one of the top graphics cards.

Bolt's Glowstick path tracing rendering engine could provide a promising in-house solution for real-time rendering, making it well-suited for professional visualization applications. Compared to existing solutions, Bolt claims up to 2.5x faster performance on single-chip variants, with even greater scaling potential when using multiple GPUs.

Since Zeus is based on RISC-V, it also has the potential to leverage existing open-source tools and libraries. Still, it remains unclear whether Zeus will support industry-standard frameworks like OpenCL, Vulkan, and CUDA translation layers, critical components for gaining traction in HPC workloads. As for availability, Bolt Graphics states that the first developer kits will be released in late 2025, with full production scheduled for late 2026.
Klingt an sich ja vielversprechend, aber ne unbekannt Firma die 10x schneller sein will als Nvidia?

Ich würde sagen das ist ein Bolt Claim :D

Warten wir's ab, es bleibt spannend.
1. Das Rad müssen die nicht neu erfinden.
2. Bei den Renditen, die Nvidia aktuell erzielt, fließt schnell mal sehr viel Kapital in ein solches Projekt.
3. Mit dem üppigen Kapital können sie sich die Leute holen, die über das Wissen verfügen, das notwendig ist.
4. Die Produktion ist eh kein Problem, da es Auftragsfertiger gibt.

Space


Antwort von TheBubble:

Es reicht nicht wenn eine GPU besser ist, sie müsste auch zu attraktiveren Preisen verfügbar sein, denn das ist im Augenblick ein Kernproblem. NVIDIA würde sicherlich gerne mehr liefern, aber wo sollen die Fertigungskapazitäten herkommen?

Zusätzlich müsste im Fall von Compute-Workloads auch noch ein bisheriger Lock-In-Effekt überwunden werden. Das wird aber nur gelingen, wenn Leistung und Preis so viel besser sind, dass sich aufwendige und teure Software-Anpassungen oder Neuentwicklungen lohnen.

Die Probleme sind vielschichtig.

Space


Antwort von iasi:

TheBubble hat geschrieben:
Es reicht nicht wenn eine GPU besser ist, sie müsste auch zu attraktiveren Preisen verfügbar sein, denn das ist im Augenblick ein Kernproblem. NVIDIA würde sicherlich gerne mehr liefern, aber wo sollen die Fertigungskapazitäten herkommen?

Zusätzlich müsste im Fall von Compute-Workloads auch noch ein bisheriger Lock-In-Effekt überwunden werden. Das wird aber nur gelingen, wenn Leistung und Preis so viel besser sind, dass sich aufwendige und teure Software-Anpassungen oder Neuentwicklungen lohnen.

Die Probleme sind vielschichtig.
Wenn derart hohe Renditen winken und die Diskrepanz zwischen Nachfrage und Angebot derart groß ist, sind die Probleme sehr schnell aus dem Weg geräumt - egal, wie vielschichtig sie sind.

Nvidia fährt Traumrenditen ein.
Wenn Bolt Graphics ihre Zeus überzeugend präsentiert, werden sie von Investoren überrannt und können jede Hürde mit Geld wegschwemmen.

Space


Antwort von TheBubble:

iasi hat geschrieben:
Wenn derart hohe Renditen winken und die Diskrepanz zwischen Nachfrage und Angebot derart groß ist, sind die Probleme sehr schnell aus dem Weg geräumt - egal, wie vielschichtig sie sind.
Der Bau von Fabs dauert Jahre, kostet Milliarden und bis ein Prozess die erforderlichen hohen Ausbeuten liefert vergeht noch einmal eine gewisse Zeit. Und sobald danach der Nachfolgeprozess etabliert ist, bricht die Nachfrage wieder ein.

Ich bin sicher, dass man an der Ausweitung der Fertigungskapazitäten arbeitet, aber das geht leider nicht von heute auf morgen sondern benötigt viel Arbeit und Jahre an Vorlauf.

Und was neue Software im Falle anderer APIs angeht: Wer bezahlt dafür?

Space



Space


Antwort von iasi:

TheBubble hat geschrieben:
iasi hat geschrieben:
Wenn derart hohe Renditen winken und die Diskrepanz zwischen Nachfrage und Angebot derart groß ist, sind die Probleme sehr schnell aus dem Weg geräumt - egal, wie vielschichtig sie sind.
Der Bau von Fabs dauert Jahre, kostet Milliarden und bis ein Prozess die erforderlichen hohen Ausbeuten liefert vergeht noch einmal eine gewisse Zeit. Und sobald danach der Nachfolgeprozess etabliert ist, bricht die Nachfrage wieder ein.

Ich bin sicher, dass man an der Ausweitung der Fertigungskapazitäten arbeitet, aber das geht leider nicht von heute auf morgen sondern benötigt viel Arbeit und Jahre an Vorlauf.

Und was neue Software im Falle anderer APIs angeht: Wer bezahlt dafür?
Milliarden sind in diesem Fall Peanuts.
2024 erzielte Nvidia bei einem Umsatz von 121.173 Mio.Euro ein Ergebnis nach Steuern von 77.364 Mio.
Und auch wenn der Kurs in den letzten Wochen gefallen ist, hat Nvidia noch immer einen Marktwert von 2.428.000 Mio.

Mit genügend Geld schickt man Menschen zum Mond und baut Atombomben.

Wenn solch eine Rendite winkt, gibt es genügend Geld.
Und dann geht vieles plötzlich von heute auf morgen.

Space


Antwort von rudi:

Ohne auch dem Thema jetzt hinterherzuklicken, möchte ich kurz anmerken, dass die FP64 Leistung der RTX 5090 ziemlich gering ist (ca. 1,6 TFlops). Die was weiß ich wie alte GeForce GTX Titan V schaffte schon vor Jahren 7 TFlops. Nvidia verschwendet bei aktuellen GPUs kein Slizium mehr für spezielle FP64 Optimierungen. Drum sind sie auf diesem Gebiet leicht zu schlagen. Auch AMD liegt hier meistens deutlich vorne, allerdings wird mittlerweile hier ebenfalls zugunsten von kleinen KI-Registern beim FP64 Ausbau gespart.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Ist TikToks neue Video-KI Seaweed der nächste Gamechanger?
Audio Plugins auf der GPU berechnen - BRAINGINES GPU Audio
Neuer Nvidia Studio Treiber optimiert GPU Leistung in DaVinci Resolve 17 und weiteren Apps
Neuer Apple Mac Pro mit M2 Extreme mit bis zu 48 CPU- und 152 GPU-Cores verspätet sich
Macbook Pro 16 Zoll mit interessanter AMD GPU - Radeon Pro 5600M
Blackmagic RAW im CPU / GPU Vergleich -- Resolve Performance-Verhalten auf verschiedenen Systemen
Nvidia mit brachialem Grafikkarten-Update - Neue Ampere GPU für den Videoschnitt
11te Generation von Intel CPUs bringt höhere Taktraten, bessere GPU und Thunderbolt 4
Nachgelegt - Tabelle zum Blackmagic RAW CPU/GPU Vergleich
Minisforum H31G - Kleinster Mini-PC mit GPU
Blackmagic DaVinci Resolve 16.3 Beta 3 bringt geringeren GPU-Speicherverbrauch und BRAW 12K für Linux
Adobe CC Update: Audio Transkription per KI und neue GPU-Beschleunigung für Premiere Pro
Adobe Premiere nun mit GPU decoding
Blackmagic DaVinci Resolve GPU-Tests mit Apple M1 MacBook Pro 13 Zoll
GPU Memory
Photoshop nutzt GPU nicht?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash