Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum KI-Forum

Infoseite // Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...



Newsmeldung von slashCAM:






Wer die Entwicklung aktueller Video-KI-Modelle verfolgt, sieht fast jeden Tag neue Sensationen. Da liegt es nahe, auch einmal selbst Hand anzulegen, um eigene Erfahrungen mit der neuen Technologie zu sammeln.



Hier geht es zum slashCAM Artikel:
Ratgeber: Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...


Space


Antwort von freezer:

Die Preise für die Nvidia RTX A6000er Serie haben mit der Realität wohl eh nix mehr am Hut.
Meine RTX A6000 aus der 3090er Generation hat 5.500 gekostet, das Nachfolgemodell RTX A6000 Ada bereits 8.500 und jetzt will Nvidia 12.000 Euro?

Space


Antwort von MarcusG:

Danke für diesen Artikel, genau darüber habe ich mir schon seit längerem Gedanken gemacht, ob sich eine Investition in eigene KI Hardware überhaupt lohnt

Space


Antwort von blindcat:

Naja. Wenn eine Cloud nicht schön ist, wechsel ich zur nächsten. So sorglos seine Daten zu verschleudern ist sicherlich ein Zeitgeist Phänomen, aber für mich einfach unannehmbar.
Ich versuche es derzeit lokal und zB Wan 2.1 zeigt, dass es auch mit einer 3090 mit 24 GB lokal sehr gut funktioniert (neben allerlei anderen lokalen KI-Anwendungen für alle möglichen Zwecke).
Das Upgrade auf 32 GB im "Gamer" Markt und 48 oder 96 GB im Workstation Markt ist natürlich kontraproduktiv und sorgt nicht gerade für Druck bei der Entwicklung speichersparender Modelle. Die 3090 ist noch dazu eigentlich längst drüber beim Stromverbrauch. Die 4xxx und 5xxx kommmen mir vor allem aus diesem Grund nicht ins Haus. Und die von freezer genannte Preisentwicklung ... sollte den Markt eigentlich zu Reaktionen bewegen. Da aber scheinbar alle nur noch nach dem Vorbild eines irrationalen Staatenlenkers handeln, wird sich da wohl nix tun.
In den Cloud Topf zahle ich aus allen in Frage kommenden Gründen jedenfalls nicht ein. Es geht auch lokal. Existierende Modelle zeigen das. Man müsste "nur" fortentwickeln.
Vielleicht wäre das nun doch der richtige Zeitpunkt für AMD? Da müssten aber fleissige Treiber und Bibliothekentwickler Überstunden gemacht haben ...
So machts keinen Spaß,
Frankie

Space


Antwort von Totao:

Komisch, dass der Artikel nicht den gängigen DIY Ansatz bei KI-PCs erwähnt: Man kauft gebrauchte RTX 3090 mit 24GB VRAM und steckt diese in einen PC. Vom Preis-/Leistungsverhältnix kaum zu toppen (Kosten ca. 700€ pro Stück, seit 3 Jahren preisstabil).

In einen gewöhnlichen PC passen zwei dieser Grafikkarten (gute Belüftung vorausgesetzt). Man sollte darauf achten, dass das Mainboard zwei PCIe x16 Slots mit jeweils elektrisch x8 betreiben kann. Das ist meist nur bei den besseren teureren Mainboards der Fall. Geizhals.de hilft mit den Filtermöglichkeiten weiter bei der Suche nach einem geeigneten Motherboard. Mit 48GB VRAM ist das vermutlich der derzeitige Sweetspot.

Wer mehr als zwei GPUs in den PC stecken möchte, muss allmählich auf die Workstation- oder Server-Mainboards ausweichen, die dafür genügend PCIe Lanes bereitstellen. Dann wird es deutlich teurer - nicht nur beim Mainboard, auch bei der CPU.
Außerdem bleibt das Platzproblem: Eine typische RTX 3090 ist 3 Slots breit und die Mainboards haben maximal 7 Slots. Wenn man ein großes Gehäuse mit 9 Slots Platz besorgt, kann man also gerade mal drei 3-Slot-Karten ins Mainboard stecken.
Wenn das noch nicht reicht muss mit PCIe-Extendern gearbeitet werden (oder Wasserkühlung). Dann steigen auch die Chancen, dass das Ganze nicht mehr in ein geschlossenes PC-Gehäuse passt, sondern eher wie ein Mining-Konstrukt aussieht. Mehrere Netzteile inklusive.
Je RTX3090 steigt dann das verfügbare VRAM um 24GB an.

Space


Antwort von Frank Glencairn:

blindcat hat geschrieben:
So sorglos seine Daten zu verschleudern ist sicherlich ein Zeitgeist Phänomen, aber für mich einfach unannehmbar.
Der Zug ist eigentlich bereits abgefahren, in dem Moment, wo du ein Handy hast.

Und selbst dann ..

Ich bin ja gerade von einer USA Produktion zurück.
Die automatische Gesichtserkennung langt mittlerweile am Flughafen für alles - dein Ticket, dein Ziel, alle deine persönlichen Daten sind alle bereits lange verknüpft und gespeichert, bevor du die Reise überhaupt antrittst.

Gesicht scannen - bleeep - und du darfst rein.
Sogar mit persönlicher Note des Homeland Security Officers: "Have a nice trip Frank".

Es wird langsam Zeit sich selbst mal endlich einzugestehen, daß so genannter "Datenschutz" im Jahre 2025, nur noch in den Träumen von hoffnungslosen Romantikern existiert, und vor allem ist es schon lange nicht mehr optional.

In so fern ist es mir mittlerweile ehrlich gesagt ziemlich Schnuppe, ob irgendeine "Cloud" meine Daten zum dritten oder vierten mal bekommt, die hat sowieso schon jeder mindestens ein mal.

Space


Antwort von freezer:

Totao hat geschrieben:
Komisch, dass der Artikel nicht den gängigen DIY Ansatz bei KI-PCs erwähnt: Man kauft gebrauchte RTX 3090 mit 24GB VRAM und steckt diese in einen PC. Vom Preis-/Leistungsverhältnix kaum zu toppen (Kosten ca. 700€ pro Stück, seit 3 Jahren preisstabil).

In einen gewöhnlichen PC passen zwei dieser Grafikkarten (gute Belüftung vorausgesetzt). Man sollte darauf achten, dass das Mainboard zwei PCIe x16 Slots mit jeweils elektrisch x8 betreiben kann. Das ist meist nur bei den besseren teureren Mainboards der Fall. Geizhals.de hilft mit den Filtermöglichkeiten weiter bei der Suche nach einem geeigneten Motherboard. Mit 48GB VRAM ist das vermutlich der derzeitige Sweetspot.

Wer mehr als zwei GPUs in den PC stecken möchte, muss allmählich auf die Workstation- oder Server-Mainboards ausweichen, die dafür genügend PCIe Lanes bereitstellen. Dann wird es deutlich teurer - nicht nur beim Mainboard, auch bei der CPU.
Außerdem bleibt das Platzproblem: Eine typische RTX 3090 ist 3 Slots breit und die Mainboards haben maximal 7 Slots. Wenn man ein großes Gehäuse mit 9 Slots Platz besorgt, kann man also gerade mal drei 3-Slot-Karten ins Mainboard stecken.
Wenn das noch nicht reicht muss mit PCIe-Extendern gearbeitet werden (oder Wasserkühlung). Dann steigen auch die Chancen, dass das Ganze nicht mehr in ein geschlossenes PC-Gehäuse passt, sondern eher wie ein Mining-Konstrukt aussieht. Mehrere Netzteile inklusive.
Je RTX3090 steigt dann das verfügbare VRAM um 24GB an.
Du kannst den GPU Speicher nicht einfach addieren.

Space


Antwort von blindcat:

@Frank: Ich glaube schon, dass Datensparsamkeit noch etwas bringt. Und ja, es bringt auch Einschränkungen. Tagesfüllendes anderes Thema :-)

@freezer: Mit NVLink geht das nicht? Ich dachte immer. Hab ich aber nicht im Betrieb und nicht im Plan, weil mir ja schon der Stromverbrauch einer Karte zu hoch ist.

Space


Antwort von rudi:

Tatsächlich ist NVLInk noch die Wildcard für ein Multi-RTX 3090 Setup. Wenn ich es richtig im Kopf habe, liegt da die Interconnect-Geschwindigkeit in dieser Generation bei ca. 100 GB/s. In manchen KI-Modellen kann man die Inference ziemlich gut auf mehrere Karten verteilen, ohne, dass sie einen besonders schnellen Interconnect benötigen. Beim Training ist eine schnelle Verbindung zischen den GPUs dagegen meistens sehr wichtig. Und da sind 100GB/s auch nicht mehr so auf der Höhe der Zeit.
Und tatsächlich kommt dann auch noch der Stromverbrauch ins Spiel. So ein Dual RTX 3090 GPU Setup ist schnell mal 1 Kw, d.h. mindestens 30 Cent Stromkosten hierzulande, eher mehr. Dafür kann man schon kleine GPUs im Netz mieten.
Und zum Vergleich: Bei VAST.ai gibts immer wieder eine H200 für ca. 3 Euro/Stunde. Und die hat 140 GB Speicher mit 4TB/s!. Sowas macht dann deutlich mehr Spaß. Aber diese Leistung kauft man noch besser bei jemandem der dir gleich ein KI-Video-Modell als Service anbietet, dann zahlst du nicht pro Stunde, sondern pro Prompt, und das lässt sich theoretisch dann noch viel billiger anbieten, wenn die Auslastung hoch ist.

Space



Space


Antwort von Frank Glencairn:



Space


Antwort von Totao:

freezer hat geschrieben:
Du kannst den GPU Speicher nicht einfach addieren.
Doch, was Inferenz von LLMs angeht so lassen die (genauer: deren Layer) sich gut aus mehrere GPUs verteilen, auch ohne NVLink übrigens. Das geht mit Ollama und vLLM direkt ohne weiteres zutun. Aber PCIe 4.0 x8 ist schon nicht verkehrt. Ich habe da Erfahrung aus erster Hand.

Nur für Training und Finetuning von LLMs braucht man die ordentliche Bandbreite zwischen den GPUs, da hilft dann NVLink wirklich signifikant.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum KI-Forum

Antworten zu ähnlichen Fragen //


Braucht man QuickSync
SCHAUSPIELAGENTUR: Braucht man als Schauspieler einen Agenten? Mit Andrea Lambsdorff
Kann man bestimmte Spielfilme nicht einfach verbieten oder totschlagen?
Sony A1 in der Praxis: Die beste Vollformat DSLM für Foto und Video? 8K 10 Bit, 4K 120p, Hauttöne uvm.
Panasonic Lumix S5 IIX im Praxistest: Die beste S5 für Video? ALL-I, ProRes Recording uvm ...
PTZ-Kamera für greenscreen.. BirdDog P200 wirklich besser?
Was macht die beste Video DSLR/DSLM in 2020 aus? Hier unsere Top 10 Liste
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Canon EOS R5 C im Praxistest - die beste Foto-Video-DSLM? 8K 50p RAW, Hauttöne, LOG/LUT uvm.
Die aktuell beste Video-KI ist ab sofort kostenlos in YouTube Shorts integriert
Google Veo 2: Die beste aller Video-KIs ist ab sofort allgemein zugänglich
Ein wirklich gutes Tutorial zum Thema Licht setzen ...
Chiaroscuro Beleuchtung wirklich gut umgesetzt
Apple M1 (Pro/Max/Ultra) vs Intel/Amd/Nvidia...wirklich schneller?
"32 Bit float" Recording - Ist das wirklich besser?
Panasonic HC-X2/-X20 - Bildqualität wirklich so schlecht?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash