Newsmeldung von slashCAM:
KI oder Klein-Klein? Micron stellt nach fast 30 Jahren sein Crucial-Geschäft für Privatkunden bis Ende Februar 2026 ein. Die hohe Nachfrage nach KI-Speicherlösungen zwing...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Bye Bye Crucial - Micron stellt Speichergeschäft für Privatkunden ein
Antwort von cantsin:
Nach den Grafikkarten nun die Speicher... Die Frage ist, ob damit das Ende bezahlbarer PC-Technologie naht. Oder genau das Gegenteil, sobald die KI-Blase platzt.
Antwort von Darth Schneider:
Natürlich werden PCs bezahlbar bleiben. Sonst hat die AI am Ende ja nichts zu tun..;)
Und die KI Blase wird sicher nicht platzen. Die ist viel zu lukrativ.
Antwort von medienonkel:
cantsin hat geschrieben:
Nach den Grafikkarten nun die Speicher... Die Frage ist, ob damit das Ende bezahlbarer PC-Technologie naht. Oder genau das Gegenteil, sobald die KI-Blase platzt.
Die Speicherpreise sollen die Grafikkartenpreise auch um 20-30% erhöhen.
RAM ist auch krass teuer geworden.
NVIDIA selbst sagt, dass sie keine Consumerfirma mehr sind bzw. bei den Gaming Karten keine großen Sprünge mehr kommen in nächster Zeit.
Wenn die Blase platzt wird es sehr viel Serverhardware fast geschenkt geben. Aber, wer will schon eine Serverkarte, die nen Laubbläser als Lüfter braucht?
Oder das Zeug wandert direkt in die Presse, weil man evtl. nicht will, dass diese Rechenleistung in die falschen Hände kommt.
Antwort von Drushba:
cantsin hat geschrieben:
Nach den Grafikkarten nun die Speicher... Die Frage ist, ob damit das Ende bezahlbarer PC-Technologie naht. Oder genau das Gegenteil, sobald die KI-Blase platzt.
Gute Renderhardware für KI-Video ist aber schon lange viel zu teuer, um sie sich einfach so hinzustellen. Da sind die Cloudpreise viel moderater: Eine H100 mit 80GB kostet auf Ebay so zwischen 15000 und 20000 Euro, lässt sich auf Runpod aber schon um zwei Euro pro Stunde mieten. Für den puren Schnitt reicht i.d.R. schon ein moderates Macbook Air ab M2. Mit einem gebrauchten Mac Studio - fast schon egal welcher Konfiguration - sollte sich immer noch alles andere machen lassen (ausser KI). Insofern ist es eigentlich gerade billiger geworden, sich eine komplette Produktionsstrecke hinzustellen, da mittlerweile viele Gebrauchte ausreichen, wenn komplexes Rendern in die Cloud ausgelagert wird. Einzige Ausnahme bilden die teuren HDD und SSDs, aber das wird in der Gesamtrechnung vermutlich durch den Einsatz günstigerer Rechner kompensiert werden können. ))
Antwort von TheBubble:
"Darth Schneider" hat geschrieben:
Und die KI Blase wird sicher nicht platzen. Die ist viel zu lukrativ.
Lukrativ? Momentan vielleicht für die CEOs und Manager. Wird genug Umsatz generiert? Wohl kaum, noch ist fast alles umsonst oder in einer Einführungsphase.
Und genau das ist ein mögliches Problem: Solange es nichts kostet nimmt man es gerne und sieht über viele Defizite hinweg. Sobald es auch nur ein minimalen Betrag pro Monat kostet, sind die meisten privaten Nutzer vermutlich raus.
Und die Gewerblichen, die bleiben, verlangen dann plötzlich nicht nur faktische Richtigkeit sondern auch Haftung beim Versagen.
Und ja, die AI bzw. neuronale Netze werden sich weiterentwickeln. Bisher geschah dies aber immer in längeren Zyklen.
Und wenn der nächste Schritt kommt: Wer sagt, das man die großen Rechenzentren dann überhaupt noch braucht? Vielleicht bringen in der nächsten Evolutionsstufe kleinere kompaktere Architekturen dann die gleichen (oder noch bessere) Ergebnisse?
Antwort von cantsin:
Drushba hat geschrieben:
cantsin hat geschrieben:
Nach den Grafikkarten nun die Speicher... Die Frage ist, ob damit das Ende bezahlbarer PC-Technologie naht. Oder genau das Gegenteil, sobald die KI-Blase platzt.
Gute Renderhardware für KI-Video ist aber schon lange viel zu teuer, um sie sich einfach so hinzustellen. Da sind die Cloudpreise viel moderater:
Mir ging es gar nicht um lokale Hardware für KI-Berechnungen.
Sondern darum, dass mit diesen Marktentwicklungen irgendwann gewöhnliche Workstations für Resolve & Co. nicht mehr bezahlbar sind.
Wenn sich Chiphersteller wie Nvidia und Micron entscheiden, dass der Consumer-Markt nicht mehr profitabel ist, weil im KI-Datacenter-B2B-Bestückungs-Geschäft die Goldgrube liegt, haben wir den Salat. Und das könnte sich schnell auf alle andere Computerperipherie auswirken.
Antwort von Drushba:
cantsin hat geschrieben:
Drushba hat geschrieben:
Gute Renderhardware für KI-Video ist aber schon lange viel zu teuer, um sie sich einfach so hinzustellen. Da sind die Cloudpreise viel moderater:
Mir ging es gar nicht um lokale Hardware für KI-Berechnungen.
Sondern darum, dass mit diesen Marktentwicklungen irgendwann gewöhnliche Workstations für Resolve & Co. nicht mehr bezahlbar sind.
Wenn sich Chiphersteller wie Nvidia und Micron entscheiden, dass der Consumer-Markt nicht mehr profitabel ist, weil im KI-Datacenter-B2B-Bestückungs-Geschäft die Goldgrube liegt, haben wir den Salat. Und das könnte sich schnell auf alle andere Computerperipherie auswirken.
Grundsätzlich ja, aber natürlich kommt es immer auch darauf an, wie kreativ wir unsere Arbeitsabläufe an die jeweilige Situation anpassen. Den Avid habe ich z. B. auf der aktuellen Version „eingefroren”, d. h., ich werde ihn nach 2025.12 nicht mehr verlängern. Mit dieser Variante und Resolve im Gepäck werde ich versuchen, bis in die Puppen weiterzuschneiden. Rein für den Schnitt ist diese Lösung ausgereift. Passende Gebraucht-Hardware gibt es längst im Überfluss - das ist anders als früher, als selbst Neuware eigentlich immer am technischen Limit war. Notfalls müssen neue Codecs in Resolve eben Avid-kompatibel gewandelt werden, um sie dort als Proxy für den Schnitt zu verwenden, aber das geht alles. Ein nativer 12K-RAW-Schnitt wird so auf meiner Hardware nie möglich sein, aber 4K-Proxies gehen immer, zumindest noch 12-15 Jahre lang (und selbst heute schneiden manche ältere Cutter noch mit einem Uralt-Avidsystem von 2010, obwohl da wirklich nur kleinste Proxies laufen). Sollte die Hardware in 5 Jahren schlapp machen, wird sie einfach durch einen dann alten M5-Mac ersetzt. Ich denke, es ist zum ersten Mal in der jüngeren Technikgeschichte der Fall, dass die Basic-Hardware in fast jeder Variante performant genug ist (gilt ja eigentlich auch für Cams). Und wie gesagt: Alles was KI ist, wird eben in die Cloud ausgelagert - so sollte es noch lange gehen können, ohne teueren Hardwarekauf.))
 |
Antwort von medienonkel:
Drushba hat geschrieben:
cantsin hat geschrieben:
Mir ging es gar nicht um lokale Hardware für KI-Berechnungen.
Sondern darum, dass mit diesen Marktentwicklungen irgendwann gewöhnliche Workstations für Resolve & Co. nicht mehr bezahlbar sind.
Wenn sich Chiphersteller wie Nvidia und Micron entscheiden, dass der Consumer-Markt nicht mehr profitabel ist, weil im KI-Datacenter-B2B-Bestückungs-Geschäft die Goldgrube liegt, haben wir den Salat. Und das könnte sich schnell auf alle andere Computerperipherie auswirken.
Grundsätzlich ja, aber natürlich kommt es immer auch darauf an, wie kreativ wir unsere Arbeitsabläufe an die jeweilige Situation anpassen. Den Avid habe ich z. B. auf der aktuellen Version „eingefroren”, d. h., ich werde ihn nach 2025.12 nicht mehr verlängern. Mit dieser Variante und Resolve im Gepäck werde ich versuchen, bis in die Puppen weiterzuschneiden. Rein für den Schnitt ist diese Lösung ausgereift. Passende Gebraucht-Hardware gibt es längst im Überfluss - das ist anders als früher, als selbst Neuware eigentlich immer am technischen Limit war. Notfalls müssen neue Codecs in Resolve eben Avid-kompatibel gewandelt werden, um sie dort als Proxy für den Schnitt zu verwenden, aber das geht alles. Ein nativer 12K-RAW-Schnitt wird so auf meiner Hardware nie möglich sein, aber 4K-Proxies gehen immer, zumindest noch 12-15 Jahre lang (und selbst heute schneiden manche ältere Cutter noch mit einem Uralt-Avidsystem von 2010, obwohl da wirklich nur kleinste Proxies laufen). Sollte die Hardware in 5 Jahren schlapp machen, wird sie einfach durch einen dann alten M5-Mac ersetzt. Ich denke, es ist zum ersten Mal in der jüngeren Technikgeschichte der Fall, dass die Basic-Hardware in fast jeder Variante performant genug ist (gilt ja eigentlich auch für Cams). Und wie gesagt: Alles was KI ist, wird eben in die Cloud ausgelagert - so sollte es noch lange gehen können, ohne teueren Hardwarekauf.))
Grundsätzlich keine schlechte Idee. Ich gehe jetzt mal davon aus, dass deine Produktivrechner dann auch nicht ins Internet können.
Ansonsten könnte der Gedanke mit 10-15 Jahren Ruhe haben an zwangsweisen OS Updates scheitern.
Auch resolve könnte auf gewisse Hardware Funktionen in 10 Jahren bestehen, um neue Kamera Codecs zu unterstützen.
Oder der Kunde verlangt in 10 Jahren einen Codec, der in Software nur 0,2 FPS schafft.
Neue Hardware wird man irgendwie immer kaufen müssen.
Hin und wieder gehen Geräte bzw. Komponenten natürlich auch einfach kaputt. Da sind Macs dann die Pest am Arsch.
Antwort von cantsin:
medienonkel hat geschrieben:
Auch resolve könnte auf gewisse Hardware Funktionen in 10 Jahren bestehen, um neue Kamera Codecs zu unterstützen.
Aktuelles Beispiel: RED RAW NE aus der Nikon ZR. Wird erst in den aktuellen Versionen der handelsüblichen NLEs unterstützt, bei Resolve ab Version 20.2.
Oder GPU-basiertes Encodieren aktueller Delivery-Codecs wie av1 (und demnächst av2).
Antwort von Bluboy:
*.LIC dateen haben in der Regel eine Gültigkeit von 999 Tagen, mal schaun was dann mit AVID passiert, oder ob man mit einem Dingsbums nachhelfen muß ;-)