Newsmeldung von slashCAM:
Der bislang etwas holprige Start der Intel Desktop-Grafikkarten soll sich nun endlich in einer erhältlichen A770 manifestieren. Auf dem Intel Innovation 2022 Event bestät...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Intel ARC A770 Desktop-Grafikkarte ab 12.Oktober für ca. 400 Euro im Handel
Antwort von Frank Glencairn:
"Im produktiven "Creator" Umfeld sollen die Intel Karten dagegen schon relativ zuverlässig arbeiten."
Ich frage mich welche und wie viele "produktive Creators" bereits seit ner Weile eine GPU im Einsatz haben, die erst in 2 Wochen auf den Markt kommt.
Und ja, sicher sind da schon irgendwelche Vorserien-Samples draußen, allerdings hab ich bisher noch keine real world Tests bei den üblichen Verdächtigen gesehen.
Antwort von rudi:
Es gibt seit einiger Zeit in einigen Redaktionen direkt aus China importierte Arc A380 6GB Modelle, von denen man "hört", dass Intel mit den Treibern schon viel voranbringt. Obs am 12. Oktober dann für Premiere und Resolve schon reicht, interessiert mich selber sehr stark.
Antwort von teichomad:
Endlich mal potente Grafikkarten zu normalen Preisen
Antwort von Frank Glencairn:
Über die angebliche "Potenz" wissen wir in Wirklichkeit allerdings noch nix.
Antwort von teichomad:
"Frank Glencairn" hat geschrieben:
Über die angebliche "Potenz" wissen wir in Wirklichkeit allerdings noch nix.
https://www.youtube.com/watch?v=X1WuYeQiSfU&t=606s
Antwort von rudi:
Ich GLAUBE, die werden fürs Geld ne recht vernünftige Performance abliefern, aber erstmal eh kaum verfügbar sein. Könnte auch noch sein, dass die nicht gut mit AMD-CPUs laufen und wer ne Intel CPU nimmt, hat dann ja eh schon nen guten Hardware-Decoder unter Windows...
Antwort von Frank Glencairn:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
Antwort von dienstag_01:
Wahrscheinlich wird Intel OpenCL nutzen. Das könnte den Vorteil haben, dass OpenCL auch in Davinci besser unterstützt wird, da nicht mehr nur AMD.
Könnte, wer weiß.
Antwort von teichomad:
"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?
Antwort von MK:
Laut Intel geht bei fehlender Resizable BAR Unterstützung sehr viel Leistung verloren... heißt also im schlechtesten Fall neues Mainboard und CPU.
Gut für Leute die auf günstige Grafikkarten angewiesen sind...
Antwort von MrMeeseeks:
teichomad hat geschrieben:
"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?
Weil Frank Glencairn die Werte nicht einordnen oder umrechnen kann. Keine Ahnung warum er da auch von "uns" spricht.
Antwort von Frank Glencairn:
teichomad hat geschrieben:
"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.
Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Antwort von teichomad:
"Frank Glencairn" hat geschrieben:
teichomad hat geschrieben:
warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.
Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Die Karte wird locker zum schneiden reichen. Kenne auch keine GPU die gametechnisch gut und für NLE nicht zu gebrauchen ist. Lasse mich aber gern eines besseren belehren. Über die Potenz weiß man jedenfalls mehr als "nichts".
Antwort von MK:
Computing Leistung und Spiele Leistung korrelieren nicht... Von daher kann man das auch nicht einfach umrechnen.
Die GTX580 war damals beim Computing auch schneller als die GTX680 obwohl letztere in Spielen schneller war.
Antwort von MrMeeseeks:
Natürlich kann man das umrechnen. Es gibt bereits Benchmarks zu den kleineren Modellen mit identischer Architektur. Wer nicht bereit ist 5 Minuten zu googeln, der brauch auch nicht so zu argumentieren als wären die Dinger ein Geheimnis.
Antwort von dienstag_01:
"Frank Glencairn" hat geschrieben:
teichomad hat geschrieben:
warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.
Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Antwort von MK:
dienstag_01 hat geschrieben:
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.
Antwort von dienstag_01:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Antwort von MK:
dienstag_01 hat geschrieben:
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)
Antwort von dienstag_01:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)
Wie auch immer, Parameter wie die Anzahl der Rechenkerne, der Takt und Breite der Anbindung sagen auf jeden Fall etwas über die Leistungsfähigkeit in NLEs/Resolve.
Bei Spielen ist das nicht viel anders.
Aber richtig ist, gerade bei einer völlig neuen GPU, dass man um einen Test mit den einschlägigen Videoanwendungen nicht herum kommt.
Antwort von Frank Glencairn:
dienstag_01 hat geschrieben:
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen. All diese Funktionen schlafen dann tatsächlich.
Natürlich kann man immer pauschal sagen - mehr Kerne, mehr Speicher, neuerer Speicher, neue Architektur, schnellere Anbindung etc sind immer schneller - oder in a nut shell: ne neue Karte (in der selben Liga) ist immer schneller als ne alte - dann bewegen wir uns allerdings im Bereich von Binsenweisheiten.
Hier reden wir ja eigentlich davon, wie ne völlig neue und unbekannte Architektur (die eventuelle Stärken bisher nur unter DirectX zeigen konnte) sich auf Cuda optimierten NLEs, im Vergleich zu nativen Cuda GPUs schlägt.
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.
Damit hätten wir aber auch schon das Problem: Optix und Cuda als proprietäre APIs, die für Intel (und halt davor AMD) unzugänglich sind. Doof wenn Sofware das aber voraussetzt. Hoffe dass mit Intel ausreichend Gegengewicht entsteht um daran etwas zu ändern.
Antwort von dienstag_01:
markusG hat geschrieben:
"Frank Glencairn" hat geschrieben:
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.
Damit hätten wir aber auch schon das Problem: Optix und Cuda als proprietäre APIs, die für Intel (und halt davor AMD) unzugänglich sind. Doof wenn Sofware das aber voraussetzt. Hoffe dass mit Intel ausreichend Gegengewicht entsteht um daran etwas zu ändern.
Oder es gibt halt ne dritte Architektur ;)
Antwort von roki100:
Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.
Antwort von dienstag_01:
roki100 hat geschrieben:
Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
Antwort von markusG:
dienstag_01 hat geschrieben:
Oder es gibt halt ne dritte Architektur ;)
Tatsache - haben sie wohl schon mit oneAPI, wenn ich das richtig verstehe^^
https://www.intel.com/content/www/us/en ... rview.html
Antwort von cantsin:
Da Resolve bislang nur CUDA und OpenCL unterstützt, kann man wohl davon ausgehen, dass die Intel-Karte mit Resolve - vorläufig - nichts bringt, bzw. Resolve auf einem Rechner mit Intel ARC-GPU gar nicht lauffähig ist?!?
Antwort von dienstag_01:
markusG hat geschrieben:
dienstag_01 hat geschrieben:
Oder es gibt halt ne dritte Architektur ;)
Tatscahe - hHaben sie wohl schon mit oneAPI wenn ich das richtig verstehe^^
https://www.intel.com/content/www/us/en ... rview.html
Dann liegt es ja allein in der Hand der Resolve-Entwickler, ob und wann sie das unterstützen.
Antwort von MK:
cantsin hat geschrieben:
Da Resolve bislang nur CUDA und OpenCL unterstützt, kann man wohl davon ausgehen, dass die Intel-Karte mit Resolve - vorläufig - nichts bringt, bzw. Resolve auf einem Rechner mit Intel ARC-GPU gar nicht lauffähig ist?!?
Die Karten unterstützen OpenCL... also muss das auch laufen.
Antwort von roki100:
dienstag_01 hat geschrieben:
roki100 hat geschrieben:
Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
So wie ich das verstanden habe, OpenCL berechnet das ganze (zB. PBR ist nur dank OpenCL möglich)...und OpenGL Ist immer noch der Renderer. Kombiniert wird das als GLSL bezeichnet...Auch in Blender bzw. EEVEE in Blender ist Eigenname (ähnlich wie auch Apple "METAL") und ist in Wirklichkeit nichts weiter als GLSL (soweit ich mich erinnere, nannte sich die erste inoffizielle Version auch Blender_GLSL...), nur eben besser optimiert, daher auch schneller als in Fusion...und auch mehr Möglichkeiten freigeschalteten/implementiert, wie zB. Spiegelung von Objekte auf Plane&Co.
Antwort von dienstag_01:
roki100 hat geschrieben:
dienstag_01 hat geschrieben:
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
So wie ich das verstanden habe, OpenCL berechnet das ganze (zB. PBR ist nur dank OpenCL möglich)...und OpenGL Ist immer noch der Renderer. Kombiniert wird das als GLSL bezeichnet...Auch in Blender bzw. EEVEE in Blender ist Eigenname (ähnlich wie auch Apple "METAL") und ist in Wirklichkeit nichts weiter als GLSL (soweit ich mich erinnere, nannte sich die erste inoffizielle Version auch Blender_GLSL...), nur eben besser optimiert, daher auch schneller als in Fusion...und auch mehr Möglichkeiten freigeschalteten/implementiert, wie zB. Spiegelung von Objekte auf Plane&Co.
Ja, wahrscheinlich hast du recht. Mein Blick ist zu sehr von Resolve (ohne Fusion) geprägt.
Antwort von roki100:
Also ich weiß nicht, wenn ich mir das anschaue scheint die Intel ARC GraKa ziemlich schnell zu sein.
https://www.youtube.com/watch?v=bacIa9dqwSc