Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 12:03 Über die angebliche "Potenz" wissen wir in Wirklichkeit allerdings noch nix.
warum ?Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 12:12 Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
Weil Frank Glencairn die Werte nicht einordnen oder umrechnen kann. Keine Ahnung warum er da auch von "uns" spricht.teichomad hat geschrieben: ↑Fr 30 Sep, 2022 12:32warum ?Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 12:12 Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).teichomad hat geschrieben: ↑Fr 30 Sep, 2022 12:32warum ?Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 12:12 Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
Die Karte wird locker zum schneiden reichen. Kenne auch keine GPU die gametechnisch gut und für NLE nicht zu gebrauchen ist. Lasse mich aber gern eines besseren belehren. Über die Potenz weiß man jedenfalls mehr als "nichts".Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 13:22Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.
Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 13:22Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.
Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 13:48 Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.MK hat geschrieben: ↑Fr 30 Sep, 2022 14:33Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 13:48 Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 14:38 Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Wie auch immer, Parameter wie die Anzahl der Rechenkerne, der Takt und Breite der Anbindung sagen auf jeden Fall etwas über die Leistungsfähigkeit in NLEs/Resolve.MK hat geschrieben: ↑Fr 30 Sep, 2022 14:46PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 14:38 Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen. All diese Funktionen schlafen dann tatsächlich.dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 14:38
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 15:41 Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Oder es gibt halt ne dritte Architektur ;)markusG hat geschrieben: ↑Fr 30 Sep, 2022 15:50Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.Frank Glencairn hat geschrieben: ↑Fr 30 Sep, 2022 15:41 Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Damit hätten wir aber auch schon das Problem: Optix und Cuda als proprietäre APIs, die für Intel (und halt davor AMD) unzugänglich sind. Doof wenn Sofware das aber voraussetzt. Hoffe dass mit Intel ausreichend Gegengewicht entsteht um daran etwas zu ändern.
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
Tatsache - haben sie wohl schon mit oneAPI, wenn ich das richtig verstehe^^
Dann liegt es ja allein in der Hand der Resolve-Entwickler, ob und wann sie das unterstützen.markusG hat geschrieben: ↑Fr 30 Sep, 2022 16:40Tatscahe - hHaben sie wohl schon mit oneAPI wenn ich das richtig verstehe^^
https://www.intel.com/content/www/us/en ... rview.html
Die Karten unterstützen OpenCL... also muss das auch laufen.
dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 16:33Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
Ja, wahrscheinlich hast du recht. Mein Blick ist zu sehr von Resolve (ohne Fusion) geprägt.roki100 hat geschrieben: ↑So 02 Okt, 2022 14:19dienstag_01 hat geschrieben: ↑Fr 30 Sep, 2022 16:33
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)
So wie ich das verstanden habe, OpenCL berechnet das ganze (zB. PBR ist nur dank OpenCL möglich)...und OpenGL Ist immer noch der Renderer. Kombiniert wird das als GLSL bezeichnet...Auch in Blender bzw. EEVEE in Blender ist Eigenname (ähnlich wie auch Apple "METAL") und ist in Wirklichkeit nichts weiter als GLSL (soweit ich mich erinnere, nannte sich die erste inoffizielle Version auch Blender_GLSL...), nur eben besser optimiert, daher auch schneller als in Fusion...und auch mehr Möglichkeiten freigeschalteten/implementiert, wie zB. Spiegelung von Objekte auf Plane&Co.