Newsmeldung von slashCAM:
Da Apple in Macs seit Jahren nur noch Grafikhardware von AMD und Intel nutzt, können zeitgemäße Nvidia-Chips nur noch als Steckkarte in den alten Mac Pros oder über eine ...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
RED bittet Apple um Nvidia Treiber-Signierung
Antwort von R S K:
23 Seiten an „Apple bremst sie absichtlich aus, weil sie doch mit AMD im Bett sind und Nvidia doof finden/schaden wollen/an 'Profis' nicht interessiert sind, nur Telefone etc. etc.”-Kommentare in 3… 2… 1…
Kann ja schließlich nicht Nvidia liegen. Wo sie doch berühmt dafür sind für wie solide und fehlerfrei ihre Treiber sind und schon immer waren. Erst recht am Mac. 👍🏼
Vor allem „
Apples Willkür”. 🤣 Klar. Weil bei Apple eben alles frei nach dem Motto „
wenn wir gerade Bock haben, dann vielleicht” passiert.
Antwort von Rick SSon:
Apple:"who the fuck is red?"
Antwort von R S K:
Nee, klar. Weil sie auch nicht mit die ersten waren die Redcode Raw nativ unterstützt haben. 🙄
Antwort von Rick SSon:
"R S K" hat geschrieben:
Nee, klar. Weil sie auch nicht mit die ersten waren die Redcode Raw nativ unterstützt haben. 🙄
Nee, klar. Weil Apple bestimmt keine Verträge mit AMD hat. 🙄
Antwort von Rick SSon:
Intel wird NVIDIA sowieso in den nächsten Jahren platt machen. Wieso rusht NVIDIA wohl seine unfertige, neuste Grakageneration raus, mit nem Haufen propietärer Features ohne vernünftige Softwareunterstütung und versucht seit ca. 2 Jahren verzweifelt in irgendwelche anderen Märkte reinzukommen? Ich denke NVIDIAs Stock stinkt zum Himmel und NVIDIA weiss das.
Intel hingegen schiebt einfach mal eben ne Schubladen-CPU raus, wenn AMD versucht Luft zu schnappen. Außerdem wissen die genau, das Sie tendenziell wieder aus allen Applegeräten rausfliegen.
Antwort von R S K:
"Rick SSon" hat geschrieben:
Nee, klar. Weil Apple bestimmt keine Verträge mit AMD hat.
🤨… da hab ich grad mal
null Ahnung was das eine auch nur im entferntesten mit dem anderen zu tun haben könnte. Aber ja, ganz sicher! AMD wird mit
Sicherheit Apple dazu verdonnert haben keine Nvidia Treiber zuzulassen, als Teil von irgendeinem Knebelvertrag. SO mächtig gewaltig ist AMD. Auf der Wahrschenlichkeitsskala
ganz weit oben. Apple ist da völlig machtlos. Wird einzig und allein daran liegen, nicht daran, dass Nvidia es z.B. nicht gebacken bekommt einfach mal vernünftige, den Apple (mit Mojave erhöhten Sicherheit. und Stabilitäts-) Vorgaben entsprechenden Treiber für die Freigabe vorzulegen.
🤦🏼???
Vor allem sollen doch die
drei Leute auf dem Planeten die allen ernstes
8K Material nativ und in Echtzeit bearbeiten können müssen bei High Sierra bleiben oder sich von mir aus ein PC ans Bein nageln. Alles nur "Fake News" und opportunistische RED PR Hybris imho.
Antwort von Rick SSon:
"R S K" hat geschrieben:
"Rick SSon" hat geschrieben:
Nee, klar. Weil Apple bestimmt keine Verträge mit AMD hat.
🤨… da hab ich grad mal null Ahnung was das eine auch nur im entferntesten mit dem anderen zu tun haben könnte. Aber ja, ganz sicher! AMD wird mit Sicherheit Apple dazu verdonnert haben keine Nvidia Treiber zuzulassen, als Teil von irgendeinem Knebelvertrag. SO mächtig gewaltig ist AMD. Auf der Wahrschenlichkeitsskala ganz weit oben. Apple ist da völlig machtlos. Wird einzig und allein daran liegen, nicht daran, dass Nvidia es z.B. nicht gebacken bekommt einfach mal vernünftige, den Apple (mit Mojave erhöhten Sicherheit. und Stabilitäts-) Vorgaben entsprechenden Treiber für die Freigabe vorzulegen.
🤦🏼???
Vor allem sollen doch die drei Leute auf dem Planeten die allen ernstes 8K Material nativ und in Echtzeit bearbeiten können müssen bei High Sierra bleiben oder sich von mir aus ein PC ans Bein nageln. Alles nur "Fake News" und opportunistische RED PR Hybris imho.
Ich geb dir nen Daumen, weil du dir soviel Mühe bei der Formatierung gegeben hast :-D
Antwort von R S K:
"Rick SSon" hat geschrieben:
… weil du dir soviel…
Und ich dir für Rechtschreibung.
Antwort von nic:
Trauriges Schauspiel hier.
Antwort von cantsin:
"R S K" hat geschrieben:
"Rick SSon" hat geschrieben:
… weil du dir soviel…
Und ich dir für Rechtschreibung.
Du bist wohl nach 1990 geboren.
Antwort von DV_Chris:
Also ich hatte die Meldung schon am 19.12. im Forum platziert:
viewtopic.php?f=29&t=143921
Slashcam und ich müssen wohl in unterschiedlichen Zeitzonen leben ;-)
Antwort von Jott:
Nö, das liegt daran, dass du dich von allen am intensivsten mit Apple-Themen beschäftigst.
Antwort von DV_Chris:
Das liegt halt in meinem Beruf begründet. Als Fachhändler sollte man eben beide Seiten kennen. Und der fehlende Nvidia Support ist ja echtes Argument.
Antwort von R S K:
DV_Chris hat geschrieben:
Als Fachhändler sollte man eben beide Seiten kennen.
Gut zu wissen, dass du es tatsächlich noch irgendwann vorhast. Sag bescheid wenn's soweit ist.
DV_Chris hat geschrieben:
Und der fehlende Nvidia Support ist ja echtes Argument.
Bitte wa? 😂😂😂 … im Kontext von dem was DU…
Du verstehst gar nicht was du da für einen wirren **** von dir gibst, oder?
Die Geschäfte scheinen ja jedenfalls unfassbar gut zu laufen.
Antwort von DV_Chris:
Danke der Nachfrage, 2018 war das beste Jahr seit Firmengründung 1999.
Was sagt wohl der RSK, wenn Kunden nach Nvidia Nutzung auf Mac fragen?
Antwort von didah:
"Rick SSon" hat geschrieben:
Apple:"who the fuck is red?"
apple: aaw, those whos cameras we sell!
Antwort von R S K:
DV_Chris hat geschrieben:
Was sagt wohl der RSK, wenn Kunden nach Nvidia Nutzung auf Mac fragen?
Hmmm…
gar nichts? Weil keiner fragt. Warum auch? Performance-technisch sägen die so schon alles andere ab. 🤷🏼???
Antwort von Jott:
DV_Chris hat geschrieben:
Danke der Nachfrage, 2018 war das beste Jahr seit Firmengründung 1999.
Ah, dann hattest du dem ORF die neuen Adobe-Schnittplätze vertickt (siehe anderer Thread)? :-)
Antwort von R S K:
Nee. Zum ersten mal ZWEI Edius. 😜
Antwort von nic:
Ohne CUDA fehlt auf Applesystemen leider wirklich etwas...
Nicht umsonst werkelt AMD mit ProRender an einem eigenen GPU-Renderer, weil es ansonsten einfach nichts gibt... aber leider kommt der (noch nicht) an Octane oder Redshift ran.
Und 8K r3d in Echtzeit - wieso sollte man das ablehnen, wenn es technisch machbar ist?
Antwort von DV_Chris:
Jott hat geschrieben:
DV_Chris hat geschrieben:
Danke der Nachfrage, 2018 war das beste Jahr seit Firmengründung 1999.
Ah, dann hattest du dem ORF die neuen Adobe-Schnittplätze vertickt (siehe anderer Thread)? :-)
Nein. Wir sind nicht direkter Lieferant des ORF. Dafür aber etwa die Restaurierungs Workstations und Speichersysteme für das österreichische Filmmuseum. Dort wird mit der Software "Diamant" gearbeitet, die CUDA benutzt. Also konnten wir dort nicht den RSK hinschicken ;-)
Antwort von motiongroup:
Ah, dann hattest du dem ORF die neuen Adobe-Schnittplätze vertickt (siehe anderer Thread)? :-)
Heute dies Morgen das... mich wundert dies sogar ein wenig, da es für diesen Bereich besseres gibt wie bspw edius zumindest im news Bereich oder eventuel gar cinegy.
Zurück zum proprietären Cuda, dass ist über kurz oder lange ein totes Geleise und nur noch für Spezialanwendungen notwendig quasi obsolet
Wer unter Linux unterwegs ist? weis um den Krampf mit den Treibern von Nvidia so oder so bescheid und sieht dieses Raunzen hier und von Red Leuten ziemlich gelassen.
Apple tut gut daran diesen Zecken nicht mehr ins Boot zu holen, was auf der anderen Seite so oder so der Witz wäre in Anbetracht der Anzahl an zertifizierten Nvidia Grafikkarten für OSX.
In Anbetracht dessen, dass die Softwareentwickler zu faul waren, sich umzuorientieren und ihre Suiten anzupassen sollen sie doch auf Windows umsatteln wenns sie meinen..
Der Nvidia cuda Webdriver-Wartemodus ist ja nicht erst seit Mojave aktuell.. mit jedem Update von osx bist im Warteschleifenmodus mit der Gewissheit, dass die Dreckskarten wieder langsamer werden um dir ne Neue aufzuschwatzen.
Von mir aus können sie zu Lurch zerfallen, selbst die hardcore Hackgemeinde hat schon lange auf Amd gewechselt weil mit dem Schrott kein Krieg zu gewinnen ist.
Antwort von R S K:
DV_Chris hat geschrieben:
Dort wird mit der Software "Diamant" gearbeitet, die CUDA benutzt. Also konnten wir dort nicht den RSK hinschicken
So'n Mist aber auch. Weil du kannst dir gar nicht vorstellen WIE sehr ich dich darum beneide. Ich werd richtig horn-y wenn ich nur an Rechnungswesen & Controllingsoftware denke… puh.
Mein Held. Du hast es ja richtig geschafft. 👍🏼
motiongroup hat geschrieben:
Der nvidia cuda webdriver Wartemodus ist ja nicht erst an mojave aktuell..
Naja, in der Form schon. Mit Mojave haben sich die Sicherheit- und Stabilitätsrichtlinien deutlich erhöht.
Antwort von motiongroup:
Auch bei HighSierra war warten angesagt und mit jedem Updates so oder so... war ja auch mit ein Grund warum der Nico als Nvidia verliebt zu Amd gewechselt ist
Nvidias unter osx sind und bleiben Sorgenbringer ebenso wie unter linux
Mehr gibts dazu nicht zu sagen
Antwort von DV_Chris:
"R S K" hat geschrieben:
DV_Chris hat geschrieben:
Dort wird mit der Software "Diamant" gearbeitet, die CUDA benutzt. Also konnten wir dort nicht den RSK hinschicken
So'n Mist aber auch. Weil du kannst dir gar nicht vorstellen WIE sehr ich dich darum beneide. Ich werd richtig horn-y wenn ich nur an Rechnungswesen & Controllingsoftware denke… puh.
Mein Held. Du hast es ja richtig geschafft. 👍🏼
Du scheinst verwirrt oder kennst schlicht keine professionellen Restaurierungswerkzeuge für analogen Film. Deinem Nicht Wissen kann geholfen werden:
http://www.hs-art.com/index.php
Antwort von R S K:
motiongroup hat geschrieben:
Nvidias unter osx sind und bleiben Sorgenbringer ebenso wie unter linux
Eben. Weshalb die Aussage „Besonders wenn man als Hersteller nicht jedes mal aufs neue Apples Willkür ausgesetzt sein will” so unsinnig ist. Hat nichts mit Willkür zu tun, sondern QC.
- RK
Antwort von motiongroup:
https://www.golem.de/news/crypto-mining ... 38481.html
Daran alleine liegts nicht
Antwort von R S K:
Wüsste nicht was das mit Apple und dem beschriebenen „Problem” zu tun hätte.
- RK
Antwort von motiongroup:
Mit Apple nichts nur mit der Tatsache das der Hut generell am brennen ist bei Nvidia
Antwort von DV_Chris:
Nvidia kann stabil, sowohl bei Consumer als noch viel mehr bei Quadro.
Hinter der aktuellen Weigerung steht wohl schlicht der Umstand, dass AMD in Cupertino im Vordergrund steht. Siehe auch die eGPU Lösung von BMD.
Antwort von nic:
Die geballte Menge an eingebildeter Kompetenz ist hier schon fast erdrückend.
Edit: Danke für den Daumen R S K, aber dich schließe ich in meinem undifferenzierten Rundumschlag ausdrücklich mit ein...
Antwort von motiongroup:
Nvidia kann stabil, sowohl bei Consumer als noch viel mehr bei Quadro.
Etwas ist aus dem Fenster gefallen...
Danke 7nic für deinen undifferenzierten wie schreibst du so schön „Rundumschlag „
Und wie Du richtig schreibst bleibts an den Softwareentwicklern hängen...
Zur Kompatibilität der Nv Produkte gibts nicht mehr zu sagen
GeForce 600 Series:
GeForce GTX 680
GeForce 200 Series:
GeForce GTX 285
GeForce 100 Series:
GeForce GT 120
GeForce 8 Series:
GeForce 8800 GT
Quadro Series:
Quadro K5000 for Mac, Quadro 4000 for Mac
Quadro FX Series:
Quadro FX 4800, Quadro FX 5600
Antwort von BigT:
motiongroup hat geschrieben:
Ah, dann hattest du dem ORF die neuen Adobe-Schnittplätze vertickt (siehe anderer Thread)? :-)
...
Der Nvidia cuda Webdriver-Wartemodus ist ja nicht erst seit Mojave aktuell.. mit jedem Update von osx bist im Warteschleifenmodus mit der Gewissheit, dass die Dreckskarten wieder langsamer werden um dir ne Neue aufzuschwatzen.
Von mir aus können sie zu Lurch zerfallen, selbst die hardcore Hackgemeinde hat schon lange auf Amd gewechselt weil mit dem Schrott kein Krieg zu gewinnen ist.
Trotz der aktuellen und vergangenen Probleme mit den Webdrivers gibt es immer noch genug Leute in der "Hardcore Hackgemeinde" die Nvidia einsetzen wollen.
Habe selber über die Festtage einen Build mit Z390, i9-9900K und 1080 TI gemacht. Der Weg zum Erfolg war allerdings genau deswegen ein sehr schmaler und komplizierter, weil auf der einen Seite Mojave ohne Treiber und auf der anderen High Sierra ohne Kompatibilität für den neuen Prozi standen.
(Nur der allerletzte Build von HS ist dafür optimiert und den bekommt man nur wenn man ihn mit einem Coffee Lake Rechner lädt, wie 2018 MBP).
Allerdings läuft dieser Hack nun seit einer Woche rocksolid mit heftig Cinema4D und AE. Nvidia kann definitiv stabil!
Antwort von motiongroup:
das bestätigt genau das was ich schrieb... gefrickel und ein Hackuser und bei jedem update schleichen sich die schweißperlen an.. never ever..
meine alte 970er hat das prozedere seit el Capitan durchgemacht..
da ist so viel murks und bastelei angesagt, das sich der Aufwand nicht lohnt.. habe mir das lange zeit selbst eingeredet..
immer im fokus die funktionierende übergabe von Gpu zu iGpu zu Qsync und HW Beschleinigung ... mal hier mal weg... drauf gesch... ne Vega oder ne 580er rein und gut ist.. und schneller noch dazu wenn ja wenn die Entwickler die Hausaufgaben erledigen..
Antwort von DV_Chris:
Bleibt dann halt nur die Frage, warum Apple eGPU ermöglicht hat, wenn man dann nur die AMD Gurkenkarten verwenden kann?
Antwort von motiongroup:
die NvidiaGurkenkarten die du verwenden kannst habe ich dir oben schon verlinkt.. eine 1080ti ist eine vermutet kompatible nicht zertifizierte Lösung wie meine alte 970er auch... was heute funktioniert, funktioniert morgen nur noch mau? selbst wenn apple die Treiber frei gibt sind doch nur Teile der funktionen der Karte verfügbar.. bestes beispiel der Nevc .. nö die können mich mal beide.. apple und Nvidia..
die Aussage Gurkenkarte hat so oder so gewisses gschmäckle... besonders wenn man sich iasis Threadripper Video zur Windows Bremse auf der zunge zergehen lässt.. jaja das volle potential ausschöpfen ist schon ein hürdenlauf.. besonders für aktuellen nvidia Stapellauf ..
Antwort von motiongroup:
https://appleinsider.com/articles/19/01 ... he-mac-pro
done