Newsmeldung von slashCAM:
Schon lange hat man es erwartet, nun kommt Intel in die Gänge: Mit den ersten Desktop-Achtkernern bringt der Marktführer endlich ein paar neue Prozessoren auf den Markt u...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Endlich Desktop-Achtkerner von Intel - Core i9-9900K und Core i7-9700K
Antwort von rudi:
Auch noch ein kleiner Hinweis hintendran: Es steht der starke Verdacht im Raum, dass Intel auf der einen Seite mit dem NDA alle unabhängigen Reviews bis zum 19. Oktober unterbindet, aber gleichzeitig "eigene " Reviews lanciert, in denen AMD Prozessoren aufgrund mieser Speichereinstellungen ungewöhnlich schlecht abscheiden:
Dass Intel damit gleichzeitig kommuniziert, dass der neue 8 Kerner bei gleichen Einstellungen in diesen Test-Games im Durchschnitt gerade mal 5 Prozent schneller ist, als der kleine, alte 6 Kern 8700K, scheint die Marketing-Abteilung dabei übersehen zu haben ;)
Antwort von Jörg:
Endlich Desktop-Achtkerner von Intel - Core i9-9900K und Core i7-9700K
hmm, das Teil unten läuft seit einem Jahr mit 8 Kernen hier.....
Intel Core i7-7820X Sockel 2066 3.6GHz (Turbo Boost 4.3GHz) (8C / 16T
Antwort von rudi:
Ja, der Core i7-7820X ist aber kein Desktop-Prozessor, sonder ein HEDT-Prozessor von Intel, also Workstation Klasse mit QuadChannel-Speicher.
Antwort von Jörg:
den Unterschied kannte ich nicht.
Antwort von freezer:
Intels Trickserei wird immer besser:
https://www.patreon.com/posts/21950120
The benchmarks carried out by Principled Technologies are even more bogus than we first thought. A few viewers pointed out that the Ryzen 7 2700X was listed as tested in the “Game Mode” within the Ryzen Master software and I foolishly thought they might have just made a simple copy and paste error in their document as they would have used this mode for the 2950X. This does explain why the Threadripper CPUs were faster than the 2700X in every test.
What this means is a CCX module in the 2700X was completely disabled, essentially turning it into a quad-core. I’ve gone ahead and re-run the XMP 2933 test with Game Mode enabled and now I’m getting results that are within the margin of error to those published by Principled Technologies.
Antwort von rush:
rudi hat geschrieben:
Ja, der Core i7-7820X ist aber kein Desktop-Prozessor, sonder ein HEDT-Prozessor von Intel, also Workstation Klasse mit QuadChannel-Speicher.
Zudem unterstützt der i7-7820X kein Quicksync - der nun angekündigte i9-9900K dagegen schon!
Könnte perspektivisch mal der Nachfolger meines i7-4770K werden...
Antwort von Roland Schulz:
rush hat geschrieben:
rudi hat geschrieben:
Ja, der Core i7-7820X ist aber kein Desktop-Prozessor, sonder ein HEDT-Prozessor von Intel, also Workstation Klasse mit QuadChannel-Speicher.
Zudem unterstützt der i7-7820X kein Quicksync - der nun angekündigte i9-9900K dagegen schon!
Könnte perspektivisch mal der Nachfolger meines i7-4770K werden...
Das fehlende QuickSync ist auch DER Punkt der mich bisher zurückgehalten hat, wobei das bei Premiere Usern nun auch nicht wirklich ein relevanter Punkt war/ist.
Den 4770K hätte man aber schon länger mal ersetzen können/müssen ;-)! Dein Mavic 2 HEVC läuft darauf doch schon lange nicht mehr!
So wie ich das sehe, auch wenn ich bei Intel selbst aus den Specs nichts verbindliches ableiten kann, kommt auf dem 9900K die gleiche GPU wie beim 8700K zum Einsatz, von daher auch kein wirklich zwingender Grund für mich hier upzugraden. Gerade für HEVC Bearbeitung könnte QuickSync hier noch mal ein paar Briketts nachlegen sobald man mehr als eine Spur laufen hat.
Antwort von Jörg:
wobei das bei Premiere Usern nun auch nicht wirklich ein relevanter Punkt war/ist.
absolut nicht, das Teil exportiert meine Dateien in ganz knapp über Echtzeit
oder darunter, je nach Codec, da
habe ich keinerlei Grund auf Quicksync Unterstützung
jahrelang zu warten.
Antwort von dienstag_01:
Quicksync spielt in Premiere natürlich schon eine Rolle, manches muss man aber suchen.
Antwort von rush:
"Roland Schulz" hat geschrieben:
Den 4770K hätte man aber schon länger mal ersetzen können/müssen ;-)! Dein Mavic 2 HEVC läuft darauf doch schon lange nicht mehr!
Wie mehrfach erwähnt.. ich habe bisher keine eigentlich Probleme mit dem HEVC Material (eine Spur) unter Edius 8 WG bei 1/2 Vorschauqualität und meinem übertakteten i7-4770K.
Es ist ja nicht so das ich ständig Luftaufnahmen untermischen muss... die sind eher special interest und abspielbar ohne weitere Effekte ja problemlos, daher kein Ding.
Video ist bei mir schnittmäßig allgemein eher weniger - bin mehr im Foto oder auch Audiobereich unterwegs und da passt die Leistung für meine Anwendungen noch immer ganz gut
Hatte aber in der Tat schon länger den 8700K im Auge, mir aber immer gedacht: Eigentlich will ich erst bei einer Verdopplung der Kerne/Threads vom 4770K upgraden... - daher erscheint mir der kommende quicksyncfähige i9-9900K als durchaus interessanter Upgrade-Pfad im nächsten Jahr... oder wann auch immer :D
Antwort von Jörg:
Quicksync spielt in Premiere natürlich schon eine Rolle,
erzähl mal, bitte
Antwort von dienstag_01:
Jörg hat geschrieben:
Quicksync spielt in Premiere natürlich schon eine Rolle,
erzähl mal, bitte
Seit 2016 wird QS zum Decodieren verwendet (h264) - https://www.adobe.com/de/products/premi ... tures.html.
Mit der letzten Version kam Encoding dazu (soll, ich nutze die iGPU nicht): https://www.golem.de/news/adobe-premier ... 34637.html
Man hat fast den Eindruck, als schäme sich Adobe dafür, dass sie jetzt doch QS nutzen ;)
Antwort von Roland Schulz:
Jörg hat geschrieben:
wobei das bei Premiere Usern nun auch nicht wirklich ein relevanter Punkt war/ist.
absolut nicht, das Teil exportiert meine Dateien in ganz knapp über Echtzeit
oder darunter, je nach Codec, da
habe ich keinerlei Grund auf Quicksync Unterstützung
jahrelang zu warten.
Hmm, wenn man auf die Qualität schaut macht QuickSync bei hohen Geschwindigkeitsanforderungen aber schon Sinn. Hab da selbst einiges mit x265 verglichen und selbst wenn QuickSync noch schneller war sieht‘s besser aus, vor allem in 10bit (höherer Geschwindigkeitsvorteil).
Antwort von Jörg:
bei hohen Geschwindigkeitsanforderungen aber schon Sinn.
das mag ja sein, genau diese Anforderungen habe ich nicht, verweile auch immer noch in der 8bitSteinzeit,
das mag sich mit der XT3 dann ändern.
@ dienstag
danke, das müsste man mal in der Praxis testen, obwohl ich eher zu stärkerer GUInheige.
Antwort von Roland Schulz:
Wenn Du 10bit wiedergeben kannst (TV, Mediaplayer...) macht ein 10bit Export nach Grading auch von 8bit Material Sinn.
Man sieht wirklich Unterschiede, z.B. deutlich reduziertes/eliminiertes Banding in nahezu homogenen Flächen, Himmel etc...
Antwort von rush:
Ich bitte um weitere Erklärung... erscheint mir unlogisch.
Wie sollen aus ursprünglich 8bit plötzlich "mehr" saubere Daten werden nur weil man nach 10bit exporiert.... Rechenfehler?
Oder weil Dein TV gut ist und entsprechend clever Pixel und Bewegung verbindet?
Realistisch betrachtet werden es ja nur mehr Einsen und Nullen... also mehr Zahlen die es zu runden gilt...
Antwort von andieymi:
rush hat geschrieben:
Ich bitte um weitere Erklärung... erscheint mir unlogisch.
Wie sollen aus ursprünglich 8bit plötzlich "mehr" saubere Daten werden nur weil man nach 10bit exporiert.... Rechenfehler?
Oder weil Dein TV gut ist und entsprechend clever Pixel und Bewegung verbindet?
Realistisch betrachtet werden es ja nur mehr Einsen und Nullen... also mehr Zahlen die es zu runden gilt...
Würde mich auch interessieren. Das Prinzip, das Du schilderst, ist nur mehr als logisch.
Allerdings gibt es Paradoxa: 1080p auf 4K Upscale sieht in 4K auf Youtube besser aus, als 1080p Upload in 1080p. Hängt nur damit zusammen, dass Youtube 4K wohl mit mehr Bandbreite rekonvertiert.
Ähnliches könnte sich bei TV mit besserem Dithering zeigen. Ist nur eine Vermutung?
Antwort von Roland Schulz:
Warum gegradetes 8bit in 10bit verarbeitet UND wiedergegeben bessere Ergebnisse leisten kann als komplett in 8bit verarbeitet hat einen ganz einfachen Grund:
ein skalierter Wert findet in der Ausgabe ein genaueres Ziel, der Quantisierungsfehler wird kleiner.
Antwort von mash_gh4:
"Roland Schulz" hat geschrieben:
Warum gegradetes 8bit in 10bit verarbeitet UND wiedergegeben bessere Ergebnisse leisten kann als komplett in 8bit verarbeitet hat einen ganz einfachen Grund:
ein skalierter Wert findet in der Ausgabe ein genaueres Ziel, der Quantisierungsfehler wird kleiner.
ja, das ist natürlich ein gnaz plausibler grund. in wahrheit kommt aber auch hinzu, dass 8bit material aus guten consumergeräten heute in der regel in unbearbeiteter form fast nie banding zeigt, was damit zu tun hat, dass die kameras ganz bewusst dithering nutzen, so weit es sich halt mit den gegebenen bandbreiten über die komprimierung retten lässt. dieser umstand kommt natürlich auch zum tragen, wenn man das bild skaliert od. irgendwelche operationen anwendet, die auch benachbarte pixel erfassen (bspw. denoiser). in diesen fällen hat man es dann tatsächlich mit sinnvollen zwischenwerten zu tun, die sich in einer durchgängigen 8bit bearbeitung nicht darstellen ließen.
in wahrheit nutzen heute brauchbare programme intern ohnehin fast immer 32 od. zumindest 16bit float genauigkeit zur wertedarstellung, so dass man sich um dieses detail gewöhnlich nicht weiter zu kümmern braucht.
exportseitig schaut die scahe dagegen deutlich unbefriediegnder aus. hier ist ja in den meisten fällen gezwungen, tatsächlich wieder auf 8bit zurückzugehen, weil sehr sehr viele geräte od. übertragungstechniken nichts anderes zulassen. auch die praktisch nutzbaren bandbreiten sind meist um den faktor 10-50 kleiner als material direkt aus den kameras. letztersd schränkt die praktische anwendbarkeit von dithering sehr stark ein. 10bit übertragungsformate sind hier prinzipiell eine deutlich bessere lösung, nur ist das halt außerhalb des eigenen wohnzimmer gegenwärtig nur in den allerwenigsten fällen praktikabel.
man sollte also in der praxis eher darauf achten, das produzierte material tatsächlich auch auf seine 8bit tauglichkeit hin zu prüfen bzw. auch im studio-umfeld mit guten 10bit monitoren u.ä. ganz bewusst auch ein derartige 8bit-ausgabe kontrollieren, um nicht völlig ander praktischen realität draußen vorbei zu produzieren.
Antwort von Roland Schulz:
....wie schon mal erwähnt, ich "produziere" für nen relativ kleinen, "elitären" Kreis ;-), und dort stehen überall 10bit fähige TVs.