Danke :) verstehe ich natürlich.
Danke für dir Info, Schenker und das Lenovo X1 hatte ich noch gar nicht gesehen.
Am Ende liegt es an der Grafikeinheit, die in der Intel-CPU verbaut ist.gutentag3000 hat geschrieben: ↑Sa 09 Feb, 2019 22:12Danke für dir Info, Schenker und das Lenovo X1 hatte ich noch gar nicht gesehen.
Vielen Dank! Das klingt doch interessant. Vielleicht nehme ich dann doch nur 16 GB. Die 32 GB hatte ich eher für "Zukunftssicherheit" gedacht.Jost hat geschrieben: ↑Sa 09 Feb, 2019 23:36
32-GB-Ram ist zu viel. Notebook-CPUs sind vergleichsweise schwach.
Das gesparte Geld stecke in eine bessere GPU mit mehr GPU-Ram. Wenn es Dein Budget erlaubt, wähle eine GPU mit 8-GB-Ram. Sprich: GTX 1070 oder besser RTX 2070. Die 1050er wird nur Probleme machen. Langsam und nicht genug GPU-Ram. Damit wirst Du nicht glücklich.
Premiere setzt in erster Linie auf reine CPU-Power. Das ist nach meiner Meinung kein gutes Programm für typische Notebooks, weil deren CPUs vergleichsweise schwach sind.gutentag3000 hat geschrieben: ↑Sa 09 Feb, 2019 23:43Vielen Dank! Das klingt doch interessant. Vielleicht nehme ich dann doch nur 16 GB. Die 32 GB hatte ich eher für "Zukunftssicherheit" gedacht.Jost hat geschrieben: ↑Sa 09 Feb, 2019 23:36
32-GB-Ram ist zu viel. Notebook-CPUs sind vergleichsweise schwach.
Das gesparte Geld stecke in eine bessere GPU mit mehr GPU-Ram. Wenn es Dein Budget erlaubt, wähle eine GPU mit 8-GB-Ram. Sprich: GTX 1070 oder besser RTX 2070. Die 1050er wird nur Probleme machen. Langsam und nicht genug GPU-Ram. Damit wirst Du nicht glücklich.
Ich arbeite viel mit Premiere/Photoshop. Denkst du wirklich, 16 GB sind genug?
Was anderes als die 1050er wird im DELL nicht verbaut, sie hat 4 GB RAM.
wenn du nicht mit AE arbeitest, KANN es reichen.Ich arbeite viel mit Premiere/Photoshop. Denkst du wirklich, 16 GB sind genug?
da scheint nicht viel Erfahrung mit Premiere im Spiel zu sein. Alle globalen Effekte von Premiere nutzen die Mercury Engine, viele der Effektpalette, wie Lumetri natürlich auch.Premiere setzt in erster Linie auf reine CPU-Power. Das ist nach meiner Meinung kein gutes Programm für Notebooks.
Adobe baut ausschließlich Methusalem-Programme. Dort läuft alles über CPU-Power. Das ist ein Riesen-Problem, wenn man mit H.265/4k arbeitet. Es gibt weder Unterstützung beim Decodieren noch beim Encodieren seitens der GPU. Unter H.264 und FullHD ist selbstverständlich alles fein.Jörg hat geschrieben: ↑Sa 09 Feb, 2019 23:55wenn du nicht mit AE arbeitest, KANN es reichen.Ich arbeite viel mit Premiere/Photoshop. Denkst du wirklich, 16 GB sind genug?
Ist eine gängige Behauptung der Sparfüchse, die jeden Rechner über niedrige Kosten im Lastenheft konfigurieren...
da scheint nicht viel Erfahrung mit Premiere im Spiel zu sein. Alle globalen Effekte von Premiere nutzen die Mercury Engine, viele der Effektpalette, wie Lumetri natürlich auch.Premiere setzt in erster Linie auf reine CPU-Power. Das ist nach meiner Meinung kein gutes Programm für Notebooks.
Bei diesen Behauptungen wird dann gerne das legendäre Quick sinc ins Spiel gebracht, das aus meiner Sicht lediglich bei Export Vorteile hat.
Für mich vollkommen uninteressant, weil ich niemals auf nem laptop finishe.
und diese Aussage beziehst du dann auf dieses Riesengebiet H265??Adobe baut ausschließlich Methusalem-Programme.
naja, jedem das Seine, btw, selbst für die "Lichtgestalt" Resolve sind mindestens 10er Karten Pflicht.Es fehlt einfach noch das große Update für H.265
Da Intel selber schreibt,dass QuickSync das De- und Encoding betrifft, klingt das für mich wieder mal eher nach ausgedacht ;)Jost hat geschrieben:Du hast eine falsche Vorstellung von QuickSync. Dort läuft nicht nur das De- und Encodieren, der Schnitt, sondern auch die komplette Farbbearbeitung. Die GPU benötigt man nur für Titel, Effekte, Entrauschen, Zeitlupen-Funktionen.
Du hast eine falsche Suchmatrix.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 08:14 Da Intel selber schreibt,dass QuickSync das De- und Encoding betrifft, klingt das für mich wieder mal eher nach ausgedacht ;)
Ne, seit Davinci 15.2 gibt es auch QuickSync. Habe die Tage als Test ein H.265-4K-Handy-Video mit einem Intel-Zweikerner eines Office-Notebooks geschnitten. Ohne Zwischencodecs anzulegen. Außer einer Intel UHD 620 ist dort gar keine andere Grafikkarte drin.Jörg hat geschrieben: ↑So 10 Feb, 2019 01:05und diese Aussage beziehst du dann auf dieses Riesengebiet H265??Adobe baut ausschließlich Methusalem-Programme.
naja, jedem das Seine, btw, selbst für die "Lichtgestalt" Resolve sind mindestens 10er Karten Pflicht.Es fehlt einfach noch das große Update für H.265
Ich hatte mir schon gedacht, dass du den Unterschied zwischen einer Entwicklungsumgebung und einem Feature wie Quicksync nicht verstehst.Jost hat geschrieben: ↑So 10 Feb, 2019 09:04Du hast eine falsche Suchmatrix.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 08:14 Da Intel selber schreibt,dass QuickSync das De- und Encoding betrifft, klingt das für mich wieder mal eher nach ausgedacht ;)
Habe ich doch nie behauptet. Und würde ich auch nie behaupten.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 09:26Ich hatte mir schon gedacht, dass du den Unterschied zwischen einer Entwicklungsumgebung und einem Feature wie Quicksync nicht verstehst.
(Ist ja nicht dein erstes Missverständnis)
Aus *Color Conversion Filter* leitest du ab, dass da Lumetri läuft?! Und das auch noch ohne Adobes Zutun?!
Was für ein Selbstbewusstsein ;)
Du machst dir vermutlich keine Vorstellung von der Komplexität des Zusammenspiels der einzelnen Komponenten in einer Videoanwendung. Auch wenn Intel verschiedene Szenarien mit seiner IGPU unterstützt (damit ist nicht nur Quicksync gemeint), muss das längst nicht der bessere Weg gegenüber Cuda/OpenCL sein. Diese Entscheidung kann nur der Programmierer des Videoprogramms treffen. Wenn das einzige Kriterium dafür die Geschwindigkeit ist, dürfte klar sein, dass das mit hoher Wahrscheinlichkeit zu lasten der Stabilität geht. Was heisst das genau: bestimmte Routinen - nehmen wir mal Farbbearbeitung - profitiert stark von der Anzahl der Kerne unter Cuda/OpenCL. Also wird eine Routine für Cuda und eine für OpnCL geschrieben. Da der Programmierer sein Programm auch auf einem Computer ohne dezidierte Grafik lauffähig halten will, nimmt er auch noch eine Backup-Routine für ausschließliche CPU-Berechnung auf. Haben wir drei. Jetzt kommt Jost und zeigt auf Intel, Nummer Vier. Höchstwahrscheinlich gibt es auch noch verschiedene Varianten in jedem einzelnen Bereich, denn die entwickeln sich ja auch weiter und führen bspw.neue Befehlssätze ein. Ich denke, je professioneller das Einsatzgebiet eines Programms ist, desto vorsichtiger und abgesicherter müssen Entwicklungsschritte vorgenommen werden. Und das ist entgegen vieler Annahmen nicht falsch.Jost hat geschrieben: ↑So 10 Feb, 2019 11:00Habe ich doch nie behauptet. Und würde ich auch nie behaupten.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 09:26
Ich hatte mir schon gedacht, dass du den Unterschied zwischen einer Entwicklungsumgebung und einem Feature wie Quicksync nicht verstehst.
(Ist ja nicht dein erstes Missverständnis)
Aus *Color Conversion Filter* leitest du ab, dass da Lumetri läuft?! Und das auch noch ohne Adobes Zutun?!
Was für ein Selbstbewusstsein ;)
Premiere unterstützt die Intel-GPU erst partiell: H.264, Encoding.
Man muss kein Einstein sein, um zu wissen, dass dies in keinerlei Zusammenhang mit Lumetri steht.
Eine Entwicklungsumgebung ist - für Entwickler. Sie werden in die Lage versetzt, eine Schnittstelle für das eigene Programm zu entwickeln, damit die Intel-GPU angesprochen wird.
Warum Adobe das mit Premiere nur rudimentär macht, vermag ich nicht zu sagen.
Dass dies mittlerweile zu einem quasi Alleinstellungsmerkmal von Premiere geworden ist, ist auch unstrittig.
Und auch unstrittig ist: Wer nicht mit H.265 arbeiten will oder muss, bekommt für 23,79 Euro monatlich mit Premiere ein vorzügliches Programm.
Zum Glück gehörst Du nicht zu denen, die sagen: Was ich selbst nicht habe, ist überflüssig und benötigt darum auch kein anderer.
genau so isses...ist ein Grundfehler vieler Hobbynutzer, die als einziges Qualitätsmerkmal das Tempo sehen.Ich denke, je professioneller das Einsatzgebiet eines Programms ist, desto vorsichtiger und abgesicherter müssen Entwicklungsschritte vorgenommen werden.
macht meine auch, hat allerdings ein Komma und etliche Nullen vor der 85, jedenfalls in handbrake...Frank Glencairn hat ene Maschine die codieret 85 Bilder pro Sekunde,
Löse mal vor dem Kopf das steinalte Premiere-Brett. Es verstellt Dir die Sicht.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 11:54Dein Glaube, nur weil Intel eine SDK für die Entwicklung von Videoanwendungen bereitstellt, muss jetzt jede Videoanwendung 100 Prozent davon nutzen, ist unrealistisch und auch nicht sinnvoll.Jost hat geschrieben: ↑So 10 Feb, 2019 11:00
Habe ich doch nie behauptet. Und würde ich auch nie behaupten.
Premiere unterstützt die Intel-GPU erst partiell: H.264, Encoding.
Man muss kein Einstein sein, um zu wissen, dass dies in keinerlei Zusammenhang mit Lumetri steht.
Eine Entwicklungsumgebung ist - für Entwickler. Sie werden in die Lage versetzt, eine Schnittstelle für das eigene Programm zu entwickeln, damit die Intel-GPU angesprochen wird.
Warum Adobe das mit Premiere nur rudimentär macht, vermag ich nicht zu sagen.
Dass dies mittlerweile zu einem quasi Alleinstellungsmerkmal von Premiere geworden ist, ist auch unstrittig.
Und auch unstrittig ist: Wer nicht mit H.265 arbeiten will oder muss, bekommt für 23,79 Euro monatlich mit Premiere ein vorzügliches Programm.
Zum Glück gehörst Du nicht zu denen, die sagen: Was ich selbst nicht habe, ist überflüssig und benötigt darum auch kein anderer.
Was denn nun?Jörg hat geschrieben: ↑So 10 Feb, 2019 12:01genau so isses...ist ein Grundfehler vieler Hobbynutzer, die als einziges Qualitätsmerkmal das Tempo sehen.Ich denke, je professioneller das Einsatzgebiet eines Programms ist, desto vorsichtiger und abgesicherter müssen Entwicklungsschritte vorgenommen werden.
Und dann noch beim Export, wo wirklich nur newsprofis hohes Tempo benötigen.
macht meine auch, hat allerdings ein Komma und etliche Nullen vor der 85, jedenfalls in handbrake...
Jost, jetzt wirds albern ;)Jost hat geschrieben: ↑So 10 Feb, 2019 14:58Löse mal vor dem Kopf das steinalte Premiere-Brett. Es verstellt Dir die Sicht.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 11:54
Dein Glaube, nur weil Intel eine SDK für die Entwicklung von Videoanwendungen bereitstellt, muss jetzt jede Videoanwendung 100 Prozent davon nutzen, ist unrealistisch und auch nicht sinnvoll.
So getan, kannst Du Dich mal fragen: Warum funktioniert eigentlich EDIUS? Sogar ganz ohne dezidierte Grafikkarte?
Hmmm, HD?dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 15:19Jost, jetzt wirds albern ;)
Ich bin ja Avid User, da gibt es in meiner Version gar keine Hardwareunterstützung, da werden die Effekte schön auf der CPU berechnet. Geht auch. Auch in Echtzeit (nicht alle, logisch). Zumindest in HD (mehr brauche ich nicht). Warum soll das in Edius nicht gehen. Oder in Premiere. Natürlich funktioniert das mit einem halbwegs aktuellen Prozessor.
Und 4K? Wenn der Codec nur geringe Decoding Performance braucht oder als z.B. h264 von Quicksync profitiert, werden auch eine ganze Reihe von Effekten in Echtzeit laufen. Nicht alle. Und nicht 5 parallel. Dann muss man Rendern oder nutzt Cuda/OpenCL.
Eigentlich einfach ;)
Dass du jetzt wieder mit De-/Encoding auf Cuda/OpenCL kommst, nehme ich mal als Beleg dafür, dass du einfach alles in einen Topf haust.Jost hat geschrieben: ↑So 10 Feb, 2019 16:15Hmmm, HD?dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 15:19
Jost, jetzt wirds albern ;)
Ich bin ja Avid User, da gibt es in meiner Version gar keine Hardwareunterstützung, da werden die Effekte schön auf der CPU berechnet. Geht auch. Auch in Echtzeit (nicht alle, logisch). Zumindest in HD (mehr brauche ich nicht). Warum soll das in Edius nicht gehen. Oder in Premiere. Natürlich funktioniert das mit einem halbwegs aktuellen Prozessor.
Und 4K? Wenn der Codec nur geringe Decoding Performance braucht oder als z.B. h264 von Quicksync profitiert, werden auch eine ganze Reihe von Effekten in Echtzeit laufen. Nicht alle. Und nicht 5 parallel. Dann muss man Rendern oder nutzt Cuda/OpenCL.
Eigentlich einfach ;)
gutentag3000 hat nach einem zukunftssicheren Notebook gefragt. Das heißt für mich: Es muss Hardwarebeschleunigung beim De- und Encodieren für 4K-H.265 anbieten.
Also Intel-CPU mit IGPU der Generation 7 oder 8.
Und dazu ein Programm, das das Ausrendern in H.265 per Hardware-Beschleunigung anbietet.
Da bleiben nur die Intel QuickSync-Programme und Davinci.
Cuda kann weder De- noch Encodieren von H.265. Es sind vor- und nachgeschaltete Spezialchips notwendig, die Cuda als Rechenwerk nutzen.
Kannst Dich einlesen unter dem Suchbegriff: NVIDIA VIDEO CODEC SDK
Werden die Spezialchips nicht angesprochen, gibt es weder De- noch Encodieren. Unabhängig davon, wie stark Cuda ist.
Die Handbrake-Nerds haben versucht, OpenCL nutzbar zu machen. Funzt nicht richtig. Die CPU limitiert in der Regel.
In einem anderen Thread hier ist von Wellenbewegungen gesprochen worden. Dass es schon häufiger der Fall gewesen sei, dass neue Codecs und höhere Auflösungen von der CPU nicht berechnet werden konnten und Videocards verbaut werden mussten.
Mit höherer CPU-Leistung wurden die Videocards wieder überflüssig.
Mit H.265 dreht sich das offenbar wieder. Selbst Vielkerner sind zu schwach, um in vertretbarer Zeit H.265 auszurendern.
Ja, H.265 ist mein Steckenpferd. Notgedrungen: TV kann es, Drohne kann es, Osmo-Pocket kann es, filme in CDNG, Handy kann es (das billigste H.265-Handy kostet übrigens 238 Euro). H.265 ist Standard.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 16:40 Und dass der TO nach h265 gefragt hat habe ich nirgendwo gelesen, h265 ist gerade dein Steckenpferd. Aber glaubst du im Ernst, das bleibt alles so wie es ist bis in alle Ewigkeit?! Das sind Momentaufnahmen, das nächste Update kommt bestimmt ;)
Der Osmo Pocket leider nicht... (Nimmt nur h264 auf.)
Zur NVEnc-Größe kann ich nichts sagen. Hatte per CPU gebenchmarkt. Unter NVEnc werden Dir in Hybrid keine SSIM- oder PVNR-Werte angezeigt. Motiv war Wellenreiten: Surfer fährt Manöver in der Welle, viel Weißwasser, Kamera-Schwenk, das lässt sich unter X.265 besser komprimieren als ruhige Motive, wo der X.265-Vorteil gegenüber X.264 nur wenig zur Geltung kommt.
Es liegt mir wirklich fern, die Präferenzen, die du für deine Arbeit setzt, beurteilen zu wollen. Das ist dein Bier.Jost hat geschrieben: ↑So 10 Feb, 2019 21:16Ja, H.265 ist mein Steckenpferd. Notgedrungen: TV kann es, Drohne kann es, Osmo-Pocket kann es, filme in CDNG, Handy kann es (das billigste H.265-Handy kostet übrigens 238 Euro). H.265 ist Standard.dienstag_01 hat geschrieben: ↑So 10 Feb, 2019 16:40 Und dass der TO nach h265 gefragt hat habe ich nirgendwo gelesen, h265 ist gerade dein Steckenpferd. Aber glaubst du im Ernst, das bleibt alles so wie es ist bis in alle Ewigkeit?! Das sind Momentaufnahmen, das nächste Update kommt bestimmt ;)
Wer von H.264 kommt, macht sich auch keine Vorstellungen davon, was H.265 heißt. Vor einem Jahr konnte Davinci noch kein H.265 und Handbrake renderte auf einem Clevo 6700K mit 1,24 FPS. Roland Schulz kam mit EDIUS und 8700K schon damals auf 13 FPS.
Weil ich zu blöd war, habe ich mir einen AMD 1800X gekauft. Der kam dann auf 2,6 FPS. Samt Mainboard wieder verkauft.
Unter Hybrid kann man sich SSIM- und PSNR-Werte ausgeben lassen. Sie zeigen an, wie ähnlich die Ziel- der Quell-Datei ist.
Ja, es stimmt, zieht man alle Register für einen Benchmark, kommt man mit X.264 und X.265 auf praktisch identische Werte.
Der letzte 4K-H.264-Clip, Dauer 2:38 min, war freilich 5,2 GB groß. Er ließ sich nicht mehr per Vimeo Plus uploaden, weil mehr als 5GB am Stück nicht erlaubt sind.
H.265, 10-Bit, 4:2:2, lag knapp unter 4 GB. Das ging.
Aber alles ohne Hardware-Beschleunigung umrechnen lassen, das ist wirklich nichts, was man empfehlen kann.
Was die Adobe-Update-Politik angeht: Da sind die echt konservativ. Erinnere Dich mal an die Lightroom-Hardware-Beschleunigung:
Effekte wurden per GPU gerendert. Das Wandeln von Raw in Jpeg ist jedoch bis heute Benchmark bei PCGH für die Auslastung der CPU.
Premiere läuft dann auch noch über Abo-Modell. Was man hat, das hat man. Da werden die Controller auf jeden Fall sagen: Warum treue Kunden verärgern, wenn auf ihren Rechnern kein H.265 läuft? Mit H.264 ist schließlich alles fein.