Frage von blueplanet:Hallo zusammen, ich bin gerade dabei mein erstes 4K-UHD-Projekt, was am Ende ein FHD sein wird, zu realisieren und habe diesbezüglich eine Frage/Bemerkung zu den Renderzeiten.
Wen es interessiert, ein kleines Vorwort: Gedreht wurde auf einer Backpackerreise in Kuba. Als Equipment kam eine GH4 + LUMIX G VARIO 12-35mm + B&W Variograufilter + IR-Sperrfilter + Cage, eine Gopro 4 Black + diverse Filter und ein Tascam MK100 II Audiorecorder zum Einsatz.
Ein Einhand-Gimbal wäre im Nachhinein (besonders für die Gopro) sehr wünschenswert gewesen. Doch was noch nicht vorhanden, wird auf jeden Fall beim nächsten Mal dabei sein. Ein Stativ hingegen habe ich nicht wirklich vermisst, zumal man(n) bei dieser Reiseform in Punkto Technik einfach schnell mit Rucksack und Händen an seine Grenzen stößt.
Nach der ersten Sichtung des Materials bin ich mit dem Ergebnis von beiden Cameras sehr zufrieden, von der GH4 gar begeistert.
Gearbeitet habe ich mit dieser im benutzerdefinierten CINELIKE D oder CINELIKE V-Modus (je nach Lichtsituation) und dank der Peaking-Möglichkeit immer mit manuellem Focus. Der Ton wurde entweder auf dem Tascam direkt aufgenommen oder zur GH4 durchgeschleift.
Für eine kleine Überraschung sorgte die Gopro – mit flachem Bildprofil und Graufilter kann in der Post fast gezaubert werden…
Apropos: hier kommt die Adobe-Cloud-Version + div. Plugins und Mercalli V4 zum Einsatz. Und damit komme ich zur eigentliche Frage/Anmerkung:
Die Renderzeiten für die Clips sind ziemlich nicht von dieser Videowelt. So werden für die Berechnung von 2 Minuten Original UHD-Material zu FHD + Einstellungsebenen "Unscharf maskieren" (3x), "Kontrast" (1x), "Sättigung" (1x) und dem vorangegangenem Colourgrading in Speedgrade, schlappe 9 (!) Stunden fällig.
Dabei ist der PC absolut kein Schlaffi: ASUS Z170, Intel i7-6700 Skylake, NVIDIA Quatro K4200, 32 GByt Arbeitsspeicher und div. SSD’s. Alles unter WIN7.
Erwartungsgemäß dümpelt beim ADOBE-Rendern der Prozessor mit 12% Auslastung so vor sich hin, während die GraKa um Gnade bettelt. Im Mercalli-Prozess hingegen zeigt der i7 was in ihm steckt: 100% Auslastung mit 4 x 4300MHz.
Meine konkrete Frage: welches Geschütz müsste man den grafikkartenseitig auffahren, damit sich die Renderzeit nicht nur halbiert? Oder ist das einfach so im semiprofessionellen Bereich, wenn von UHD zu FHD skaliert und dabei in einen zur Weiterverarbeitung geeigneten Intermediate Codec umgewandelt wird.
Bzw. stößt das System einfach unweigerlich an seine Grenzen, wenn bestimmte Effekte wie "Unscharf maskieren" eben nicht durch ADOBE in Verbindung mit der GraKa unterstützt werden?
Was meint Ihr?
Danke
Antwort von mash_gh4:
bei mir wird das UHD h.264 material von der kamera gewöhnlich noch vor jeder weiteren bearbeitung mit ffmpeg nach prores hq od. dnxhd in 1080p auflösung konvertiert (das geht in ca. halber echtzeit) und dann bearbeitet. nur wenn es irgendwelche spezielfälle zu lösen gibt (stabilisieren...), greife ich auf die uhd originale oder zusätzliche 4k prores/dnxhd intermediates zurück. normalerweise rendere ich auch direkt von diesen intermediates raus, weil die qualität genügt. man kann sie bei diesem schritt aber prinzipiell auch wieder gegen die originale austauschen, wie in einem proxy workflow.
Antwort von blueplanet:
bei mir wird das UHD h.264 material von der kamera gewöhnlich noch vor jeder weiteren bearbeitung mit ffmpeg nach prores hq od. dnxhd in 1080p auflösung konvertiert (das geht in ca. halber echtzeit) und dann bearbeitet. nur wenn es irgendwelche spezielfälle zu lösen gibt (stabilisieren...), greife ich auf die uhd originale oder zusätzliche 4k prores/dnxhd intermediates zurück. normalerweise rendere ich auch direkt von diesen intermediates raus, weil die qualität genügt. man kann sie bei diesem schritt aber prinzipiell auch wieder gegen die originale austauschen, wie in einem proxy workflow.
Ich danke Dir!
…hmm – ich bin ja ein großer Fan (an Ermanglung der Mitnahme eines Stativs ;) von Mercalli. Ab der Version 4 muss man sich schon sehr anstrengen, um neue Bildfehler zu erkennen (eine relativ ruhige Hand beim Filmen vorausgesetzt)…!
D.h. mein Workflow sieht momentan so aus: UHD h.264 in Mercalli laden (beste Stabi, ohne Kanten auffüllen) und als h.264 in bester Qualität herausrendern.
Anschließend in Premiere laden, Clip grob trimmen, je nach Stabi-Ergebnisse auf ca. 50-55% skalieren, an Speedgrade weitergeben, anschließend die Einstellungsebenen darüber legen und mit cineform VC5 (intermediat) als neues "Original" bzw. als Ausgangsmaterial für den eigentlichen Schnitt rendern.
Gibt es einen "schnelleren" und dabei nicht "noch" mehr qualitätsmindernden Workflow (außer Mercalli außen vor lassen ;)?
Antwort von mash_gh4:
für mich ist stabilisieren weiterhin eher die ausnahme als die regel.
wenn es wirklich notwendig ist, mach ich es gewöhnlich mit nuke od. blender und entsprechend aufwendigem manuellen fine tuning.
ich versuche es einfach deshalb zu vermeiden, weil man zwar das wackeln relativ einfach in den griff bekommt, nicht aber die bewegungsunschärfen, die damit einhergehen!
in solchen fällen sind in der praxis wohl irgendwelche camcorder mit guter optischer bildstabilisierung deutlich vorteilhaft, während ich vom OIS in den panasonic objektiven ziemlich wenig halte. deshalb filme ich mit diesen kameras auch fast nur vom stativ, so aufwendig das auch ist.
Antwort von blueplanet:
für mich ist stabilisieren weiterhin eher die ausnahme als die regel.
wenn es wirklich notwendig ist, mach ich es gewöhnlich mit nuke od. blender und entsprechend aufwendigem manuellen fine tuning.
ich versuche es einfach deshalb zu vermeiden, weil man zwar das wackeln relativ einfach in den griff bekommt, nicht aber die bewegungsunschärfen, die damit einhergehen!
in solchen fällen sind in der praxis wohl irgendwelche camcorder mit guter optischer bildstabilisierung deutlich vorteilhaft, während ich vom OIS in den panasonic objektiven ziemlich wenig halte. deshalb filme ich mit diesen kameras auch fast nur vom stativ, so aufwendig das auch ist.
…die Sache mit den Bewegungsunschärfen ist sicherlich nicht von der Hand zu weisen, spielen aber für meine Ansprüche (ich muss damit kein Geld verdienen ;) eine zu vernachlässigende Rolle.
Vergleichbare Stabilisierungsprogramme (Blender, Nuke) sind meines Wissens auch in AfterEffects integriert – aber, wie Du bereits richtig bemerkt hast, wenn effektiv, dann sehr aufwendig zu bedienen.
Mercalli hat diesbezügliche das Rad nicht neu erfunden, macht es aber dem Anwender um einiges leichter und mit am Ende vielleicht nur marginal schlechteren Ergebnissen…!?
Wie gesagt, am konsequenten Einsatz des Stativs unterscheiden sich die Ansprüche von semi zu professionell bzw. von dem, der im "Auftrag" arbeitet und dem, der "nur" einen professionellen Urlaubsfilm machen möchte. (meine Meinung)
Insofern ist die Kombi von OIS und Mercalli für mich absolut vertret-und machbar und solange ich Kommentare bekomme "wie hast du das mit dem Stativ auf der Reise gemacht" ;)), ist alles im grünen Bereich.
Antwort von wolfgang:
bei mir wird das UHD h.264 material von der kamera gewöhnlich noch vor jeder weiteren bearbeitung mit ffmpeg nach prores hq od. dnxhd in 1080p auflösung konvertiert (das geht in ca. halber echtzeit) und dann bearbeitet.
ProRes ist entweder brilliant (auf dem Mac oder bei Apps die ProRes super unterstützen) oder eventuell aich die blanke Katastrophe (unter Vegas etwa). Hängt stark vom System ab.
Gerade bei nativem Material der GH4 schneide ich das unter Vegas auch auf meiner älteren Maschine relativ problemlos (i7 2600K ca. 4.2 übertaktet). Ich handhabe es so dass ich beim Schnitt in UHD bleibe. Warum? Weil ich dann später das UHD-Material auch für die Ausgabe habe.
Ist das System wenig performat (vor allem beim Schnitt) bietet gerade die gratis-Software GoPro Studio nach erfolgter Installation den 4K-fähigen Cineform codec im System an. Der ist absolut brilliant für eine hochwertige Weiterverarbeitung, auch in 4K und (bei mir relevant) auch in 10bit 422 (was du vermutlich nicht brauchst). Aber die Konversion ist halt zu erledigen - da bietet sich übrigens TMPGenc dafür an. Da hast absolut recht diesen Weg zu nutzen, das ist ein Jungbrunnen für ältere Rechner.
Antwort von blueplanet:
Warum? Weil ich dann später das UHD-Material auch für die Ausgabe habe.
...gute Frage - aber wozu? Zukunftsorientiert?
Einen 4K-UHD-TV vorausgesetzt, ist das UHD-Bild der GH4 in der Regel genauso "schlecht" wie ihr FHD-Bild (intern) auf einem FHD-TV.
Das interne, herunterskalierte UHD-Material auf einem FHD-TV hingegen möchte ich als brillant bezeichnen. Und dabei sprechen wir noch nicht von der Framerate-Problematik. 50fsp sehen (mal nicht rein cineastisch betrachtet) einfach knackiger aus als 25fsp.
Dies erledige ich bei der Wandlung von UHD zu FHD gleich mit. Vielleicht sträuben sich da bei manchen die Nackenhaare, aber mit "Optical Flow" aus Premiere gerendert werden aus 25fsp-UHD relativ saubere 50fsp-FHD.
Aber weshalb mache ich das?: wer zusätzlich animierte Grafiken einbindet (z.B. VDG) sieht auf den ersten Blick, ob diese in 25fsp oder in 50fsp vorliegen. Soviel zum Thema "Bewegungsunschärfe", denn bei 25fsp ist außer einem Standbild in diesem Fall alles „unscharf“.
Solange es also keine bezahlbaren, semiprofessionellen und internen UHD-Recorder mit 50fsp gibt, von passenden Mediaplayern ganz abgesehen, ist die beschriebene Vorgehensweise für mich das non plus Ultra.
Und langsam ist es auch etwas albern - wie "scharf" (6K, 8K...) wollen wir es denn noch? Es ist doch im Extremfall bereits jetzt "schärfer" als die Wirklichkeit! Und ich wage mir ebenfalls nicht vorzustellen in welcher Geschwindigkeit logischerweise wieder von 8K auf 4K skaliert wird...
Antwort von mash_gh4:
Mercalli hat diesbezügliche das Rad nicht neu erfunden, macht es aber dem Anwender um einiges leichter und mit am Ende vielleicht nur marginal schlechteren Ergebnissen…!?
auch das ffmpeg besitzt prinzipell ein 'deshake' video-filter, dass man gleich beim konvertieren nutzen könnte...
Gerade bei nativem Material der GH4 schneide ich das unter Vegas auch auf meiner älteren Maschine relativ problemlos (i7 2600K ca. 4.2 übertaktet). Ich handhabe es so dass ich beim Schnitt in UHD bleibe. Warum? Weil ich dann später das UHD-Material auch für die Ausgabe habe.
das hängt tatsächlich sehr stark von der verwendeten software ab. ich finde es aber beim schneiden schon ausgesprochen vorteilhaft, wenn die betreffende software möglich verzögerungsfrei reagiert. das ist leider bei typischen intermediate formaten weit eher gegeben als bei long GOP quellen.
der weg zur späteren UHD ausgabe ist damit aber noch keineswegs verstellt. wenn man das ganze sauber handhabt und die konvertierten arbeitsversionen wie proxis behandelt, kann man abschließend jederzeit wieder von den ausgangsquellen rausrendern. es sind eher kleinere schwächen mancher programme, die dem in der praxis manchmal ein wenig im weg stehen. bspw. werden im resolve die schriftgrößen beim betitlen nicht proportional zur bildgröße spezifiziert, so dass sie dann beim verändern der ausgabegröße nicht mehr passen usw. trotzdem, wenn man sauber arbeitet, sind derartige kleinigkeiten schnell aus dem weg geräumt.
Das interne UHD-Material auf einem FHD-TV hingegen möchte ich als brillant bezeichnen. Und dabei sprechen wir noch nicht von der Framerate-Problematik. 50fsp sehen (mal nicht rein cineastisch betrachtet) einfach besser aus als 25fsp.
ich hab kein problem mit 25fps.
wenn man sich die geschichte der projektionstechniken ansieht, wird einem schnell klar, dass das problem des flimmerns und der bewegeungsunschärfe der einzelnen bilder zwei völlig verschiedene dinge sind. darum reichen in der praxis sogar 16fps, wenn man nur jedes einzelbild mit einer flügelblende drei mal kurz aufleuchten lässt, um ein ganz akzeptables resultat zu erhalten.
ich bin da weniger ein dogmatischer verfechter irgendwelcher 24fps ästhetik, als dass mich einfach dieses idiotische: "ohne 50/60fps geht's überhaupt nich mehrt" hier im forum oft ziemlich nervt!
welchen shutter-winkel man tatsächlich für die jeweiligen kamerabewegungen und vorgegebenen bildraten sinnvollerweise nutzt, hat aber tatsächlich einiges mit angestrebten auflösung zu tun -- aber eben auch umgekehrt: wie man die kamera im gegebene kontext sinnvoll bewegt und welche brennweiten man nutzt!
Das erledige ich bei der Wandlung von UHD zu FHD gleich mit. Vielleicht sträuben sich da bei manchen die Nackenhaare, aber mit "Optical Flow" aus Premiere gerendert, werden aus 25fsp-UHD relativ saubere 50fsp-FHD.
da darfst du dich dann aber nicht wundern, wenn du aberwitzige rechenzeiten in kauf nehmen musst!
im übrigen funktioniert optical flow nur dort wirklich gut, wo die konturen bzw bilddetails wirklich gut verfolgbar sind. konsequenter nimmt man das material für gerechnete zeitluppen also auch ganz anders auf (kürzere belichtungszeiten bzw. kleinere shutter-winkel) und rechnet dann die bewegungsunschärfe nachträglich wieder rein, damit das ganze möglichst erträglich wirkt. es einfach nur über x-beliebiges ausgangsmaterial drüber zu klatschen ist nur sehr bedingt zielführend.
...bei 25fsp ist außer einem Standbild in diesem Fall alles „unscharf“.
wenn ich irgendwelche kulturveranstaltungen dokumentiere, extrahiere ich recht oft auch standbilder aus den 4k aufnahmen. mit dem, was ich an qualität vom fotografieren her gewohnt bin, können diese zwar leider naturgemäß nicht mithalten, aber besser als div. handy-aufnahmen sind sie immer noch. das wirkliche problem dabei ist allerdings gar nichts so sehr die technische bildqualität, sondern vielmehr die tatsache, dass man sich beim filmen anders bewegt als beim fotografieren. dadurch ist die vielfalt der blickwinkel und bildvarianten in den resultierenden aufnahmen oft deutlich eingeschränkt. trotzdem -- um wieder zu deiner behauptung zurück zu kommen -- kann ich aus dieser erfahrung heraus ganz klar sagen, dass du auch bei sehr bewegten motiven mit typischen 180° bzw. 1/50 einzelbildbelichtungen einen verhältnismäßig großen anteil an vertrebar scharfen einzelbildern findest. bei extremeren lichtverhältnissen, kommt einem manchmal fast vor, dass man beim fotografieren ohne blitz unter gleichen bedingungen möglicherweise mehr ausschuss produziert hätte bzw. manche augenblicke vermutlich nicht so scharf erwischt hätte. sicher, das betrifft nur einzelne kader im laufenden bilderstrom, trotzdem widerspricht es ein wenig den intuitiven erwartungen.
 |
Antwort von blueplanet:
…sorry ich meinte das Unscharf/Bewegungsunschärfe/Flimmern in einem anderen Zusammenhang: es geht um "richtige" Animationen (z.B. die Verfolgung einer Reiseroute auf hochaufgelöstem Kartenmaterial). Mich wundert es ehrlich gesagt, dass darüber so wenig im Forum (oder ich habe es nur übersehen) debattiert wird.
25fsp mit aufgelöstem Kartenmaterial von x-tausend mal x-tausend geht gar nicht - selbst wenn das gaaaanz langsam animiert wird!
PS.: auch sehr schön zu sehen beim Ken Burns-Effekt (Bildschwenk). Der Unterschied zwischen 25fsp und 50fsp ist absolut be-greifbar.
In Zeiten der Röhre war das sicher kein Thema – cineastische Kunstform (24fsp) traf PAL-Auflösung. In der heutigen Zeit und erst recht in der Zukunft bzw. bei immer höherer Auflösung der Bilder, spielt die Framerate jedoch eine entscheidende Rolle.
Nicht von ungefähr hat sich deshalb wohl auch Peter Jackson (sicher) zähneknirschend dazu entschlossen, ab Teil 2 den Hobbit mit 48fsp zu drehen. Wobei der Großteil des Films ohnehin rein computeranimiert (also Schärfe/Auflösung bis zum Abwinken) ist. Wenn er das nicht getan hätte, wäre nach Adam Ries, bis dato das reine Filmmaterial der kleinste, gemeinsame Nenner (24fsp) - gewesen. Oder etwa nicht?!
Und ein Mischen - da gebe ich Dir vollkommen recht - ist und bleibt ein fauler Kompromiss. Insofern macht es doch Sinn, die leidige und nervende Diskussion 50/60fsp weiter zu führen bzw. wird in absehbarer Zeit (6K, 8K...) niemand daran vorbeikommen.
Ich denke, wenn es eine bezahlbar und konstruktiv machbar techn. Lösung für die Wärmeproblematik in den Cameras gibt, sind 50/60fsp in UHD genauso selbstverständlich wie bald nach der Einführung von FHD.
Antwort von wolfgang:
Warum? Weil ich dann später das UHD-Material auch für die Ausgabe habe.
...gute Frage - aber wozu? Zukunftsorientiert?
Einen 4K-UHD-TV vorausgesetzt, ist das UHD-Bild der GH4 in der Regel genauso "schlecht" wie ihr FHD-Bild (intern) auf einem FHD-TV.
Das interne, herunterskalierte UHD-Material auf einem FHD-TV hingegen möchte ich als brillant bezeichnen.
Und dabei sprechen wir noch nicht von der Framerate-Problematik. 50fsp sehen (mal nicht rein cineastisch betrachtet) einfach knackiger aus als 25fsp.
Also da werden Äpfel mit Birnen zusammen geworfen. Wenn ich mir UHD-Material in der Aufnahme antue, dann wird auch irgendwann der Wunsch da sein, sich das UHD-Material anzusehen. Spätestens wenn der UHD-TV im Wohnzimmer steht. UHD-fähige Player bis 30p sind heute schon kein Problem mehr.
Wieso dann UHD-Material schlecht ausschaut, aber runterskaliert auf HD das gleiche Material brilliant sein soll - na das verstehe ich absolut nicht. Entweder es ist Schei...e oder es ist Brilliant.
Dies erledige ich bei der Wandlung von UHD zu FHD gleich mit. Vielleicht sträuben sich da bei manchen die Nackenhaare, aber mit "Optical Flow" aus Premiere gerendert werden aus 25fsp-UHD relativ saubere 50fsp-FHD.
Eigentlich ein unsinniger Ansatz. Wenn das Ziel ohnedies HD mit 50p ist, dann würde ich nicht irgendwas zwischeninterpolieren - sondern gleich in HD mit 50p filmen. Das spart nicht nur Zeit sondern bringt auch noch zusätzlich Bildqualität weil man keine Zwischenbildinterpolation braucht. Da der HD-Modus in der GH4 nicht unbedingt toll ist sollte man dann vielleicht nur reflektieren ob dann die GH4 das ideale Instrument dafür ist.
Und langsam ist es auch etwas albern - wie "scharf" (6K, 8K...) wollen wir es denn noch? Es ist doch im Extremfall bereits jetzt "schärfer" als die Wirklichkeit! Und ich wage mir ebenfalls nicht vorzustellen in welcher Geschwindigkeit logischerweise wieder von 8K auf 4K skaliert wird...
Wir reden hier bisher über 4K oder HD. Die Sinnhaftigkeit von 6K, 8K, 16K ist eigentlich eine ganz anz andere Diskussion.
Antwort von Jost:
Meine konkrete Frage: welches Geschütz müsste man den grafikkartenseitig auffahren, damit sich die Renderzeit nicht nur halbiert?
Die Grafikkarte müsste doppelt so schnell sein - NVIDIA 980 TI
980TI:
http://www.nvidia.de/object/geforce-gtx ... pContent=2
K4200:
https://www.pny.com/nvidia-quadro-k4200
Wahrscheinlich ist man aber mit 2xAMD 390X besser bedient.
Aber wenn 2 Minuten für eine Renderzeit von nicht 9 sondern 4,5 Stunden sorgen, muss der Workflow geändert werden.
Antwort von blueplanet:
Wieso dann UHD-Material schlecht ausschaut, aber runterskaliert auf HD das gleiche Material brilliant sein soll - na das verstehe ich absolut nicht. Entweder es ist Schei...e oder es ist Brilliant.
Eigentlich ein unsinniger Ansatz. Wenn das Ziel ohnedies HD mit 50p ist, dann würde ich nicht irgendwas zwischeninterpolieren - sondern gleich in HD mit 50p filmen. Das spart nicht nur Zeit sondern bringt auch noch zusätzlich Bildqualität weil man keine Zwischenbildinterpolation braucht. Da der HD-Modus in der GH4 nicht unbedingt toll ist sollte man dann vielleicht nur reflektieren ob dann die GH4 das ideale Instrument dafür ist.
Sie ist es: bisher habe ich weder direkt haptisch noch virtuell einen Consumer-Recorder in den Händen gehabt, der folgende Punkte aus den Eigenschaften der GH4 vereint
- Qualität des HD-Bildes (was zählt, ist was am Ende erreicht werden kann)
- Größe / Gewicht in Abhängigkeit vom Handling
- optionale Flexibilität (Wechselobjektive, UHD, echtes 4K, externe Bildausgabe incl. HD in…)
- Konfigurierbarkeit in Abhängigkeit von Größe / Gewicht / Handling
- kein Low-Lightmonster und dennoch in der Preisklasse Oberliga
- Robustheit (spritzwassergeschützt incl. Objektiv, spiegellos)
- „nebenbei“ in seiner Preisklasse ein sehr guter Fotoapparat
- großes Zubehörangebot (spezielle Objektive, Adapter, Gage etc.)
- and last but not least: der Straßenpreis für all diese Eigenschaften
...und "nein" - ich arbeite nicht für Panasonic ;)
Der rein physikalisch betrachtete Sinn oder Unsinn aus UHD (aus 4 Pixel mach‘ Einen) FHD zu machen, steht auf einem Blatt. Mehr dazu gibt es in weiteren Threads zu lesen.
Auf einem anderen Blatt beinhaltet es für mich den dabei entstehenden und rein visuell betrachtet, brillanten Bildeindruck.
Abgesehen davon sind die Argument, A: aus einem UHD-Bild relativ verlustfrei ein stabilisiertes FHD-Bild zu bekommen und B: dieses im kreativen Bedarfsfall und im Rahmen der Pixelmaße sogar verlustfrei nachträglichen skalieren (zoomen) zu können, nicht von der Hand zu weisen.
Ergo: besser UHD mit 25fsp von der GH4 als FHD 50fps extern und erst recht nicht intern…
Antwort von DenK:
Exportiere deine stabilisierten Clips doch nicht wieder in h264 aus Mercalli. Das macht ja überhaupt keinen Sinn. Erstens mehr Verluste durch zweite Komprimierung, zweitens musst du dann im h264 Codec schneiden.
Ich kenne Mercalli nicht, aber ist der Stabi da so viel besser als der in Premiere? Falls nicht, könntest du dir den ganzen Zirkus nämlich sparen und direkt in Premiere loslegen.
Zu der 50p, cine-look und Animationen Diskussion sage Ich lieber nichts, dafür könntest du wohl einen eigenen Thread eröffnen.
Antwort von blueplanet:
Die Grafikkarte müsste doppelt so schnell sein - NVIDIA 980 TI
...ist sie das tatsächlich oder nur auf dem Papier. Ich hab da so meine Zweifel. Als ich von einer Quatro FX2000 auf die K4200 umgestiegen bin, taten sich keine Welten auf...
Und eine Geforce ist rein qualitativ keine Quatro. Aber ich denke, dass weisst Du. Schnelligkeit ist nicht immer Alles ;)) Oder eine NVIDIA Tesla K80? ;))
Leider unbezahlbar!
Aber wenn 2 Minuten für eine Renderzeit von nicht 9 sondern 4,5 Stunden sorgen, muss der Workflow geändert werden.
...darauf hoffe ich! Meinen bisherigen Workflow mit den gesetzten Prioritäten habe ich ja bereits beschrieben. Was könntest Du/Ihr konkret empfehlen bzw. was könnte ich unter den genannten Maßgaben verändern.
Antwort von DenK:
Wofür brauchst du denn die Präzision einer Quattro? Die Dinger spielen Ihre Stärken doch erst bei komplexesten 3D-Animationen bzw. wissenschaftlichen Berechnungen aus.
Da gibt es bei AE oder C4D Animationen keine Unterschiede. Beim Schnitt schon garnicht, egal wie viele Adjustment Layer da drauf liegen.
Zum Workflow: Wie gesagt, sollte der interne Stabi von Premiere deine Anforderungen erfüllen, wäre das der einfachste und sinnvollste Weg.
Antwort von blueplanet:
Exportiere deine stabilisierten Clips doch nicht wieder in h264 aus Mercalli. Das macht ja überhaupt keinen Sinn. Erstens mehr Verluste durch zweite Komprimierung, zweitens musst du dann im h264 Codec schneiden.
Ich kenne Mercalli nicht, aber ist der Stabi da so viel besser als der in Premiere? Falls nicht, könntest du dir den ganzen Zirkus nämlich sparen und direkt in Premiere loslegen.
Zu der 50p, cine-look und Animationen Diskussion sage Ich lieber nichts, dafür könntest du wohl einen eigenen Thread eröffnen.
....aber alles andere würde ich erst recht als Qualitätskiller bezeichnen.
- UHD h.264 bleibt bis zum Import in Premiere h.264, dann Wandlung
nach cineform VC5 (Mastercodec) und final in: .h264
- einzige, weiter Option in Mercalli: stabilisiertes UHD .h264 als ProRes =
Wandlung
ProRes kann ich in Premiere (WINOOF) jedoch nicht als Intermedia-
Mastercodec "behalten". Also müsste ich erneut in cinform VC5
(Intermedia) wandeln ,((
Am Ende Ausgabe in .h246 (nächste Wandlung)
Antwort von DenK:
Warum dann nicht gleich in Prmeiere stabilisieren?
Antwort von blueplanet:
Wofür brauchst du denn die Präzision einer Quattro? Die Dinger spielen Ihre Stärken doch erst bei komplexesten 3D-Animationen bzw. wissenschaftlichen Berechnungen aus.
Da gibt es bei AE oder C4D Animationen keine Unterschiede. Beim Schnitt schon garnicht, egal wie viele Adjustment Layer da drauf liegen.
Zum Workflow: Wie gesagt, sollte der interne Stabi von Premiere deine Anforderungen erfüllen, wäre das der einfachste und sinnvollste Weg.
...Render-Qualität - kein Thema?? Photoshop - kein Thema? ;))
Die Stabi von Premiere: das gleiche Problem wie bei Blender etc. - zu aufwändig.
Deshalb: Ich würde gern den Joker nehmen bzw. Mercalli verwenden.
Antwort von DenK:
Wie unterscheidet sich denn die Renderqualität von GeForce zu Quattro?
Und welchen Vorteil bringt die Quattro in Photoshop?
Antwort von DenK:
Auf der Mercalli Seite steht dass ein Export in MJPEG möglich ist. Hast du das mal ausprobiert?
Antwort von Jörg:
ich bewundere eure Lösungsversuche....
und ich begreife die seltsamen Gedanken und den workflow, vorallem die kruden Erklärungen des TO zu diesem, absolut nicht...;-(((
wer 9 Std für 2 min zusammenbekommt, dann nicht komplett diesen Ablauf auseinander nimmt und in Frage stellt, der vergeudet nur die Zeit der helfenden.
Allein die Nutzunmg von Mercalli, wenn ich den warp stabi eingebaut habe, ist lächerlich.
Achso, ich habe mal versucht, diesen Umfang herzustellen, allerdings mit fundiertem wissen über die Art und Weise solcher Orgien.
Mein rechner mit 970 GTX ist nach 23 Minuten fertig...
Antwort von TomStg:
Der Themenstarter kennt sich weder mit einem vernünftigen Workflow aus, noch hat er nennenswerte Peilung bzgl Grafikkarten.
Wer auf die Hinweise bzgl eines völlig unnötigen mehrmaligen Codierens, eines überflüssigen Plugins und einer für Videoschnitt komplett ungeeigneten Grafikkarte nur trotzig reagiert, macht sich das Leben ziemlich schwer und wird wohl zu Recht mit Renderzeiten nicht unter 8 Stunden "betraft"...
Antwort von Jost:
Wie unterscheidet sich denn die Renderqualität von GeForce zu Quattro?
Und welchen Vorteil bringt die Quattro in Photoshop?
Das sind die richtigen Fragen!
Brauch man bei begrenzten Mitteln GPU-Power, kauft man keine elend langsame Quattro.
Hilft jetzt leider nicht weiter.
Mercalli muss übergangen werden.
Anders ist das Problem nicht in den Griff zu bekommen.
Antwort von blueplanet:
Wer hat denn behauptet, dass ich keine AutoCAD-Anwendungen nutze? Ich nicht!
Quadro-Karten haben u.a. neben diversen höheren Auflösungsgrenzen und dem simultan Bildschirmbetrieb den Vorzug, das Chips und Verfahren implementiert sind, die gerade bei Gittermodellen für ein fehlerlose Darstellung sorgen. Da kann keine Gerorce mithalten!
Und was gut für AutoCAD ist, wird erst recht im Zusammenhang mit Photoshop oder beim Rendern eines Videos nicht schlecht sein. Zudem bieten Quadrokarten geprüfte Kompatibilität für kommerzielle Anwendungen, u.a. ADOBE…ich denke nur an die Zeiten, als genervte Geforce-Besitzer noch versucht haben, über diverse Hacks, ihre Karte in PREMIERE zu implementieren!
Dass sich das NVIDIA überteuert bezahlen lässt, steht auf einem ganz anderen Blatt und ist hier nicht Gegenstand der Diskussion.
Die Aussage, das Quadrokarten generell "lahm" sind, ist zudem sehr differenziert zu betrachten. Da spielen so viele Komponenten hinein (Gesamtperformance des Systems bzw. wie ist die Grafikkarte darin angebunden, welche Anwendungen werden Unterstützt und welche nicht etc.)
So kann ich mir nicht vorstellen, es sei denn, eine Person verfügt über hellseherische Fähigkeiten, dass der von mir nicht genauer spezifizierte Ablauf des Renderprozesses "fundiert nachgebaut wurde".
Wie sind denn die von mir 3(!) "unscharf maskieren" Layer im Einzelnen konfiguriert? Jetzt bin aber gespannt!
Im Übrigen ist DAS der Renderflaschenhals - ohne diese Layer komme ich mit einer Quadro K4200 bei 2 Minuten Mercalli-Video in UHD .h264, scaliert nach FHD, gegradet + einem Kontrastlayer und nach cineform VC5 codiert, auf eine Renderzeit von 5 Minuten und 48 Sekunden.
Damit muss ich anscheinend leben bzw. arbeiten und so viel zum Thema generell "lahme" Quadros vs. 970GTX bzw. bei vergleichbarer Speicheranbindung und CUDA-Recheneinheiten.
Aber macht Euch nix draus, wir alle wissen ja nun, das Papier und selbst Zahlen geduldig sind - wenn man nur den großen Zusammenhang anschaut und nicht ins Detail geht.
Apropos: Und nein – Mercalli muss NICHT übergangen werden, denn es hat auf den folgenden Renderprozess überhaupt keinen Einfluss (das FERTIG stabilisierte Video wird in Mercalli gerendert (100% Rechenpower + iGPU) und NICHT in Premiere (Quadro).
Antwort von Jörg:
one more wasted time...aber ich versuche es nochmal:
mit welchem (genau spezifizieren, bitte, damit ich nicht wieder hellsehen muss ) Effekt wird der Kontrast beeinflusst, ist tatsächlich "Unscharf maskieren" notwendig, oder hilft Scharfzeichnen weiter?
Schau die einfach mal die Renderunterschiede der einzelnen Effekte an, da liegen Stunden...
Antwort von DenK:
Whatever...
Antwort von dienstag_01:
Bei MEINEM Premiere wird *Unscharf Maskieren* gar nicht von der GPU berechnet. Scheint ja bei anderen anders zu sein ;)
Antwort von Jörg:
Bei MEINEM Premiere wird *Unscharf Maskieren* gar nicht von der GPU berechnet.
was meinst du, worauf meine Frage nach den verwendeten Effekten hinzielt...?
Antwort von dienstag_01:
was meinst du, worauf meine Frage nach den verwendeten Effekten hinzielt...?
Ich denke schon, dass du die Richtung erkannt hast ;)
Allgemein würde aber ein wenig mehr Sachlichkeit der GPU-for-ever-Fraktion dem Problem eher gerecht werden, findest du nicht. Vielleicht lernen wir ja alle was dazu.
Antwort von blueplanet:
…das ist mir inzwischen noch klarer – geworden.
So – hier kommt die Layerkonfiguration und bitte nicht kreativ "zerpflücken" (warum und weswegen und warum nicht mehr oder weniger und überhaupt) - belasst es einfach bei den technischen Parametern.
Layerebene 1: "unscharf maskieren": Stärke 10, Radius 20, Schwellwert 0
Layerebene 2: "unscharf maskieren": Stärke 40, Radius 8, Schwellwert 0
Layerebene 3: "Scharfzeichner 15"
Layerebene 4: "Kontrast 14"
Layerebene 5 (nach Bedarf und Camera): Sättigung 128%
Nach dem grading ergibt das für meinen ganz persönlichen Geschmack und in Abhängigkeit der Cameras bzw. den dort vorgenommen Voreinstellung das "perfekte" Bild (ist nicht diskutabel ;)
….und ich denke ob "unscharf maskieren" ja oder nein von der GPU gerechnet wird, ist wieder von der Rechnerkonfiguration oder wenn nicht gar von der Grafikkarte in Verbindung mit Premiere abhängig.
Wenn mein System rendert, dann ist nur das leise Säuseln der Quadro zu hören – der Prozessor ist Kaffeetrinken (ganz im Gegensatz zu einem Rendervorgang mit Mercalli).
Mache ich das ganze z.B. auf einem i7-Laptop mit integrierter GPU, fährt natürlich der Prozessor bei dem Effekt "unscharf maskieren" mit Hochleistung und legt das komplette Rest-System lahm.
Über das Für und Wieder der Verwendung einer iGPU bzw. deren Renderqualität streiten sich allerdings die Experten. ASUS hatte mal einen Versuch mit LucidLogix unternommen, um die bekannten Schwächen der iGPUs ein wenig zu kompensieren bzw. die Rechenlasten auf alle GPU’s des PC‘s "gerecht" zu verteilen - das wurde aber bald wieder zu den Akten gelegt und nicht zuletzt auch wegen schlechterer Renderqualität.
Deshalb gehe ich auf Nummer sicher und verwende soweit als möglich für Adobe-Anwendungen die Quadro - selbst wenn es nun 9 Stunden dauert ;)
Antwort von dienstag_01:
….und ich denke ob „unscharf maskieren“ ja oder nein von der GPU gerechnet wird, ist wieder von der Rechnerkonfiguration oder wenn nicht gar von der Grafikkarte in Verbindung mit Premiere abhängig.
Nö, Unscharf Maskieren ist kein Cuda-Effekt (wird alleine von Premiere bestimmt), wird also komplett von der CPU gerendert.
Wenn du trotzdem den Lüfter nicht hörst, heisst das, dass die CPU Wartezeiten hat. Ist nicht unnormal, hängt u.a. von der Skalierbarkeit der Berechnung ab.
Antwort von blueplanet:
...das geht jedoch 9 Stunden so (Prozessorauslastung ca. 12%).
Aber einer muss doch die "Arbeit" machen?! Mit 12%?
Antwort von blueplanet:
...bzw. weshalb macht es der lahmere Laptopgaul mit 100% Auslastung und das Rennpferd bleibt lieber im Renderstall?
Antwort von blueplanet:
"Skalierbarkeit der Berechnung" - könnte ja bedeuten, dass man die Skalierung von UHD zu FHD nicht zusammen mit dem Effekt "unscharf maskieren" machen sollte....
Wäre einen Versuch wert!
Antwort von dienstag_01:
Skalierbarkeit meint hier die Aufteilung der Rechenprozesse auf verschieden Kerne, nicht die Größenänderung des Bildes ;)
Antwort von dienstag_01:
...bzw. weshalb macht es der lahmere Laptopgaul mit 100% Auslastung und das Rennpferd bleibt lieber im Renderstall?
Hast du mal Cuda auf Software only gestellt (auf dem Laptop). Sollte keine Auswirkung haben.
Möglicherweise hat der Laptop weniger Kerne/Threads?
Möglicherweise hat dein Desktop nicht Volle Power als Energieschema?
Antwort von blueplanet:
Skalierbarkeit meint hier die Aufteilung der Rechenprozesse auf verschieden Kerne, nicht die Größenänderung des Bildes ;)
...ups ;))
Antwort von blueplanet:
Hast du mal Cuda auf Software only gestellt (auf dem Laptop). Sollte keine Auswirkung haben.
...keine Auswirkung
Möglicherweise hat der Laptop weniger Kerne/Threads? Möglicherweise hat dein Desktop nicht Volle Power als Energieschema?
Laptopprozessor hat 4 Kerne (Hyper-Threading eher nicht ;), das Energieschema des Desktop steht auf Leistung.
Wie gesagt, bei Mercalli bringt das Rennpferd (Hyper-Threading: eingeschaltet) die volle Leistung (ohne Prozessor-Einbrüche)
...wie gesagt, auch wenn ich es anfänglich falsch verstanden habe, es könnte daran liegen, dass CUDA und nicht CUDA-Anwendungen (gleichzeitig) sich ins Gehege kommen. "Der Eine will und kann nicht, der Andere könnte, aber darf nicht" ;)
Antwort von dienstag_01:
...wie gesagt, auch wenn ich es anfänglich falsch verstanden habe, es könnte daran liegen, dass CUDA und nicht CUDA-Anwendungen (gleichzeitig) sich ins Gehege kommen. "Der Eine will und kann nicht, der Andere könnte, aber darf nicht" ;)
Schalte Cuda aus ;)
Wie gesagt, bei Mercalli bringt das Rennpferd (Hyper-Threading: eingeschaltet) die volle Leistung (ohne Prozessor-Einbrüche)
Naja, kann man nicht so ohne weiteres vergleichen.
Übrigens, bist du absolut sicher, dass Premiere mit der Quadro rechnet?
Wäre nicht der erste Fall, wo sich die GPUs beharken.
Antwort von blueplanet:
...was ist schon sicher ;))
Ich habe in den Einstellungen in Premiere die Quadro zur Verwendung gesetzt. Ich habe in der NVIDIA-Steuerung alle Adobeprodukte mit alleiniger (!) Verwendung der Quadro gesetzt.
Ich könnte im BIOS die iGPU des Prozessors komplett abschalten...
...aber wie schalte ich explizit nur CUDA aus?
Antwort von dienstag_01:
...aber wie schalte ich explizit nur CUDA aus?
In Premiere unter - ich glaube - Sequenzeinstellungen: Software only.
Ich habe in der NVIDIA-Steuerung alle Adobeprodukte mit alleiniger (!) Verwendung der Quadro gesetzt.
Das bringt nichts. In Premiere muss die Quadro ausgewählt werden. Im Zweifel wirklich mal testweise die interne im Bios deaktivieren.
Allerdings sollte man sich mal grundsätzlich mit den Skylake CPUs und Premiere beschäftigen, die haben ja ne Menge Codec-Unterstützung an Bord.
Antwort von DenK:
Also GPU hin oder her, irgendwas kann da ja nicht ganz rund laufen.
Du machst also folgendes:
- Footage stabilisieren in Mercalli
- Export aus Mercalli als h264
- Grobes Trimmen und Grading des stabilisierten h264 Materials in Premiere & Speedgrade
- Export aus Speedgrade als Cineform VC5
Und beim Export aus Speedgrade dauert das dann für 2 Minuten 9 Stunden.
Habe Ich das so richtig verstanden?
Antwort von blueplanet:
Also GPU hin oder her, irgendwas kann da ja nicht ganz rund laufen.
Du machst also folgendes:
- Footage stabilisieren in Mercalli
- Export aus Mercalli als h264
- Grobes Trimmen und Grading des stabilisierten h264 Materials in Premiere & Speedgrade
- Export aus Speedgrade als Cineform VC5
Und beim Export aus Speedgrade dauert das dann für 2 Minuten 9 Stunden.
Habe Ich das so richtig verstanden?
...ja, genauso mache ich - ist es!
Ich werde heute Abend die neuen Dankanstöße von "dienstag_01" in die Tat umsetzen und hoffe, damit mehr Klarheit zu kommen. Es kann jedoch auch sein, dass es am Ende heißt: "...dann ist es eben so".
Schau' mer mal.
Zudem denke ich, viel Spielraum im Workflow gibt es nicht. Selbst wenn das Skalieren separat gerendert wird (in den cineform VC5) und im Anschluss erst die Layer darüber legen werden - würde ein zwar relativ verlustfreies Zwischenprodukt/projekt entstehen, aber es entsteht.
Vielleicht sagt Ihr: "...weshalb renderst du nicht erst ganz am Ende das gesamte Projekt, also direkt von Mercalli UHD .h264 nach FHD.h264" mit allen Layern – um die Umcodierung zu vermeiden?"
Nun, glaubt man den Werbeversprechen von Adobe und NVIDIA, sollte das mit dieser Performance an Rechner und Grafik sogar theoretisch möglich sein (ruckelfrei bis zu 7 Spuren) - aber das ist halt nur graue Werbetheorie.
Wenn ich mit UHD-Material arbeite (in der Timeline skaliert auf FHD) und "nur" noch grade, ist eine flüssige Darstellung etwas anderes. Von zusätzlichen Layern wie "unscharf maskieren" ganz zu schweigen.
Außerdem würde im Moment ein Stundenfilm am Stück bedeuten: ca. 16.000 Minuten Renderzeit, also 270 Stunden oder 11 Tage. Das ist hollywoodverdächtig und völlig unakzeptabel.
Vielleicht versteht Ihr jetzt besser mein Problem: ich werde mich um diese Qualität (bis zu vier Layerebenen) zu gewährleisten, nur in 2 Minuten Clips mit Zwischenrenderung voran arbeiten können…
Antwort von DenK:
Auch auf die Gefahr hin dass die Frage blöd ist: Warum muss es Cineform sein? Hast du mal ienen anderen Codec ausprobiert?
Antwort von blueplanet:
Auch auf die Gefahr hin dass die Frage blöd ist: Warum muss es Cineform sein? Hast du mal ienen anderen Codec ausprobiert?
...blöde Fragen gibt es nicht ;)
Den hab ich vor Jahren käuflich erworben (ist nicht mehr möglich) und hat inzwischen sogar Industriestandart mit marginal besseren Renderergebnissen als ProRes.
Da ich Letzteren in WINDOOF weder frei noch gekauft leider nicht verwenden kann/darf, ist es halt dieser geworden. Damit bin ich sehr zufrieden und belasse das Master immer in diesem Codec. Kommt zwar ne Menge Gbyt zusammen, aber wer weiß, ob es in 5 Jahren z.B. noch h.264-Unterstützung gibt.
Und schwubs...kann ich verlustfrei neu umcodieren.
Antwort von DenK:
Versuchs doch mal mit DNxHD oder ähnlichem, nur um zu sehen ob die Renderzeiten runter gehen.
Antwort von blueplanet:
In Premiere unter - ich glaube - Sequenzeinstellungen: Software only.
...nee, geht nicht (ich glaube das ging mal an dieser Stelle oder unter "Voreinstellungen/Speicher")! Jetzt nicht mehr. Ich habe aber mal den Haken bei "Composit in linear Colour" herausgenommen???
Anscheinend meckert Premiere Cloudversion nur, wenn es eine Grafikkarte ohne CUDA vorfindet. Ansonsten herrscht traute Einigkeit.
Test 1: iGPU an/aus keine Veränderung
Test 2. CUDA nicht abschaltbar
Antwort von DenK:
Dass nur über die Software gerendert wird kann man in den Projekteinstellungen einstellen.
Projekteinstellungen --> Allgemein --> Renderer: Mercury Playback Engine - Software only
Antwort von blueplanet:
Versuchs doch mal mit DNxHD oder ähnlichem, nur um zu sehen ob die Renderzeiten runter gehen.
- 1 Minuten scaliertes UHD.h264 + Layern nach .h264 VBR1 (nur zum Test):
vorhergesagte Renderzeit 2 Stunden 40 Minuten
- 1 Minuten scaliertes UHD.h264 + Layern nach DNxHR:
vorhergesagte Renderzeit 1 Stunden 14 Minuten
- 1 Minuten scaliertes UHD.h264 + Layern nach cineform VC5:
vorhergesagte Renderzeit 6 Stunden 15 Minuten
"Composit in linear Colour" an/aus bringt keine Veränderung
Und ich hab CUDA-Schalter gefunden. Ist jetzt im Mediaencoder ;)
Achtung! Mit "nur Software" (ohne CUDA)
- 1 Minuten scaliertes UHD.h264 + Layern nach cineform VC5:
vorhergesagte Renderzeit 13(!) Stunden 15 Minuten
Der Patient (Quadro) lebt ;)
Antwort von blueplanet:
Projekteinstellungen --> Allgemein --> Renderer: Mercury Playback Engine - Software only
...jepp - da auch!
Antwort von wolfgang:
Den hab ich vor Jahren käuflich erworben (ist nicht mehr möglich) und hat inzwischen sogar Industriestandart mit marginal besseren Renderergebnissen als ProRes.
Den Cineform codec gibts inzwischen sogar gratis.
Man braucht nur die gratis Version von GoPro Studio installieren, dann steht der Cineform codec völlig legal und in voller Pracht = allen Einstellmöglichkeiten auch in 4K im System zur Verfügung.
Und der codec ist durchaus unverändert gut und gerade für ältere Maschinen recht performat. Und Vegas etwa erlaubt damit einen klaren 10bit workflow, da der codec in Vegas nativ implementiert ist und tatsächlich als 10bit dekodiert wird.
Antwort von DenK:
Was heisst "jepp - da auch?"
Wenn du mir eine Minute von dem Material hochlädst, inklusive Speedgradee Projekt in dem die Sequenz genauso angelegt ist wie bei dir, kann Ich die Zeiten hier gerne mal checken.
Antwort von blueplanet:
Den Cineform codec gibts inzwischen sogar gratis.
...ich weiß, ich bin aber nicht sicher ob es qualitativ genau mit dem VC5 zu vergleichen ist. Dieser hat mal, als Cineform noch nicht GoPro war, 299$ gekostet!
Ich kann mir nicht vorstellen, dass nun GoPro/Cineform diesen unverändert frei anbietet. Alle Nachfragen bei Cineform in den USA brachten nur schwammige Aussagen mit dem Verweis, GoPro-Studio herunterzuladen.
Hab' ich gemacht - und siehe da, beide Codec-Varianten kamen sich ins Gehege. Also erst Gopro-Studio deinstalliert incl. Codec und dann wieder über den Support von Cineform eine Freischaltung meiner Kaufversion erwirkt. Die genaue Bezeichnung lautet in Premiere: GoPro-Cineform (x64) 7.6.2
Was steht bei Euch?
Man braucht nur die gratis Version von GoPro Studio installieren, dann steht der Cineform codec völlig legal und in voller Pracht = allen Einstellmöglichkeiten auch in 4K im System zur Verfügung.
...wäre ja möglich, das die alte Kaufversion nicht wirklich 4K fähig ist??!
Und der codec ist durchaus unverändert gut und gerade für ältere Maschinen recht performat. Und Vegas etwa erlaubt damit einen klaren 10bit workflow, da der codec in Vegas nativ implementiert ist und tatsächlich als 10bit dekodiert wird.
...aber mit geht es in erster Linie wirklich um eine möglichst niedrige und damit wenig verlustbehaftete Kompression. Mit dem VC5 komme ich bei
1 Stunde FHD/50fsp auf ca. 170Gbyt. Auf wieviel bringt es z.B. der freie GoPro?
Antwort von blueplanet:
Was heisst "jepp - da auch?"
...ich habe es jetzt auch direkt in Premiere gefunden ;)
Wenn du mir eine Minute von dem Material hochlädst, inklusive Speedgradee Projekt in dem die Sequenz genauso angelegt ist wie bei dir, kann Ich die Zeiten hier gerne mal checken.
Sorry, damit kenne ich mich nicht aus - aber sehr gern, wenn Du mir sagst wie?!