Frage von Frank Glencairn:What's new in DaVinci Resolve 15
Fusion
Key new features
• Fully integrated into the DaVinci Resolve timeline
• Improved workflows removing the need for round trip renders to Fusion
• Initial support for a full Metal, CUDA or OpenCL GPU processing pipeline
• Improved UI for faster and more fluid workflow
• New node graph (Flow)
• New viewers
• New toolbar
• New inspector
• Fusion page now includes
? Media Pool
? Tools library with Templates
? Timeline with Thumbnails
? Spline Editor
? Keyframe Timeline
? Metadata
• Dual screen layouts for the Fusion page
• Support for Fusion in collaborative projects
• Support for various geometry files for Fusion in Media Storage and Media Pool
• Support for importing and exporting Fusion comp files
• Support for Fusion planar tracker is now available on the non Studio version of DaVinci Resolve
• Support for Fusion planar stabilization is now available on the non Studio version of DaVinci Resolve
• Support for Fusion planar transforms of roto is now available on the non Studio version of DaVinci Resolve
• Support for Fusion planar tracked roto is now available on the non Studio version of DaVinci Resolve
• Support for Fusion optical flow retiming is now available on the non Studio version of DaVinci Resolve
Visual effects features
• Vector Paint
• 2D and 3D Compositing
• 3D Camera Tracking in DaVinci Resolve Studio
• Planar Tracking and Rotoscoping
• Node Based Workflow
• 3D Workspace
• Keying and Mattes
• Rotoscoping
• Tracking and Stabilization
• 3D Particles
• Scripting
• Shot Cleanup
• Open Color I/O
• Virtual Set Extensions
Broadcast design and motion graphics features
• 2D and 3D Titles
• 3D Logos
• Animated Text
• Spline Based Animation
• Replicate Objects
• Expressions and Macros
• Highly Interactive VR tools in DaVinci Resolve Studio
• Import 3D Models and Scenes
• Built-in 3D Objects
• Realistic Lighting and Shading
• Comprehensive Stereoscopic 3D Tools in DaVinci Resolve Studio
• Deep Pixel Compositing
• Volumetric Effects
Fairlight
Key new features
• ADR (Automatic Dialog Replacement)
• Audio Bounce
• Fixed playhead timeline
• Audio scrollers
• Video scroller
• 3D audio pan
• Sound Library *
• Support for native FairlightFX
? Chorus
? De-Esser
? De-Hummer
? Delay
? Distortion
? Echo
? Flanger
? Modulation
? Noise Reduction
? Pitch
? Reverb
? Stereo Width
? Vocal Channel
General improvements
• Support for audio normalization in the Edit page and Fairlight page
• Support for clip pitch control for clips
• Support for a Media Pool preview of audio
• Support for audio fade in and out to playhead in the Fairlight timeline
• Support for mixed audio track formats from source clips
• Support for trim to playhead operations in the Fairlight timeline
• Support for Preset Library for Audio Effects *
• Support for legacy Fairlight projects on Windows *
• Support for inbuilt tone generator
• Support for Compound clips path bar below Fairlight page timeline
• Support for native audio on Linux
• Support to show audio waveforms while recording
• Support for input monitoring to the native audio engine
• Support for audio retiming for clips with variable speed changes
• Support for Paste and Remove Attributes for audio clips in Fairlight page
• Support for pre-roll and post-roll time in Fairlight timeline
• Support for Loop Jog controls in user interface
• Support for an indicator on the Fairlight timeline when there is an offset between audio and video
• Support for the Fairlight Audio Interface installer on Windows
• Support for a mode to stop and jump to the last position
• Support for track selection and deselection using the track destination selection commands
• Support for selecting buses in the mixer to view and modify their properties in the inspector
• Support for viewing video tracks on the Fairlight timeline
• Support for transport controls from the DaVinci Resolve grading panels on the Fairlight page
• Support for improved timeline view options in the Fairlight timeline
• Improved speaker selection with support for device selections in monitor sets
• Improved consistency of navigation and selection hotkeys between the Edit and Fairlight pages
Performance
• Support for project versioning snapshots to store project backups at set intervals
• Support for only loading the last used timeline when opening a project
• Support for an option to load all the timelines when opening a project
• Support for bypassing color processing on all pages for improved performance on low power systems
• Support for trimming H.264 and other temporal codec formats in Media Management
• Support for GPU acceleration for the ResolveFX Match Move plugin
• Support for GPU acceleration for the stabilizer with a speed up of more than 5x
• Support for new system preference to use optimized image transfers for viewers on supported systems
• Improved save and load performance with database optimizations for large projects
• Improved playback performance when monitoring on a single GPU system with scopes enabled
• Improved playback performance with mismatched output and monitoring resolutions with Blackmagic Design capture and playback devices
• Improved decode and encode speeds for JPEG2000 clips
Edit
• Support for adding, managing and delivering Subtitles and Closed Captions
• Support for embedding a subtitle track when encoding QuickTime files
• Support for embedding closed captions when encoding MXF OP1A files
• Support for embedding closed captions when encoding QuickTime files
• Support for 2D and 3D Title templates
• Support to load multiple clips into the source viewer and access the 10 most recent clips
• Support for stacked and tabbed timelines
• Support for position curves in curve editor
• Support for menu actions to create Flags and Markers with a specific color
• Support for timecode entry in the Marker dialog
• Support for markers annotations on the viewer
• Support for new Change Clip Duration to modify the duration of one or multiple clips
• Support for finding the source viewer clip in the Media Pool
• Support for caching of titles and generator
• Support for keyframing of OpenFX and ResolveFX plugins
• Support for alpha channel in compound clips
• Support for copying and pasting timecode in the viewer timecode displays
• Support for multiple timeline gap deletion
• Support for single viewer mode for the dual screen layout
• Support for marking in and out points in Cinema Mode in the Edit page
• Support for showing the iXML channel names for audio files in the timeline
• Support for replacing multiple shots across tracks while retaining grades and effects by Ctrl/Command dragging clips
• Support for categories of video transitions in the Effects Library
• Support for a new Play Again command on Media, Edit and Fairlight players
• Support for disabling ganged moving of audio and video clips across tracks
• Support for rippling clips on the timeline when pasting retime attributes to other clips
• Support for actions to convert between Duration markers and In/Out marks with ability to set shortcuts
• Support for viewing clip marker overlays on the timeline viewer
• Support for an Edit and Color page indicator for clips with Fusion effects
• Support for toggling the track-destination state
• Support for improved timeline view options in the Edit timeline
• Improved separation and handles between video and audio tracks on the timeline
• Improved timecode entry and playhead navigation
• Improved optical flow for speed changes
• Improved Smooth Cut
• Improved keyboard shortcut mapping *
• Improved previews when performing blades on a multi track edit
• Improved ripple cut and ripple delete behavior
• Improved automatic track creation when dragging clips to new tracks
Media
• Support for Cintel HDR capture
• Support for importing clips to Media Pool with metadata via Final Cut Pro 7 XML
• Support clip type icon in list view for both Clip names and File Names
• Support for showing Clip names instead of File names as the default
• Support for replacing a media file and all its instances in the Media Pool
• Support to navigate to synced audio files from a video clip in the Media Pool
• Support for automatically creating subclips by dragging a clip from the viewer to the Media Pool
• Support for source clips with high speed capture frame rates in the Media Pool
• Support for retaining empty folders when importing folders to the Media Pool
• Support for improved LTC detection from clips with multiple audio tracks
• Support for larger clip thumbnails in the Media Pool
• Support for improved Media Pool column listing
• Support for modifying the extents of subclips
• Support for viewing waveforms for audio clips in thumbnail mode in the Media Pool and Media Storage
• Support for live preview of audio clips in the Media Pool and Media Storage
• Support for multiple bin views in collaborative projects
• Support for smaller Media Pool floating windows
• Support for native IMF decoding and encoding in DaVinci Resolve Studio
• Support for native Kakadu based JPEG2000 decoding and encoding
• Support for encoding unencrypted DCP packages using the Kakadu codec
• Support for ARRI LF camera files
• Support for decoding FLAC audio files
• Support for HEIF decode on Mac and DaVinci Resolve Studio on Windows and Linux
• Support for decoding TGA images
• Support for Canon C200 IDTs in ACES
• Support for XAVC-Intra OP1A HDR metadata
• Improved support for encoding HDR and mastering metadata for MXF and IMF formats in DaVinci Resolve Studio
• Improved support for audio waveform sync in multicam clips
• Improved support for decoding MXF XDCAM clips
Color
• Support for new SuperScale option for high quality resolution upscaling
• Support for multiple timeline playheads with DaVinci Resolve Advanced panel control
• Support for a new LUT browser in the Color page
• Support for live preview of LUTs and gallery stills
• Support for browsing grades from other timelines in the gallery
• Support for browsing grades from other projects in the expanded gallery view
• Support for batch color version management
• Support for switching between previous and next version for multiple clips
• Support for modifying the qualifier by dragging the controls in the user interface
• Support for denoise in the qualifiers matte finesse controls
• Support for alpha matte shrink and grow in the qualifiers matte finesse controls
• Support for ganging the timeline wipe with the current clip
• Support for option to disable thumbnails in the node graph
• Support for improved Color page node graph user interface
• Support for improved user interactions for selecting nodes and modifying node connections
• Support for enabling and disabling multiple selected nodes in the Color page
• Support for a node context menu option to lock the node
• Support for shared nodes for powerful group management
• Support for Camera RAW controls for Canon RAW clips
• Support for Camera RAW controls for Panasonic RAW clips
• Support for the Media Pool in Color page
• Support for GPU accelerated Dolby Vision™ HDR to SDR metadata generation in DaVinci Resolve Studio
• Support for license activated GPU accelerated Dolby Vision™ internal CMU in DaVinci Resolve Studio
• Support for native HDR10+™ controls in DaVinci Resolve Studio
• New ResolveFX Plugins
? ResolveFX Aperture Diffraction in DaVinci Resolve Studio
? ResolveFX Automatic Dirt Removal in DaVinci Resolve Studio
? ResolveFX Deflicker in DaVinci Resolve Studio
? ResolveFX Dust Buster in DaVinci Resolve Studio
? ResolveFX Film Damage
? ResolveFX Flicker Addition
? ResolveFX Lens Reflections in DaVinci Resolve Studio
? ResolveFX Patch Replacer in DaVinci Resolve Studio
• Support for ResolveFX Match Move is now available on the non Studio version of DaVinci Resolve
• Support for stereoscopic convergence on Power Windows
• Support for showing marker overlays in the Color page viewer
• Support for a dynamic keyframe indicator for nodes in the node graph
• Support for tooltip for Edit page FX icons to display the list of plugins applied
• Support for compound node path bar in the display node graph window
• Support for copying nodes and pasting specific values by selecting parameters and using Paste Value
• Support for previewing LUTs by holding Alt/Option pressed while mousing over the LUT context menu
• Support for previewing composite modes in the layer mixer context menu
• Support for listing and navigating to timeline markers from the Color page viewer option menu
• Support for processing a node in a different Resolve Color Managed colorspace or gamma
• Support for selected LUTs in split-screen mode
• Support for previewing the selected album in split-screen mode
• Support for drawing a selection box to select multiple points in ResolveFX Warper
• Support for improved and smoother masks in ResolveFX Face Refinement
• Support for a new enhanced mode for improved noise reduction
• Support for changing the sensitivity of the jog wheel and shuttle control in the DaVinci Resolve Advanced panel
• Support for smart filter options for shared nodes
• Support for smart filter options for clips with Fusion effects
• Support for RED SDK based Gamut Mapping for Red IPP2 based workflows
• Support for option to process node LUTs in ACEScc AP1 timeline color space or ACES AP0 color space
• Improved cropping quality and behavior when using the advanced video stabilization
• Improved ResolveFX Lens Blur with support for custom aperture shapes
• Improved onscreen controls for ResolveFX Match Move and ResolveFX Dead Pixel Fixer
• Improved viewer mouse interaction and behavior when working on a node with multiple power windows
• Improved DCTLs with ability to include code from headers and use LUTs in DaVinci Resolve Studio
General
• Support for external scripting of DaVinci Resolve Studio from local and network locations
• Support for Fairlight Audio Accelerator drivers in the DaVinci Resolve installer on Windows
• Support for a new system preference to control Audio I/O Processing block size
• Support for launching DaVinci Resolve and loading the project when opening a DRP file in the file browser
• Support for a new application level system memory limit in Preferences
• Support for a system preference to enable or disable hardware acceleration of H.264/HEVC and other supported codecs
• Support for system preference to enable or disable Direct IO for media storage locations on Windows
• Support for Metal when using RED GPU debayer on Mac
• Support for system preference to enable or disable RED GPU Debayer
• Support for a floating timecode window
• Support for listing backups for a specific project from the project manager context menu
• Support for backing up and versioning projects when using Live Save
• Support for switching the top bar and page switcher bar to an icons only mode
• Improved application menu layouts
• Improved and clearer contextual menu layouts
Antwort von Skeptiker:
Wow!
Und die kostenlose Version gibt's auch noch?
Antwort von Frank Glencairn:
Ja, gibts noch
Als Betatester arbeite ich schon ne ganze Weile mit 15, und jetzt darf ich auch darüber sprechen.
Ein paar von meinen persönlichen Lieblings-Features sind: -
- die neuen Superscaling Algorithmen
- zwei verschiedene LUT Vorschau Möglichkeiten (Browser und Tastenkombi)
- volle Untertitelunterstützung
- Match move und Stabilizer laufen jetzt auf der GPU, und damit deutlich schneller
- enhanced Noise Reduction
- Deflicker
Antwort von Peppermintpost:
Alter Falter, das ist ja geil, da bin ich super gespannt, wenn das alles funktioniert wird die Luft für die Flame langsam sehr dünn. Muss ich ausprobieren.
Antwort von Funless:
Skeptiker hat geschrieben:
Wow!
Und die kostenlose Version gibt's auch noch?
Kaufst die BMPCC4K auch du, kriegst Studio kostenlos mit dazu. *tadammm*
Antwort von Skeptiker:
Tatsächlich - immer noch in kostenloser Version zum Download: ein Dankeschön an BMD & Grant Petty für dieses tolle Gesamtpaket!
Ich las gerade im Nachbar-Thread: Wer die volle C4K-Auflösung der neuen Pocket Cam verarbeiten will, braucht die Studio Version (die mit der Kamra kommt), ansonsten genügt für UHD auch die Gratis-Version
Und das für Win
und MAC!
-> Muss ich mal ausprobieren!
@Funless: Tks ;-) ;-) -> da kommt man tatsächlich ins Grübeln ...
Antwort von Jost:
Die Ausgabe in H.265/X.265 fehlt leider immer noch. Sehr, sehr schade.
Antwort von Skeptiker:
Wird bestimmt nachgeliefert!
Oder scheitert's vielleicht am Lizensierungstheater?
Antwort von slashCAM:
Bei DaVinci Resolve 15, das ab sofort als freie Beta-Version erhältlich ist wurde als größte Neuerung praktisch das komplette VFX- und Compositing-Proramm Fusion integrie...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
DaVinci Resolve 15 integriert Fusion-Compositing // NAB2018
Antwort von caiman:
Wer sich, wie ich , gefragt hat, was ist mit meinem Fusion Dongle?
Das wird auch eine Resolve 15 Studio Lizenz.
Antwort von chackl:
caiman hat geschrieben:
Wer sich, wie ich , gefragt hat, was ist mit meinem Fusion Dongle?
Das wird auch eine Resolve 15 Studio Lizenz.
da harke ich nach: wie "alt" darf denn dieser Fusion Dongle sein? Ich habe noch einen ziemlich alten hier rumliegen, noch aus Eyeon Zeiten.
Antwort von Peppermintpost:
jo ich habs jetzt mal herunter geladen und mir auch die NAB Demo angesehen, jo die haben jetzt einfach Fusion integriert und das muss man schon sagen, sie haben es klasse integriert.
Ich finde Fusion zwar extrem ätzend, aber jetzt wo es fest ins Resolve verdratet ist werde ich mich definitiv intensiver damit beschäftigen. Fusion ist für mich keine VFX Software sondern wirklich nur für Leute die mal schnell ein paar Layer ineinander stecken wollen, aber als Finishing Lösung kann es definitiv genug.
Was mich im Resolve immer etwas genervt hat war das es irgendwie editing macht, aber nicht so richtig, dann macht es Farbkorrektur super, aber dann muss ich doch wieder in eine andere Software um sachen raus zu retuschieren, oder mal ein paar Titel drauf zu bappen oder so ein Zeugs und jetzt ist plötzlich alles unter einem Dach zu Hause, gerade mit den ganzen schönen export Funktionen und das es quasi alle Formate liest, ich glaube Resolve wird jetzt immer mehr zur zentralen Schnittstelle.
sehr sehr cool. Die setzen damit nun definitiv einen Benchmark nicht nur fürs Grading, ich glaube die Jungs bei Autodesk und Foundry kotzen gerade, nicht schlecht dann sollten sie sich jetzt auch mal langsam anstrengen.
Antwort von macaw:
Peppermintpost hat geschrieben:
Ich finde Fusion zwar extrem ätzend, aber jetzt wo es fest ins Resolve verdratet ist werde ich mich definitiv intensiver damit beschäftigen. Fusion ist für mich keine VFX Software sondern wirklich nur für Leute die mal schnell ein paar Layer ineinander stecken wollen, aber als Finishing Lösung kann es definitiv genug.
Man könnte mit deiner Aussage etwas anfangen, wenn Du mal konkrete Punkte nennen würdest anstatt nur Phrasen zu dreschen. Ich bin zwar kein Fusion Nutzer (afx/Nuke) aber da Fusion in großen vfx Produktionen genutzt wurde und wird, klingt das erstmal wie Gejammer von einem, der auf das Werkzeug schimpft weil er keinen Plan von der Bedienung hat.
Antwort von Uwe:
Meine Kenntnisse mit Fusion sind absolut 0. Da werde ich mich wohl ein bisschen intensiver damit beschäftigen müssen...
Antwort von Peppermintpost:
macaw hat geschrieben:
Man könnte mit deiner Aussage etwas anfangen, wenn Du mal konkrete Punkte nennen würdest anstatt nur Phrasen zu dreschen. Ich bin zwar kein Fusion Nutzer (afx/Nuke) aber da Fusion in großen vfx Produktionen genutzt wurde und wird, klingt das erstmal wie Gejammer von einem, der auf das Werkzeug schimpft weil er keinen Plan von der Bedienung hat.
In Fusion sind Dinge die man 1x im Jahr braucht total gut implementiert, z.B. die ganze 3D ist super.
Fast alle sachen die ich aber 50x am Tag brauche sind total ätzend, z.B. Rotoscoping, CC, Keying, Tracking (wobei das Tracking jetzt in Resolve scheint als hätten sie nachgearbeitet, muss man mal sehen).
Dann ist es natürlich bei VFX so das die sehr schnell an Komplexität gewinnen, wenn ich da z.B. mal 3 verschiedene 3D renderings bekomme und die haben alle 20 Layer plus ich hab noch etwas eigene 3D am Start z.B. Kameratracking, plus diverses Roto, Prep Zeugs, dann geht das in 3-2-1 das ich da so viel Zeugs in meiner Comp habe das ich den Wald vor lauter Bäumen kaum noch sehe, genau da sind wirklich alle Software Lösungen bis auf Nuke totaler Schrott weil es mega unübersichtlich wird und nur noch Chaos herrscht. Also eine Flame oder AE sind da nicht besser.
Und was die grossen Produktionen angeht , mal abgesehen davon das es weder ein pro noch ein contra Argument ist. Ja das stimmt, Fusion hat in den letzten Jahren in sehr vielen grossen Produktionen mitgemischt, und weist du auch in welchem Bereich? In der Stereo (3D) konvertierung, weil es, wie am Anfang geschrieben für ein Comp Programm unglaublich gute 3D Features hat, das wars dann leider aber auch schon.
Antwort von blickfeld:
Haben sie jetzt die prores ausgabe aus fusion (windows) nicht mit implementiert oder sitzt der fehler vorm Computer?
Antwort von Fader8:
Kann man mit Fusion gut stabilisieren? Das fehlte mir bisher in Resolve. Der warp-stabilizor hat schon was drauf.
Antwort von Peppermintpost:
Fader8 hat geschrieben:
Kann man mit Fusion gut stabilisieren? Das fehlte mir bisher in Resolve. Der warp-stabilizor hat schon was drauf.
ich hab letztens nach langer Abstinenz mal wieder an der Flame gearbeitet, da sollte ich ein Bild stabilisieren, sowas hab ich bis jetzt immer manuell gemacht aber die Flame hat halt so ein "Auto-Stabilize", also hab ich gedacht probier den mal aus, dann hat sich der Kunde bewert das das Bild aussieht wie ein Standbild, das war wie angenagelt ;-)
war jetzt off-topic aber ich finde es dennoch lustig ;-)
Antwort von DeeZiD:
Wo wir schon von Stabilisierung reden, diese ist bei Resolve 15 unfassbar schnell. WOW!
Antwort von Drushba:
Peppermintpost hat geschrieben:
Fast alle sachen die ich aber 50x am Tag brauche sind total ätzend, z.B. Rotoscoping, CC, Keying, Tracking (wobei das Tracking jetzt in Resolve scheint als hätten sie nachgearbeitet, muss man mal sehen).
Kenn mich leider überhaupt nicht aus, daher würde ich gerne mal auf Dein Wissen zurückgreifen: Kann man das Rotoscoping in Fusion nicht durch Plugins wie Mocha Pro auffangen, um auf ein ähnliches Level wie Nuke zu kommen? Oder könnte man die kostenlose Nuke Variante nicht mit Fusion kombinieren um ähnlich zufriedenstellende Workflows zu erhalten? Ich denke zwar, jeder der professionell mit Nuke arbeitet, wird sich das auch leisten können und für den werden solche Verrenkungen nicht in Frage kommen. Meine Frage ist daher eher eine ernsthaft interessierte Hobbyistenfrage ;-)
Antwort von Drushba:
Peppermintpost hat geschrieben:
Fast alle sachen die ich aber 50x am Tag brauche sind total ätzend, z.B. Rotoscoping, CC, Keying, Tracking (wobei das Tracking jetzt in Resolve scheint als hätten sie nachgearbeitet, muss man mal sehen).
Kenn mich leider überhaupt nicht aus, daher würde ich gerne mal auf Dein Wissen zurückgreifen: Kann man das Rotoscoping in Fusion nicht durch Plugins wie Mocha Pro auffangen, um auf ein ähnliches Level wie Nuke zu kommen? Oder könnte man die kostenlose Nuke Variante nicht mit Fusion kombinieren um ähnlich zufriedenstellende Workflows zu erhalten? Ich denke zwar, jeder der professionell mit Nuke arbeitet, wird sich das auch leisten können und für den werden solche Verrenkungen nicht in Frage kommen. Meine Frage ist daher eher eine ernsthaft interessierte Hobbyistenfrage ;-)
Antwort von Peppermintpost:
Hey Drushba,
bei Roto würde ich noch sagen, ja das könntest du evtl auffangen weil es halt vom Zeitbedarf mit Abstand am langwierigsten ist. Bei wirklich aufwendigen Roto Shots benutze ich noch nicht einmal Nuke weil es schon zu lange dauert. Da benutze ich Silhouette was genau für diesen einen Zweck gebaut ist.
Aber um das dann zu machen must du bedenken das du das Footage erst einmal exportieren must, dann haste es ja sowieso schon extern von Resolve liegen, warum willste dann zurück und doch wieder Resolve z.B. fürs Keying benutzen wo es ja auch nicht besonders gut ist, oder z.B, für CG integration, da ist es ja auch eher auf AE niveau.
Wenn du an der Stelle bist, dann kannste den Shot auch gleich extern zusammenbauen und dann wieder an Resolve zurück geben damit da dann die finale Farbkorrektur drauf kommt und es dort gemastert wird.
Genau das meinte ich auch als ich gesagt habe - als finishing Tool ist das gut genug, aber als VFX Maschine sehe ich es eher nicht. Also mal mit einem schnellen Workaround mal ein einfaches Detail zu ändern das ist genau das was für mich finishing ist.
Der Kunde der dir in den Nacken sitzt sagt mal spontan: "Ach schau mal da ist noch ein Logo von Aldi im Bild, kannste das mal weg machen?" und dann brauchste nicht erst die VFX Abteilung anrufen und denen den Shot exportieren und warten bis jemand Zeit hat, das machste halt schnell mal selbst. oder "Da die hat ein Pickel im Gesicht (oder Rinde unter den Augen) fix das mal" oder "Kannste mal die Schrift auf der Packung schärfer machen" so ein Zeugs ist klassisches Finishing, quasi die Vorstufe zu VFX. Wenn es aber ans Eingemachte geht wo du Shots hast wo du an einem Shot einen ganzen Tag rumfummelst oder sogar länger, da würde ich Fusion nicht in Erwägung ziehen.
Aber das sage ich heute auch über die Flame. Die war vor 20 Jahren mal State-of-the-Art weil alles andere so schlecht war, da hat man die noch für Hollywood VFX benutzt, aber als dann ich glaube 1999 Shake kam, da war das ruckartig vorbei, weil Shake nicht nur billiger sondern auch schneller und besser war. Set dem ist die Flame viel besser geworden, aber alles andere halt auch, deswegen wird die heute auch "nur noch" fürs Finishing genutzt.
Ich finde das Resolve sticht in genau diese Richtung, genau wie es z.B. Nuke Studio tut, was auch eine coole Software ist, aber da merkste halt das ist VFX mit Timeline, das will man als Finishing Tool auch nicht, weil z.B. die Farbkorrektur im Resolve zwar bei weitem nicht so genau ist wie im Nuke, aber um einen Look zu entwickeln will man genau das auch nicht. Da ist Resolve für die Anwendung haushoch überlegen.
Ich hoffe das beantwortet deine Frage halbwegs zufriedenstellend.
Antwort von Drushba:
Hi Peppermintpost, danke für die Antwort. Bin leider von der Sorte, daß mich umfangreiche Antworten zu mindestens zehn neuen Fragen anregen, aber ich schau mir erstmal Deine Tuts durch. Mit Nuke, Natron oder Fusion zu spielen macht einfach Spass, das muß ich neidlos zugestehen (und dabei aufpassen bei meinen Schusterleisten zu bleiben) ;-)
Antwort von Peppermintpost:
Drushba hat geschrieben:
Hi Peppermintpost, danke für die Antwort. Bin leider von der Sorte, daß mich umfangreiche Antworten zu mindestens zehn neuen Fragen anregen, aber ich schau mir erstmal Deine Tuts durch. Mit Nuke, Natron oder Fusion zu spielen macht einfach Spass, das muß ich neidlos zugestehen (und dabei aufpassen bei meinen Schusterleisten zu bleiben) ;-)
Ich glaube mit dem neuen Resolve ist man gut aufgestellt Fusion nicht länger zu ignorieren sondern sich da mal rein zu fuchsen und das gilt bestimmt für uns beide ;-)
Antwort von nic:
Wirklich spannend wie Resolve sich entwickelt. Und das sage ich eine Woche nachdem ich unsere achte parallele CC Installation aktiviert habe…
BMD lockt und lockt.
Antwort von mash_gh4:
ich finde es schon auch sehr beindrucken, was da wieder dazugekommen ist
am wichtigsten für mich sind eigentlich folgende punkte, die vermutlich den meisten anderen nicht so viel bedeuten werden:
endlich gibt's vernünftigen sound support unter linux!
offenbar ist man dabei, python scripting im reesolve zu erlauben...
was die fusion integration betrifft, galube ich zwar, dass das im alltag recht praktisch sein kann, bezweifle aber gelichzeitig, dass es wirklich konsequent umgesetzt ist -- also so wie bspw. im mistika od. der reactor2 engine im flame.
ich fürchte also, dass man hier eher nur eine oberflächliche verschmelzung der anwendungen vorgenommen hat, aber nicht wirklich eine durchgängig optimierte interne optimierung vorfinden wird. das dürfte ich in puncto performance bzw. ressourcenverbrauch aber ohnehin schnell zeigen. ich wäre natürlich froh, wenn ich mich darin völlig irren würde -- wir werdens ja sehen...
das es in puncto benutzerfreundlicher gestaltung der oberfläche -- freiere anordnung der fenster und farbkorrigierter GPU vollbildausgabe offenbar keine vortschritte zu verzeichnen gibt, verwundert leider mittlerweile eh nicht mehr weiter...
Antwort von Kamerafreund:
Super!
Nur eins verstehe ich nicht:
Warum kann kein Schnittprogramm Marker Hinzufügen und benennen per shortcut OHNE dass die Wiedergabe pausiert. Das ist bei Massen an Rohmaterial wahnsinnig anstrengend und wäre so ein einfaches Feature..
Antwort von Peppermintpost:
ne mash, ich glaube im 2ten teil irrst du dich, ich hab es mir zwar erst kurz selbst angesehen und weitestgehend die demos und interviews geschaut, aber mein erster eindruck war wirklich, wow, das ist aber gut integriert.
Die Performance ist der Hammer, kein Vergleich mit Nuke, wobei die in den letzten 2 grossen Releases ja auch schon von der Performance gas gegeben haben, aber Fusion/Resolve ist das wirklich ein kompl. anderer schnack.
Das da jetzt noch Bugs drin sein werden und es hier und da noch klemmt, da gehe ich bei einem so neuen Produkt schon von aus und selbst der Blackmagic Chef sagt ja das das Ziel einer Production Release Ende des Jahres ist, aber es sieht wirklich schon sehr gut aus.
Antwort von mash_gh4:
Peppermintpost hat geschrieben:
ne mash, ich glaube im 2ten teil irrst du dich, ich hab es mir zwar erst kurz selbst angesehen und weitestgehend die demos und interviews geschaut, aber mein erster eindruck war wirklich, wow, das ist aber gut integriert.
ich lass mich diesbzüglich gerne eines bessern belehren bzw. würde mich wirklich freuen, wenn es tatsächlich besser als erwartet funktioniert.
das worauf ich mich aber eigentlich eher bezogen hab, war die trennung zw. zwei grundsätzlich verschiedenen welten, die fusion und resolvo intern vermutlich auch weiterhin prägen wird. das ist im grunde nichts ungewöhnliches. auch im nuke studio gibts ja dies klare grenzziehung zw. den paar wenigen shader basierenden echtzeiteffekten direkt auf der timeline und der anspruchsvolleren abbarbeitung von node graphs. auch blender bzw. der dortigen trennung zw. VSE und compositor und deren jeweils völlig unterschiedlicher arbeitsweise ist das im grunde ganz gleich gelöst. beim mistika und flame wird das aber tatsächlich anders gehandhabt. dort gibt's diese klare trennlinie nicht und beide aufgaben werden tatsächlich mit genau den gleichen elementaren mitteln bewältigt. aber das ist eben wirklich ein vorzug, den diese lösungen allen anderen voraus haben, der nicht ganz so einfach nochzuahmen od. in bestehende lösungen einzupflegen ist. ob's im alltag wirklich so eine große rolle spielt, oder eher nur das herz irgendwelcher technisch faszinierten zeitgenossen höher schlagen lässt, ist ohnehin zu hinterfragen. für den endanwender zählt wohl eher, dass es in der vorliegenden form einfach deutlich flüssiger zu bedienen ist bzw. eine sehr übersichtliche integration beider aufgaben ermöglicht.
was mich persönlich sehr interessiert, ist die frage, wie weit resolve auch in der freien version (und der linux ausgabe im besonderen) weiterhin offen bleibt für div. freie lösungen und plugins. diesbezüglich gab's ja bereits in der vergangenheit signifikante unterschiede zw. den freiheiten in resolve und fusion. in ersterem wurden bspw. openfx plugins auch in der freien version unterstützt, während das bei fusion nur in der studio-ausgabe möglich war.
diesbezüglich wirkt es auf mich so, als ob resolve nun doch auch langsam die schraube anzieht bzw. sehr viele interessante neue möglichkeiten -- bspw. das scripting -- nur mehr der kostenpflichtigen ausgabe vorbehaltens sind. das ist zwar angesichts des durchaus erschwinglichen preises keine große tragödie, aber halt doch nicht ganz optimal, wenn man bedenkt welcher produktive input oft gerade aus dem umfeld der freien software bzw. jenen zeitgenossen, die sich einfach daran gewöhnt haben, dass sich gute werkzeuge nicht unbedingt über ihren preis definieren müssen, kommt. ich würde es da eher begrüßen, wenn gerade diese features, die einfach als notwendige voraussetzung bzw. schnittstelle hinüber zur freien welt anzusehen sind, in beiden versionen verfügbar wären und dafür halt andere, stärker mit kommerziellen systemen in verbindung stehende features, strenger "besteuern" würde.
ich werde schauen, ob ich die linux version tatsächlich vernünftig zum laufen bring -- sehr viel ermutigende erfolgsmeldungen dazu findet man ja bisher noch nicht...
Antwort von Peppermintpost:
was Mystika angeht hast du recht, da läuft alles direkt in der Timeline, mein Gefühl sagt mir das das genau der Grund ist warum es keiner kauft, Flame funktioniert genau sowie Resolve und NukeS, in der Flame heist der Fusion Part "Batch" und der Color Grading Part "ColorWarper", natürlich mit genau entegengesetzter Gewichtung wie bei Resolve.
Antwort von Steelfox:
Ich nutze Fusion seit 2-3 Jahren. Bin jetzt nicht DER Profi, aber alles was ich bislang machen wollte, erledigt Fusion eigentlich Perfekt. Bin aber auch noch nicht durch alles durchgestiegen. Expressions sind für mich nach wie vor ein großes Rätsel. Tracker und Keying sind für mich absolut ok. Auch bei den Particles bin ich bislang noch nicht auf Grenzen gestoßen. Das Einzige was mich etwas nervt, ist wenn ich mit FBX aus Blender hantiere, muß ich erstmal das Materialtexturen neu zuordnen. Dabei sind dann gefühlt 1000 Nodes umzusortieren. Ist bei aufwendigen Modellen schon manchmal ein Krampf.
Ich nutze Fusion zu meinem Vegas Pro. Das möchte ich eigentlich nicht mehr eintauschen. Vorgänger waren viele andere Schnittprogramme. Von Pinnacle (eine Katastrophe) über Cyberlink (noch schlimmer) zu Magix Pro (auweia) bis hin zu Premiere (damals noch V5), und Edius hab ich nie probiert. Vegas lässt sich mit Plugins für die Audiobearbeitung (Kommentar) prima aufbohren. Andere Plugins wie Vegasaur bringen viele kleine Dinge mit mit, von denen man gar nicht gewußt hat, das sie einem fehlen :-) Vegas ist das perfekte Werkzeug, für mich wohl gemerkt.
Waren einmal Szenen zu bearbeiten, habe ich diese exportiert und dann von Fusion aus wieder eingefügt. War jetzt nicht der Aufwand. Resolve war für mich immer irgendwie zu sperrig, hab ein paarmal Anlauf zur Einarbeitung genommen. Hab dann aber immer schnell die Lust verloren. Das Grading hab ich bislang nie gebraucht. Jetzt wo es beides in einem Paket gibt, werde ich mir das doch noch einmal genauer ansehen. Vielleicht tut sich was.
Preislich unterbietet diese Kombi sogar Hitfilm, was ähnliche Funktionen beinhaltet (Schnitt und VFX), aber von den meisten wohl eher belächelt wird.
Antwort von mash_gh4:
Peppermintpost hat geschrieben:
Flame funktioniert genau sowie Resolve und NukeS, in der Flame heist der Fusion Part "Batch" und der Color Grading Part "ColorWarper", natürlich mit genau entegengesetzter Gewichtung wie bei Resolve.
obwohl ich da manchmal, vor lauter inkompatiblem sprachgewirr und phantasievollen firmenspezifischen namensgebebungen, oft vieles durcheinander bringe, dürfte ich mich hier ausnahmsweise nicht geirrt haben. das wovon ich hier spreche, nennt sich bei flame tatsächlich
"reactor" (
"Flame Reactor is the name given to the hybrid CPU/GPU processing pipeline in Batch FX.", https://www.creativetools.se/software/i ... ame-assist)
diese umstellung, die selbe verarbeitungsengine für die timeline und batch processing zu nutzen -- was übrigens nur für die linux-ausgabe gilt! -- wurde mit flame premimum 2014 gestartet und danach sukzessive weiter ausgebaut, um es heute wirklich bereits durchgängig ganz ähnlich wie im mistika zu handhaben:
"Highlights include : ... Reactor 2.0, the GPU-driven Batch pipeline, which provides 16-bit floating point precision throughout the application. With Reactor 2.0, artists can preview effects in the timeline during playback and access more effects tools including GMasks and a single layer Action, as well as directly convert timeline compositions to Batch trees, to help artists quickly and efficiently iterate projects." (
https://www.provideocoalition.com/autod ... c-control/)
Peppermintpost hat geschrieben:
was Mystika angeht hast du recht, da läuft alles direkt in der Timeline, mein Gefühl sagt mir das das genau der Grund ist warum es keiner kauft, ...
naja -- ich glaube schon, dass es gute gründe gibt, warum ihnen das alle anderen irgendwie nachzumachen versuchen. technisch ist es einfach die heute optimalste variante, nur das eben wirklich nicht ganz einfach befriedigend hinzubekommen ist.
die gründe, die in der praxis gegen mistika sprechen, würde ich wirklich ganz woanders sehen. auch wenn das teil einfach in vielerlei hinsicht technisch unschlagbar gut ist, fällt die praktische bedienbarkeit bzw. effektive produktivität damit ja leider nicht immer ganz so berauschend vorbildlich aus. da kann es dann schon vorkommen, dass man mit deutlich primitiveren, aber dafür benutzerfreundlicheren, tools wie resolve glücklicher wird.
ein wirkliches problem sehe ich aber auch darin, dass die öffentlichkeitsarbeit und pflege von produkten, die für einen breiteren anwendungskreis sinnvoll nutzbar wären, bei sgo wirklich nicht sonderlich vorbildlich funktioniert. das was blackmagic völlig übertreibt, geht einem hier dann doch wieder ein wenig ab. so ist es halt wirklich eine ziemlich exotische sache, die man gewöhnlich nur für spezialanwendungen nutzt bzw. von anderen herstellern regelmäßig für demonstrationszwecke herangezogen wird, weil man damit immer wieder sachen machen kann, wie sie in dieser weise in anderen vergleichbaren lösung oft erst jahre späte möglich sind. man denke hier bspw. an parallles SDR und HDR produzieren, wie es ja nun, wenn auch in deutlich beschränkterer weise, auch einzug im resolve gehalten hat.
Antwort von Peppermintpost:
ne mash, da biste der Autodesk Werbung auf den Leim gegangen. Reactor ist eine Gaming Engine. Flame hat immer und vom ersten Tag an OpenGL zum rendern benutzt. Das jetzt alle so viel wie möglich auf der GPU machen ist bei Flame ein super alter Hut. Das hatte auch die ganze Reihe - Flint, Flame, Inferno, Smoke, Fire, die alle konnten das. Was sich geändert hat ist lediglich das die OpenGL gegen Reactor getauscht haben, mehr nicht.
Reactor ist im Grunde OpenGL mit der Ansage "uns sind Farben und präzision egal solange es nur schneller rechnet"
Mystica hat das aber auch schon immer schon seit dem es Jaleo heist, das ding ist ja (fast) genau so alt wie die Flame. Nur das die es halt nicht mit einer Gaming Engine machen sondern halt mit OpenGL oder was immer die heute benutzen, aber ich glaube OpenGL.
In der Timeline vom Flame machste auch im Grunde garnichts, also da kannste mal eine einfache Grafik mit Alpha drauf werfen, sowas wie ne Bauchbinde oder ein Logo, evtl auch mal ein Bild neu positionieren, oder eine Farbkorrektur wenn du keine Masken und kein nix brauchst, aber alles was auch nur minimal komplizierter wird (also quasi ALLES) machste dann im Batch.
Antwort von mash_gh4:
Peppermintpost hat geschrieben:
ne mash, da biste der Autodesk Werbung auf den Leim gegangen. Reactor ist eine Gaming Engine.
lieber peppermint! ich schätze deine sachkundikeit und erfahrung in sachen compositing bzw. deine diesbezüglichen einschätzungen hier im forum wirklich sehr, aber derartige untergriffigkeit scheint mir wirklich deutlich hinter dem angesprochenen erwartungen an dich zurückzubleiben.
ich glaube schon, dass ich hier über über technische details rede, die mich wirklich interessieren -- mehr als für die ganz praktische nutzung oft gut ist --, wo ich zumindest ansatzweise wirklich mitreden kann.
OpenGL ausschließlich nur als "gaming engine" zu verstehen, klingt für mich fast so dumm als würde man behaupten, GPUs könnnte man nicht zum rechnen benutzen, sondern ausschließlich nur zur ausgabe von grafiken am bildschirm.
das was du wohl eher damit ansprichst bzw. kritisierst, ist die nutzung von
GLSL (OpenGL Shading Language) fragment shaders. ja, darüber kann man in der tat diskutieren.
prinzipiell ist es zwar so, das GLSL, genauso wie CUDA, OpenCL, SPIR-V u.ä. von grafikkartenspezifischen treiber-bestandteilen in letztlich ganz ähnlich wirkenden kartenspezifischen maschinencode übersetzte werden, der dann tatsächlich dort ausgeführt wird. aber damit erfasst man natürlich nur einen recht allgemeinen groben blick auf das ganze. in der praxis machts schon einigen unterschied aus, welche möglichkeiten sich dadurch ergeben, den tatsächlich ablauf der verarbeitung zu optimieren.
GLSL ist hier gewissermaßen als älteste bzw. konservativste herangehensweise anzusehen, die zwar aus heutiger sicht einige ganz gravierende nachteile bzw. beschränkungen mit sich bringt, sich dafür aber in puncto kompatibilität und ausgereiftheit ausgesprochen positiv von anderen varianten unterscheidet. das ist auch der grund, warum selbst in verhältnismäßig naher vergangenheit projekte ganz bewusst diesen weg beschritten haben.
siehe dazu bspw. die erklärungen zu
movit:
"Movit has chosen to run all pixel processing on the GPU, using GLSL—OpenCL is
way too young, and CUDA is single-vendor (and also surprisingly hard to
get good performance from for anything nontrivial). While "run on the GPU"
does not equal "infinite speed" (I am fairly certain that for many common
filters, I can beat the Intel-based GPU in my laptop with multithreaded SSE
code on the CPU—especially as moving the data to and from the GPU has a cost that is not
to be taken lightly), GPU programming is probably the _simplest_ way of writing
highly parallel code, and it also frees the CPU to do other things like video
decoding."
auch die meisten OpenFX-plugins sind nicht wirklich in der lage wesentlich mehr zu nutzen, da, die dort bisher standardisierte OpenGL suite, nicht wesentlich mehr erlaubt, während CUDA- und OpenCL-unterstützung, aber auch eine verbesserte OpenGL suite 2.0, es noch immer nicht über das entwurfsstadium hinaus geschafft haben: :(
http://openeffects.org/standard_changes
für die praktische anwendung hat das deshalb derart fatale folgen, weil genau jene optimierungen, von denen oben die rede war, hier also maximal über fragwürdige umwege möglich sind (im falle von resolve, erzwingt man bspw., dass nicht standard-konforme propritäre OpenFX-erweiterungen in entsprechenden plugins genutzt werden müssen).
es gibt aber natürlich auch noch andere techn. gesichtspunkte, in denen sich GLSL fragment shader von den anderen ansätzen unterscheiden. dort wo es die "genauigkeit" betrifft, die ich aus deiner kritik herausgehört habe, hat das z.t. mit der etwas gewöhnungsbedürftigen handhabung von textures bzw. der interpolation zwischen pixeln zu tun, die natürlich in anderen ansätzen, die von vornherein mit tensoren bzw. mehrdimensionalen arrays von einer festgelegten größe arbeiten, anders gehandhabt wird. auch in puncto rechengenauigkeit und der spezifischen arbeits- und definitionsweise von fragment shadern, ergeben sich einschränkungen, die mit anderen mitteln tlw. besser gelöst werden können. trotzdem, dass alles ist noch lange kein grund, es als bloße "spielerei" abzutun.
ansätze, die das von grund auf konsequenter machen, und wirklich nur eine familie von grafikkarten möglichst optimal zu nutzen versuchen, bringen ja auch wieder andere ganz einschneidende nachteile mit sich. apple nutzer und AMD liebhaber zeigen sich ja regelmäßig wieder darüber entsetzt, wenn ihre hardware nicht in gleicher weise genutzt werden kann. aber um diese einschränkung kommt man in wahrheit fast nicht herum, wenn man es wirklich effizienter lösen will.
Peppermintpost hat geschrieben:
Flame hat immer und vom ersten Tag an OpenGL zum rendern benutzt. Das jetzt alle so viel wie möglich auf der GPU machen ist bei Flame ein super alter Hut. Das hatte auch die ganze Reihe - Flint, Flame, Inferno, Smoke, Fire, die alle konnten das. Was sich geändert hat ist lediglich das die OpenGL gegen Reactor getauscht haben, mehr nicht.
Reactor ist im Grunde OpenGL mit der Ansage "uns sind Farben und präzision egal solange es nur schneller rechnet"
der springende punkt an der ganzen sache ist gar nicht so sehr die tatsache, dass die entsprechenden berechnungen tatsächlich auf der grafikkarten mit ihren unglaublichen parallelisierungsmöglichkeiten ausgeführt werden, sondern dass die einzelnen arbeitsschritte auch tatsächlich dort in einer einheitlichen "engine" verkettet und abgearbeitet werden, so dass die daten nicht unnötig ständig hin und her gschoben werden müssen. dass ist der entscheidenden vorzug, der sich hinter dieser mittlerweile durchgängigen nutzung von "rector 2.0" beim flame für alle bildberechnungen bzw. der spezifischen arbeitsweise von mistika verbirgt.
das beste beispiel, um zu sehen, wie gravierend sich diese kluft zwischen der traditonellen herangehensweise und den angesprochenen beiden ausnahmelösungen manifestiert, bildet meiner ansicht nach nuke, wo dieser vereinheitlichung in der abarbeitung bis heute nicht vollzogen wurde, und desshalb weiterhin nur ein paar wenige echtzeit-effekte in der nuke studio timeline zur verfügung stehen, während der rest weiterhin in gänzlich anderer weise abgearbeitet wird -- genau so also, wie du das auch dem flame zuschreibst, obwohl es eben dort mittlerweile nicht mehr in dieser weise zutrifft.
ich denke, dass wir im resolve bzw. seiner fusion integration vorerst einmal auch nur eine genau solche hybride lösung vorfinden werden -- wobei ich mich hier natürlich irren könnte, weil es natürlich jeder heute gerne lieber in dieser anderen deutlich anspruchsvolleren weise lösen würde. vielleicht ist ihnen das ja auch tatsächlich gelungen? -- ich bezweifle es halt, weil ich einfach schon zu viel relativ unbefriedigendes bzw. oberflächliches zusammenmanschen von unterschiedlichen ansätzen und code im resolve in den letzten jahren beobachten konnte. das ist eben genau jener aspekt, wo ich diese anderen, weit weniger populären lösungen wirklich für wesentlich konsequenter und sauberer halte.
Peppermintpost hat geschrieben:
Mystica hat das aber auch schon immer schon seit dem es Jaleo heist, das ding ist ja (fast) genau so alt wie die Flame. Nur das die es halt nicht mit einer Gaming Engine machen sondern halt mit OpenGL oder was immer die heute benutzen, aber ich glaube OpenGL.
ich denke, dass zumindest mistika ultima ziemlich konsequent direkt und ausschließlich auf CUDA und dort zur verfügung stehende optimierungen setzt, wie sie auch tatsächlich nur in den professionellen nvidia karten zugänglich sind. GTX gamer karten sind ja bekanntlich diesbezüglich ganz bewusst beschränkt. so toll sich das natürlich in puncto verarbeitungseffizienz im professionellen einsatz niederschlägt, so sehr grenzt das natürlich die größerer verbeitung bzw. nutzung auf erschwinglicherer hardware ein. resolve und das dortige gestolpere von einer "GPU out of memory"-meldung zur nächsten, ist zwar in meinen augen auch nicht unbedingt die wahre alternative, und in meinen augen weiterhin ziemlich ressourcenverschwenderisch, aber zumindest bemüht man sich nach kräften um relativ niederschwellige einstiegshürden und hardware-kompatibilität.
Antwort von Peppermintpost:
mash ich glaube wir haben uns hier missverstanden.
openGL ist für mich selbstverständlich keine gaming engine. Ich bin auch kein Programmierer ausser mal ein bissel Python hier und da, also wenn ich da technisch etwas durcheinander bringe sorry, verstehe das mal als eine Diskussion mit einem Laien weil du mir mit sicherheit Programmiertechnisch und von dem Verständniss der Technologien meilenweit voraus bist.
Was ich mit sicherheit sagen kann, Flame und ähniche sowie Jaleo haben am anfang auf OpenGL gesetzt, weil es auf SGI garnichts anderes gab, das konnte man damals auch in der Software an und abschalten und sich die unterschiede in der Rechenzeit ansehen (die brutal waren) musste man von Zeit zu Zeit auch weil die Grafikkarte manchmal Render Fehler erzeugt hatte die die CPU dann nicht gemacht hat, wie auch immer.
Auch mit der Portierung der Flame auf Linux war immer noch OpenGL angesagt, mit Gaming Karten wie einer GTX lief die Flame nicht (nur mit speziellen GPU patches die eine GTX zur Quadro gemacht hat). Das haben die dann irgendwann geändert und zwar mit Reactor.
Reactor ist laut Autodesk Aussage eine Gaming Engine (ich plapper hier nach was die selbst sagen), das sie unter Cuda läuft, ja klar kann gut sein, ist sogar super wahrscheinlich, da bin ich leider nicht tief genug im Thema. Aber ist Cuda jetzt ma Laienhaft ausgedrückt nicht im Grunde nur Nvidias Antwort auf OpenGL? Ist das von Funktionsprinzig (nicht vom Befehlsatz) nicht fast das gleiche?
Sorry wenn du dich jetzt vor lachen kringelst, aber da hört mein technisches Verständniss auf.
Wie gesagt wenn ich da technisches Zeugs dureinander gebracht habe, dann war das nicht absichtlich, ich kenne leider nur die Anwendungsseite und was die Hersteller selbst so ablassen.
Antwort von Paralkar:
@pepper was meintest du genau mit der Genauigkeit von Resolve zu Nuke in der Farbkorrektur, Resolve is doch schon 32 bit Berechnung und als Color Grading Tool doch viel optimierter für ne Farbkorrektur???
Antwort von Peppermintpost:
Paralkar hat geschrieben:
@pepper was meintest du genau mit der Genauigkeit von Resolve zu Nuke in der Farbkorrektur, Resolve is doch schon 32 bit Berechnung und als Color Grading Tool doch viel optimierter für ne Farbkorrektur???
damit meine ich das Nuke halt nicht dazu gebaut ist eine "Kreative" Farbkorrektur zu machen sondern Farben auf 3 Stellen hinter dem Komma genau anzupassen. Das bekommt man mit Fusion natürlich auch hin, genau wie mit AE aber dann fummelst du dir einen zurecht das es die ware pracht ist. Die Idee bei Nuke ist ja (und so benutzen es die meisten auch) das du dein Comp auf dem Original Material machst bevor es im Grading war, und dann kommt ein Grading auf den kompl. Comp Shot, wenn du die Farben da nicht 100% genau getroffen hast fällt dir der ganze Shot im Grading auseinander. Wie gesagt ich arbeite in der Regel auf 3 Stellen hinter dem Komma genau. AE oder Fusion ist von der Arbeitsweise dagegen eher eine Farbliche "Wurfpassung", aber du hast halt anders herum auch den Nachteil beim Nuke das du da nicht mal schnell einen schönen Look generierst, weil dazu einfach die Tools und die Geschwindigkeit mal kurz 10 versionen auszuprobieren fehlen, ist einfach von den Tools her ein anderer Ansatz.
Technisch möglich ist es selbstverständlich mit jeder Software die die grundsätzliche Farbauflösung kann.
Antwort von mash_gh4:
das ständige hervorheben der 32bit float rechnerei im resolve ist tatsächlich mehr als werbeslogan zu verstehen, da es in wahrheit ohnehin die einzige vernünftige zahlendarstellung ist, in der gängige cosumer grafikarten wirklich gute perfmance zeigen. sowohl im 16bit (half), wie auch im 64bit (double) modus, schneiden selbst die teueren GTX-modelle vergleichsweise erbärmlich ab. dabei haben auch diese beiden varianten durchaus ihre berechtigung, um die übertragungsbandbreiten zu reduzieren od. störende rundungsfehler in besonders komplizierten berechnungen zu vermeiden. in der praxis kann man aber in dieser hinsicht ohnehin davon ausgehen, dass das in allen programmen einigermaßen ähnlich gehandhabt wird bzw. ohnehin auf genau die selben mittel, wie sie von den grafikkartenherstellen mitgeliefert werden, zurückgegrifen wird.
und zu dem punkt oben bzgl. "OpenGL":
ursprünglich war OpenGL wirklich nur ein hilfsmittel, um grafiken bzw. hauptsächlich 3d-grafik möglichst einfach und den schnell auf den schrim zu bringen. diesen zweck erfüllt es auch tatsächlich bis heute in ausgesprochen befriedigender und platformübergreifender form. im laufe der zeit ist das ganze halt um ganz viele nützliche erweiterungen angereichter und verbessert worden.
Open GLSL -- also die fragment shader language -- ist ein solcher teilbereich.
die sprache selbst ist recht einfach gehalten und unterscheidet sich gar nicht so wesentlich von andere gebräuchlichen programmiersprachen. was dagegen die besonderheit ausmacht, ist die art und weise, wie man damit eingriffe am bild -- als irgendwelche filter operation u.a. -- formuliert.
während man das in den meisten allgemeinen programmiersprachen ungefähr so machen würde:
hier ist ein bild -- arbeite in einer schleife alle zeilen und spalten ab und führe dort jeweils die operation f aus, und schreibe das resultat in eine neues bild an der selben stelle.
reduziert sich das im falle der fragment shader programmierung darauf, dass man nur diesen innersten kern ausformuliert:
für eine einzige gegebene position mit den koordinaten x,y und ein oder mehrere ausgangsbilder und einstellungsparameter soll einfach nur die resultierende farbe an dieser stelle mit hilfe der operration f zurückgeliefert werden.
diese herangehensweise, die am anfang ein bisserl umdenken erfordert, hat den ganz wesentlichen vorteil, dass man sich nicht weiter darum kümmern muss, ob die anweisungen nun in wahrheit nicht doch wieder in ganz gleicher weise wie vorher über alle zeilen und pixel eines bildes hinweg hintereinander ausgeführt wird, oder aber, wie es grafikkarten ganz wunderbar können, auf hunderten kernen parallel abgearbeitet wird, ohne sich dabei unnötig in die quere zu kommen.
damit war ein ganz wesentlicher grundstein gelegt, warum grafikkarten in dieser hinsicht, also in der anzahl und lesitungsfähigkeit ihren parallelen recheneinheiten, derart massiv wachsen sollten.
das hat dann irgendwann dazu geführt, dass man sie nicht mehr nur für derartige aufgaben der grafikberechnungen nutzen wollte, sondern auch für andere aufgabenstellungen, die in ganz ähnlicher weise von einer solchen herangehensweise profitieren können. dafür waren dann diese mittel, die ja ursprünglich wirklich nur auf diese elementaren aufgabenstelungen im zuge der grafikaufbereitung ausgerichtet waren nicht mehr optimal, deshalb OpenCL als generalisierte Computing Language, die einfach ganz allgmeinen zahlen bzw. zahlenarrays auf entsprecheder hardware parallel zu prozessieren erlaubt. daneben gibt's aber auch jede menge verwaltungskram -- also bspw. die ganze memory und transferproblmatik --, die gerade auch im zuge dieser erweiterten general purpose GPU nutzung immer komplizierter wurden. nvidia hat paralell zu all diesen herstellerübergreifenden bemühungen auf seinen GPUs mit CUDA einfach im alleingang, und natürlich in maximal an die bedürfdnisse und möglichkeiten der eigene hardware angepassten weise, das selbe angeboten bzw. in wahrheit wohl vielmehr vorweggenommen. obwohl sich OpenGL und der nachfolger Vulkan in der kernbereichen als herstellerunabhängiger grafikausgabestandard bis heute erfolgreich durchsetzten konnten, ist das leider im bezug auf GPGPU möglichkeiten bzw. OpenCL nicht der fall gewesen. dort regiert CUDA quasi völlig außer konkurrenz. beim video-prozessing bzw. desktop-anwendungen ist das noch vergleichsweise harmlos. richtig schlimm ist es aber bspw. im umfeld des machine learnings, wo sich praktisch alles fast ausschließlich nur mehr auf nvidia hardware konzentriert.
aber, wie gesagt, im prinzip sind die verschiedenen ansätze, sich gar nicht so unähnlich. mehr bedeutung kommt eher der frage zu, wie konsequent dieses processing tatsächlich durchgehend und direkt auf den GPUs erfolgt od. ob die daten eben nur in hybrider weise abschnitt für abschnitt jeweils wieder erneut zw. hauptrechner und der GPU hin und her geschoben werden...
Antwort von CameraRick:
Peppermintpost hat geschrieben:
jo ich habs jetzt mal herunter geladen und mir auch die NAB Demo angesehen, jo die haben jetzt einfach Fusion integriert und das muss man schon sagen, sie haben es klasse integriert.
Ich finde Fusion zwar extrem ätzend, aber jetzt wo es fest ins Resolve verdratet ist werde ich mich definitiv intensiver damit beschäftigen. Fusion ist für mich keine VFX Software sondern wirklich nur für Leute die mal schnell ein paar Layer ineinander stecken wollen, aber als Finishing Lösung kann es definitiv genug.
Ich glaube für die vielen kleinen Dinge, für die der Resolve dann doch nicht zu gebrauchen ist, wird der integrierte Fusion gut funktionieren. Vieles ist aber auch nicht so gut durchdacht, wie der Order of Operation.
Das Edit Sizing zB greift vor Fusion, sprich wenn ich die Skalierung noch einmal anpassen will fliegt mir die Comp um die Ohren; das sollte ergo einfach oben drauf kommen, wenn überhaupt. Besser wäre natürlich eine Lösung wie in NS, sprich man nimmt das Sizing in einer Node mit.
Primatte ist rausgeflogen und kommt nicht nach, Lizenzgründe.
OFX Plugins gehen nicht. Das ist gerade dann schwierig wenn man mal was keyen will (Dank neuem Delta Keyer (ein wenig wie IBK) ist das auch ohne Primatte ganz gut möglich), weil ich die Plate nicht denoisen kann. Die Colourpage greift nach Fusion, sprich ich kann auch nicht den Denoiser dort benutzen. Und bitte niemand kommt jetzt mit Fusions eigenem Denoiser!
Das Ding ist auch noch von Bugs zersetzt, aber das wird sicher noch kommen.
An und für sich ist Fusion ja eine tolle Software, sie kann sehr viel und man kann in vielen Bereich genau wie in Nuke arbeiten. Aber es ist alles irgendwie etwas umständlicher und nerviger, oder klappt einfach nicht gut; als ob die es nicht wollten. Das habe ich groß gemerkt, als ich Macros (Gizmos) gebaut habe. Ach ja, da sind unendlich viele in Resolves Fusion nicht einsetzbar.
Das Genick bricht es sich aber mMn wirklich mit Resolves sehr beschränkten Fähigkeiten zur Einrichtung des Arbeitsplatzes. Ich brauch halt schon einen Bildschirm Vorschau, und einen für den Flow. Für die Umgebung taugt einfach ein Broadcast-Monitor nur bedingt, in den Minifenstern kann ja keiner arbeiten.
Ganz verwegen fand ich auch Grant Pettys Kommentar über die Paint-Funktion von Fusion, da war er anscheinend sehr von überzeugt. Aiaiai, lasst ihn bloß nie über den Tellerrand schauen :)
Antwort von srone:
CameraRick hat geschrieben:
Peppermintpost hat geschrieben:
jo ich habs jetzt mal herunter geladen und mir auch die NAB Demo angesehen, jo die haben jetzt einfach Fusion integriert und das muss man schon sagen, sie haben es klasse integriert.
Ich finde Fusion zwar extrem ätzend, aber jetzt wo es fest ins Resolve verdratet ist werde ich mich definitiv intensiver damit beschäftigen. Fusion ist für mich keine VFX Software sondern wirklich nur für Leute die mal schnell ein paar Layer ineinander stecken wollen, aber als Finishing Lösung kann es definitiv genug.
Ich glaube für die vielen kleinen Dinge, für die der Resolve dann doch nicht zu gebrauchen ist, wird der integrierte Fusion gut funktionieren. Vieles ist aber auch nicht so gut durchdacht, wie der Order of Operation.
Das Edit Sizing zB greift vor Fusion, sprich wenn ich die Skalierung noch einmal anpassen will fliegt mir die Comp um die Ohren; das sollte ergo einfach oben drauf kommen, wenn überhaupt. Besser wäre natürlich eine Lösung wie in NS, sprich man nimmt das Sizing in einer Node mit.
Primatte ist rausgeflogen und kommt nicht nach, Lizenzgründe.
OFX Plugins gehen nicht. Das ist gerade dann schwierig wenn man mal was keyen will (Dank neuem Delta Keyer (ein wenig wie IBK) ist das auch ohne Primatte ganz gut möglich), weil ich die Plate nicht denoisen kann. Die Colourpage greift nach Fusion, sprich ich kann auch nicht den Denoiser dort benutzen. Und bitte niemand kommt jetzt mit Fusions eigenem Denoiser!
Das Ding ist auch noch von Bugs zersetzt, aber das wird sicher noch kommen.
An und für sich ist Fusion ja eine tolle Software, sie kann sehr viel und man kann in vielen Bereich genau wie in Nuke arbeiten. Aber es ist alles irgendwie etwas umständlicher und nerviger, oder klappt einfach nicht gut; als ob die es nicht wollten. Das habe ich groß gemerkt, als ich Macros (Gizmos) gebaut habe. Ach ja, da sind unendlich viele in Resolves Fusion nicht einsetzbar.
Das Genick bricht es sich aber mMn wirklich mit Resolves sehr beschränkten Fähigkeiten zur Einrichtung des Arbeitsplatzes. Ich brauch halt schon einen Bildschirm Vorschau, und einen für den Flow. Für die Umgebung taugt einfach ein Broadcast-Monitor nur bedingt, in den Minifenstern kann ja keiner arbeiten.
Ganz verwegen fand ich auch Grant Pettys Kommentar über die Paint-Funktion von Fusion, da war er anscheinend sehr von überzeugt. Aiaiai, lasst ihn bloß nie über den Tellerrand schauen :)
und mit was, will man das nun vergleichen, ich finde den ansatz schon sehr gut, sicherlich nicht zu vergleichen mit einem hochspezialisierten programm, aber die zb für mich angedachte kombi von ae und pr, in einem programm ist schon, für 95% meiner anwendungen, sehr gelungen...
lg
srone
Antwort von CameraRick:
Und das glaube ich sofort!
Ich sehe mich das auch hin und wieder mal benutzen (und dabei fluchen, haha). Es holt halt nur nicht die Leute ab, an die Fusion mal gerichtet war. Das ist nicht weiter unbedingt weiter schlimm, aus professioneller Sicht nur Schade dass da ein weiterer Kamerad über den Jordan geht. BMD sagt zwar sie wollen Fusion weiter auch SAL halten, aber wie das aussehen mag wird sich dann noch zeigen.
Mit den jetzigen Einschränkungen, von denen manche sich definitiv nicht ändern werden, ists halt schade. Für den geneigten Editor/Coloristen natürlich ganz toll, mal eben was machen zu können; kenne da auch ein, zwei Kollegen, die sich darüber freuen werden (falls sie zB mal einen Himmel austauschen wollen, auch wenn Fusion in Resolve da ein paar Tools vermisst)
Antwort von srone:
ich habe da eher die kameramann und editor sicht, was da drüber hinausgeht, sollen die spezialisten machen, da bin ich offengestanden auch völlig draussen, aber resolve mausert sich dadurch zu einem sehr universellen tool und das quasi als dreingabe zur 1300,-€ 4k dci 60p raw cam, da hält sich meine kritikfähigkeit doch in sehr engen grenzen...:-)
lg
srone
Antwort von CameraRick:
Ist halt wie immer eine Frage des Standpunkts. Fusion war mein erster Node basierter Compositor, da wird man natürlich auch etwas sentimental :)
Da Fusion-Dongles jetzt auch Resolve Studio 15 entsperren pokere ich ja etwas darauf, dass mein Resolve Dongle dann auch Fusion 10 öffnet. Falls es denn eins gibt. Ich wollte Fusion schon länger mal anschaffen, eher privat da das für die Firma nichts ist.
Die Hoffnung stirbt zuletzt :)
Antwort von srone:
ich komme da eher von ebenen basierten ansätzen, eben ae oder photoshop, nodes habe ich erst in resolve kennengelernt...
lg
srone
Antwort von Paralkar:
Ich muss sagen, ich freu mich, falls man mal doch schnell was korrigieren muss und nur was rausretuschieren, ein Shot rotoskopen will oder den Himmel austauschen.
So schnell, warte das kann ich jetzt schnell machen Dinger halt.
Hab selten im Grading n Shot, wo wirklich klassisch rotoskopiert werden muss, aber wenn dann is es zum Kotzen.
Muss ich mir auch mal anschauen, das ganze, hab mich bis jetzt dem Compen zu sehr entsagt, aber was man kann, kann man
Besonders das Keying is der hammer, weil n guten Greenscreen Key konntest du mit Davinci nicht machen, dafür musste man schon mit dem Shot in AE (ich kann den Rest nicht), nur um gegen zu checken, kommt die Postpro damit klar am Ende
Antwort von Steelfox:
Zu Fusion (Single) hatte ich weiter oben schon was gesagt. Hab das "Gesamtpaket" nun auch mal getestet.
Ich hantiere normalerweise mit Material aus 3 verschiedenen Quellen, unter Vegas kein Problem. Resolve mag allerdings (nicht lachen) mein altes HDV Format (1440) nicht. Gut war früher auch schon so. Eine Umwandlung wollte ich eigentlich vermeiden, ok abgehakt.
Da ich oft mit Fusion arbeite ist die Kombi eigentlich wie geschaffen für mich. Früher mochte ich das Handling in Resolve nicht so. Doch jetzt nach ein paar Stunden gehts recht flüssig. Die Oberfläche von Fusion ist noch etwas gewöhnungsbedürftig, hab aber soweit alles wiedergefunden. Alte Fusion-Projekte werden allerdings nicht geöffnet, auch nicht wenn wenn nur generierte Medien wie Particle und Shades aus Fusion verwendet wurden. Und bei der Bearbeitung eines kleinen Projekts (mp4) stürtzte das Resolve beim Wechsel von der Timeline zu Fusion mal eben ab. Hm, Beta halt.
Nun gut, ich behalte es mal im Auge.
Antwort von CameraRick:
Paralkar hat geschrieben:
Besonders das Keying is der hammer, weil n guten Greenscreen Key konntest du mit Davinci nicht machen, dafür musste man schon mit dem Shot in AE (ich kann den Rest nicht), nur um gegen zu checken, kommt die Postpro damit klar am Ende
Da Primatte nicht mehr mit drin ist, wird das leider sehr beschränkt. Delta Keyer und Ultra Keyer sind Ok, aber nicht Bombe :/
Antwort von -paleface-:
Ich denke mal da wird noch einiges kommen.
Das jetzt manches noch nicht geht ist halt ein Beta-Problem.
Man bedenke wie die Schnitt Funktion am Anfang genervt hat....und jetzt ist die super.
Jetzt wo die wissen wo die mit Fusion mal hinwollen wird da vermutlich einiges passieren.
Ich frage mich halt nur wo BMD eigentlich mal hinwill?
Die hauen ja so raus...das man das Gefühl hat...die machen jetzt mal richtig Kohle, fahren in 10 Jahren die Firma gegen die Wand und gehen dann Reich in Rente.
Antwort von srone:
-paleface- hat geschrieben:
Ich frage mich halt nur wo BMD eigentlich mal hinwill?
Die hauen ja so raus...das man das Gefühl hat...die machen jetzt mal richtig Kohle, fahren in 10 Jahren die Firma gegen die Wand und gehen dann Reich in Rente.
eher anders herum, im moment ist da noch nicht wirklich geld verdient, doch wenn sie so weitermachen, übernehmen sie, früher oder später einige, sehr lukrative märkte...
lg
srone