slashCAM
Administrator
Administrator
Beiträge: 11279

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von slashCAM »


Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt



cantsin
Beiträge: 16615

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von cantsin »

Gehe jede Wette ein, dass KI-/Deep Learning-gestütztes audiovisuelle Technologie vor allem in zwei Bereichen Riesenfolgen haben wird:

(a) Codecs. Googles gestern vorgestellter auf KI-Modellen basierter Lyra-Codec, der Sprachtelefonie mit 3Kbit/s und Videoconferencing mit 56 Kbit/s-Bandbreite möglich macht, weist da schon in die zukünftige Richtung: https://ai.googleblog.com/2021/02/lyra- ... c-for.html

(b) Upscaling/Upsampling. Unsere Forendiskussion von Topaz Labs Video Enhance dürfte da erst die Low-Fi-Anfänge markieren. Zukünftig ist wohl damit zu rechnen, dass altes bzw. nichtprofessionell gedrehtes Film- und Videomaterial (bis hin zu heutigen Smartphone-Amateurvideos) im großen Stil hoch- und schöngerechnet wird, und dass die heutigen KI-Colorierungen und -Hochskalierungen von historischem FIlmmaterial da erst der Anfang sind. Langfristig kann das auch zu geschrumpfter bzw. vereinfachter Kameratechnik führen, die nur noch Ausgangsmaterial für diese Verbesserungsalgorithmen liefert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



Drushba
Beiträge: 2573

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Drushba »

Habe meinen ersten Film zu Hochschulzeiten ja noch am Steenbeck schneiden müssen, denn Avid gabs erst ab dem zweiten Studienjahr (pädagogischer Einfall der Profs, für den ich heute noch dankbar bin, weil ich dadurch weiss, wie es auch einfach gehen kann). Das einzig komplizierte daran war, die Materialfitzel übersichtlich zu halten. Heute schaue ich mir regelmässig Tutorials an, um in neuen Plugins irgendwelche Funktionsweisen zu verstehen, die dann mindestens so viel Zeit kosten, wie seinerzeit Windows 95 aufzusetzen. Es ist irgendwie eine Art "Uncanny Valley" des Verstehens entstanden, es macht kein Spass, dauert alles gefühlt zu lange, bis man loslegen kann. Wenn ich eine Autofahrt mache, möchte ich zuvor ja nicht auch erst einen Mechatronikkurs machen, um vor Fahrtbeginn die Zylinder von Hand anschleifen zu können und dann den Motor korrekt zusammenzusetzen. Mir reichts schon wenn ich den Zündschlüssel suchen muss, das Auto soll dann bitte von alleine funktionieren. So wünsche ich mir das auch mit Avid, Photoshop, After Effects, Cinema4D, Unreal etc. Idealerweise würden ein paar Wischgesten reichen und der Rest sollte über Sprachanweisungen laufen können: Sortiere mir das Material nach Protagonisten, suche Schnittbilder von Tag 4 mit Sonnenuntergang, zeige mir alle Aussenansichten mittags, restauriere mir den vom Strassenlärm übertönten Dialog in Einstellung 12. Ich denke, so wirds kommen, aber vermutlich nach meiner Zeit. ;-)



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

Ich sehe KI Technisch noch erheblich mehr, als hier angerissen. Was dies für Arbeitsschritte wie Motion Tracking, Rotoscoping und dgl. bedeuten wird, ist schon fantastisch. Kürzlich musste ich für einen Febreze Spot eine Frau mit lockigem Haar freistellen, was mich über den traditionellen Weg sicher einen halben bis einen ganzen Tag hätte kosten können (wie ich zu häufig schmerzhaft erfahren musste) - über KI unterstützte Software: 5 Minuten! Dann gäbe es noch Anwendungen wie Deepfakes und Co., was enorme Nebeneffekte für Retuschen, Compositing, Morphing und Co. bereithalten wird. Die ätzenden, mühseligen Vorbreitungsarbeiten der Vergangenheit erledigen sich fast wie von selbst und man kann sich endlich voll und ganz auf den kreativen Teil konzentrieren!



friuli
Beiträge: 108

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von friuli »

KI ist das eine, Echtzeit 3D das andere.

Mein Junior spielt gerade "Crew2" ein Rennspiel, da kann man sich in Echtzeit die coolsten Autos mit fetten Dekoren zusammenclicken. Warum gibt es noch keinen Titler der so eine Technik nutzt, um schnell fetzige 3D Titel zusammen zu klicken.

Früher habe ich noch mit Ulead3D die Nachmittage verdaddelt, da müsste doch heute viel mehr gehen... virtuelle Studios, Set-Extensions! Partikel, Licht und Feuer mit Volumen und Perspektive.

Oder einfach "Assets" die perspektivisch korrekt (oder korrigierbar) und globalen Lichtfunktionen und Fokuseinstellungen in die Szene gestellt werden können. Einfach mal einen Hubschrauber in den Hintergrund stellen oder einen Luxusfuhrpark (natürlich mit eigenen Grafiken drauf), oder nur einen Busch oder Baum (mit Saisonfunktion), um einen z.B. Müllcontainer zu kaschieren.

Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

friuli hat geschrieben: Do 04 Mär, 2021 21:28
Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.
Echtzeit wird in der 3D immer breiter einsetzbar. Für einfache Sachen wie Titel und Co. gibt es in After Effects doch schon lange Element 3D, wo man sowas in Minuten generieren kann, ich hatte es mir sofort bei Erscheinen gekauft, habe aber schon lange resigniert - Realtime 3D hat noch viele Hürden zu nehmen.

Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1. Vorher hatte ich den Hardware Renderer von C4D für einfachere Jobs im Einsatz (u.a. um für einen Imagefilm für die Allianz eine Drohnenformation zu generieren).

Bevor jemand mit Unreal Engine kommt: Jaaaaaajaaajaaa, aber Unreal ist halt noch lange keine DCC Anwendung und, für meinen Geschmack (was die UI angeht), noch sehr weit von einer produktiven Arbeitsumgebung entfernt.

Was aber trotz der erwähnten großen Sprünge bzgl. Realtime noch lange ein Nachteil sein wird ist, daß die
Outputs von Realtime Engines derzeit noch in vielen Bereichen zu stark beschränkt sind und daher mitunter noch recht künstlich wirkende Ergebnisse liefern (also nix mit schnell "geklickten" Hintergründen) - oder man braucht halt viel Nachbearbeitung in der Comp. Vieles, an das ich mich im normalen 3D Bereich schon seit Ewigkeiten gewöhnt habe wie Raytracing, GI, AO, ein sauberer DOF, Deformation motionblur, Cryptomatte etc. und was einem den Weg Richtung Realismus enorm abgekürzt hat, kommt aber Stück für Stück auch in Realtime - man kann also gespannt sein!



Jalue
Beiträge: 1540

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Jalue »

Ich bin kein IT'ler oder Prophet, weiß aber, was ich mir (lieber kurz- als langfristig) wünschen würde:

-Problemloser Ingest sämtlicher Codec- und Containerformate ohne Umcodierungs-Arien (da sind wir bereits nah dran).
-Bessere, teilautomatisierte "Fehlerbehebungstools" (Grain, Unschärfen, Dead Pixels ...), wie im Artikel schon beschrieben.
-Automatisierte Spracherkennung und Untertitelung, die sich von selbst an verschiedene Bildformate anpasst.
-Audiobasierte "Stichwortsuche" bei langen Interview-Takes.
-Automatisierte Bildanpassung / CC wenn, wie heute üblich, mehrere, verschiedene Kameras Rohmaterial liefern.
-Teilautomatisierter Roh- Tonschnitt und Mischung: Per Knopfdruck verteilen sich Tonereignisse nach dem "Schachbrettprinzip" auf verschiedene Spuren, wobei Blenden und Pegel von selbst gesetzt werden.
-Eine "smarte Upgrade-Politik" der Entwickler, die nur Bugs behebt und ggf. neue Features implementiert, ohne dabei auf den neuesten UI-Modewellen zu surfen und Funktionierendes zu zerschießen. Zugegebenermaßen eine Gradwanderung.



roki100
Beiträge: 18365

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von roki100 »

macaw hat geschrieben: Fr 05 Mär, 2021 00:22 Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1.
Blender wird immer besser.... Realtime / EEVEE:
Bildschirmfoto 2021-03-06 um 21.32.48.png
Bildschirmfoto 2021-03-06 um 21.39.49.png
Diese blaue Text da "RAW", ist wie auf nem Display/Glas...Ist schöner Lauftext: "RAW, "CINEMA" BlinkBlink hier und da usw. wunderbar ;)
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



 Aktuelle Beiträge [alle Foren]
 
» Sechs Meter hohe Flamme freistellen?
von Jott - Di 22:31
» GoPro stellt neue 360-Grad-Kamera MAX2, Lifestyle-Kamera LIT HERO und einen KI-Gimbal vor
von slashCAM - Di 21:54
» Empfehlung Hauptmikros Stereo Chor- / Orchester
von vago - Di 21:22
» DJI Osmo Nano ist da - zweiteilige Mini-Actioncam kostet ab 279 Euro
von iasi - Di 20:55
» 19 Jahre alt und keinen Plan wie ich in die Branche komme
von cantsin - Di 20:45
» Stabileye
von Phil999 - Di 14:30
» Neuer Atomos Ninja TX, Shinobi 7RX + neuer Reference Monitor erklärt
von MarcusG - Di 14:20
» Italien: Mindestens 1 Jahre Gefängnis für Deepfakes ohne Einwilligung
von stip - Di 14:02
» Impressumspflicht -》aktuelle regelungen und lösungen
von soulbrother - Di 13:30
» Blackmagic DaVinci Resolve 20.2.1 bringt Verbesserung fürs Editing und mehr
von slashCAM - Di 11:21
» Atomos Sun Dragon - 5-Farben-HDR-LED-Lichtstreifen mit CRI99 Lichtgüte
von Asjaman - Di 8:59
» Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
von roki100 - Di 0:54
» !!BIETE!! ZEAPON MICRO 2 Slider 54cm bis 5KG
von klusterdegenerierung - Mo 23:40
» Blackmagic liefert PYXIS 12K aus - Kompakte Cine-Kamera mit 12K Vollformatsensor
von iasi - Mo 23:35
» !!BIETE!! ZEAPON Easylock 2 Tisch Stativ für MICRO 2 Slider
von klusterdegenerierung - Mo 20:23
» !!BIETE!! ZEAPON Motor für MICRO 2 Slider
von klusterdegenerierung - Mo 20:22
» Was schaust Du gerade?
von Darth Schneider - Mo 18:08
» !!BIETE!! TILTA Nucleus Nano I
von klusterdegenerierung - Mo 17:10
» ALEXA 35 Update: ARRICORE für Xtreme & neue Features für alle Modelle
von slashCAM - Mo 15:18
» Was hörst Du gerade?
von Funless - Mo 14:46
» Endlich mal wieder originelle Ansätze im Kino
von iasi - Mo 14:42
» DaVinci Cache auf welche SSD?
von dienstag_01 - Mo 12:57
» DJI MIC 2 - XLR Adapter
von rush - Mo 12:17
» Was tun, wenn das Wasser fehlt? Klimawandelfolgen-Doku Teil 2
von Darth Schneider - Mo 6:37
» Caspar David Friedrich - Filter
von Axel - So 13:39
» iPhone 17 Pro: ProRes RAW, Genlock, Apple Log 2 und Blackmagic ProDock für Filmer
von Axel - So 13:27
» Wiegt die DJI Mini 5 Pro wirklich unter 250 Gramm?
von Jost - So 10:46
» Aputure NOVA II 2x1 - 1.000W LED-Panel mit BLAIR-CG-Engine
von Jominator - So 10:31
» Neue Funktionen für Frame.io verbessern Sicherheit und Sharing
von slashCAM - So 9:33
» Apple Final Cut Camera 2.0 bringt iphone 17 Pro Apple Log 2, Genlock und Open Gate
von vaio - Sa 12:40
» Nikon NRAW als RED RAW prozessieren
von cantsin - Sa 11:48
» Canon Cinema EOS C50 Sensor-Bildqualität - Debayering, Rolling Shutter und Dynamik
von Walter Schulz - Sa 9:40
» Leitz Hektor - sechs Cine-Objektive für DSLM & Co vorgestellt
von philr - Sa 9:25
» Licht how to:
von Darth Schneider - Sa 8:53
» DR Lüftergeräusche + Windgeräusche rausfiltern
von Jott - Sa 8:25