slashCAM
Administrator
Administrator
Beiträge: 11279

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von slashCAM »


Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt



cantsin
Beiträge: 16678

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von cantsin »

Gehe jede Wette ein, dass KI-/Deep Learning-gestütztes audiovisuelle Technologie vor allem in zwei Bereichen Riesenfolgen haben wird:

(a) Codecs. Googles gestern vorgestellter auf KI-Modellen basierter Lyra-Codec, der Sprachtelefonie mit 3Kbit/s und Videoconferencing mit 56 Kbit/s-Bandbreite möglich macht, weist da schon in die zukünftige Richtung: https://ai.googleblog.com/2021/02/lyra- ... c-for.html

(b) Upscaling/Upsampling. Unsere Forendiskussion von Topaz Labs Video Enhance dürfte da erst die Low-Fi-Anfänge markieren. Zukünftig ist wohl damit zu rechnen, dass altes bzw. nichtprofessionell gedrehtes Film- und Videomaterial (bis hin zu heutigen Smartphone-Amateurvideos) im großen Stil hoch- und schöngerechnet wird, und dass die heutigen KI-Colorierungen und -Hochskalierungen von historischem FIlmmaterial da erst der Anfang sind. Langfristig kann das auch zu geschrumpfter bzw. vereinfachter Kameratechnik führen, die nur noch Ausgangsmaterial für diese Verbesserungsalgorithmen liefert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



Drushba
Beiträge: 2573

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Drushba »

Habe meinen ersten Film zu Hochschulzeiten ja noch am Steenbeck schneiden müssen, denn Avid gabs erst ab dem zweiten Studienjahr (pädagogischer Einfall der Profs, für den ich heute noch dankbar bin, weil ich dadurch weiss, wie es auch einfach gehen kann). Das einzig komplizierte daran war, die Materialfitzel übersichtlich zu halten. Heute schaue ich mir regelmässig Tutorials an, um in neuen Plugins irgendwelche Funktionsweisen zu verstehen, die dann mindestens so viel Zeit kosten, wie seinerzeit Windows 95 aufzusetzen. Es ist irgendwie eine Art "Uncanny Valley" des Verstehens entstanden, es macht kein Spass, dauert alles gefühlt zu lange, bis man loslegen kann. Wenn ich eine Autofahrt mache, möchte ich zuvor ja nicht auch erst einen Mechatronikkurs machen, um vor Fahrtbeginn die Zylinder von Hand anschleifen zu können und dann den Motor korrekt zusammenzusetzen. Mir reichts schon wenn ich den Zündschlüssel suchen muss, das Auto soll dann bitte von alleine funktionieren. So wünsche ich mir das auch mit Avid, Photoshop, After Effects, Cinema4D, Unreal etc. Idealerweise würden ein paar Wischgesten reichen und der Rest sollte über Sprachanweisungen laufen können: Sortiere mir das Material nach Protagonisten, suche Schnittbilder von Tag 4 mit Sonnenuntergang, zeige mir alle Aussenansichten mittags, restauriere mir den vom Strassenlärm übertönten Dialog in Einstellung 12. Ich denke, so wirds kommen, aber vermutlich nach meiner Zeit. ;-)



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

Ich sehe KI Technisch noch erheblich mehr, als hier angerissen. Was dies für Arbeitsschritte wie Motion Tracking, Rotoscoping und dgl. bedeuten wird, ist schon fantastisch. Kürzlich musste ich für einen Febreze Spot eine Frau mit lockigem Haar freistellen, was mich über den traditionellen Weg sicher einen halben bis einen ganzen Tag hätte kosten können (wie ich zu häufig schmerzhaft erfahren musste) - über KI unterstützte Software: 5 Minuten! Dann gäbe es noch Anwendungen wie Deepfakes und Co., was enorme Nebeneffekte für Retuschen, Compositing, Morphing und Co. bereithalten wird. Die ätzenden, mühseligen Vorbreitungsarbeiten der Vergangenheit erledigen sich fast wie von selbst und man kann sich endlich voll und ganz auf den kreativen Teil konzentrieren!



friuli
Beiträge: 108

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von friuli »

KI ist das eine, Echtzeit 3D das andere.

Mein Junior spielt gerade "Crew2" ein Rennspiel, da kann man sich in Echtzeit die coolsten Autos mit fetten Dekoren zusammenclicken. Warum gibt es noch keinen Titler der so eine Technik nutzt, um schnell fetzige 3D Titel zusammen zu klicken.

Früher habe ich noch mit Ulead3D die Nachmittage verdaddelt, da müsste doch heute viel mehr gehen... virtuelle Studios, Set-Extensions! Partikel, Licht und Feuer mit Volumen und Perspektive.

Oder einfach "Assets" die perspektivisch korrekt (oder korrigierbar) und globalen Lichtfunktionen und Fokuseinstellungen in die Szene gestellt werden können. Einfach mal einen Hubschrauber in den Hintergrund stellen oder einen Luxusfuhrpark (natürlich mit eigenen Grafiken drauf), oder nur einen Busch oder Baum (mit Saisonfunktion), um einen z.B. Müllcontainer zu kaschieren.

Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

friuli hat geschrieben: Do 04 Mär, 2021 21:28
Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.
Echtzeit wird in der 3D immer breiter einsetzbar. Für einfache Sachen wie Titel und Co. gibt es in After Effects doch schon lange Element 3D, wo man sowas in Minuten generieren kann, ich hatte es mir sofort bei Erscheinen gekauft, habe aber schon lange resigniert - Realtime 3D hat noch viele Hürden zu nehmen.

Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1. Vorher hatte ich den Hardware Renderer von C4D für einfachere Jobs im Einsatz (u.a. um für einen Imagefilm für die Allianz eine Drohnenformation zu generieren).

Bevor jemand mit Unreal Engine kommt: Jaaaaaajaaajaaa, aber Unreal ist halt noch lange keine DCC Anwendung und, für meinen Geschmack (was die UI angeht), noch sehr weit von einer produktiven Arbeitsumgebung entfernt.

Was aber trotz der erwähnten großen Sprünge bzgl. Realtime noch lange ein Nachteil sein wird ist, daß die
Outputs von Realtime Engines derzeit noch in vielen Bereichen zu stark beschränkt sind und daher mitunter noch recht künstlich wirkende Ergebnisse liefern (also nix mit schnell "geklickten" Hintergründen) - oder man braucht halt viel Nachbearbeitung in der Comp. Vieles, an das ich mich im normalen 3D Bereich schon seit Ewigkeiten gewöhnt habe wie Raytracing, GI, AO, ein sauberer DOF, Deformation motionblur, Cryptomatte etc. und was einem den Weg Richtung Realismus enorm abgekürzt hat, kommt aber Stück für Stück auch in Realtime - man kann also gespannt sein!



Jalue
Beiträge: 1546

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Jalue »

Ich bin kein IT'ler oder Prophet, weiß aber, was ich mir (lieber kurz- als langfristig) wünschen würde:

-Problemloser Ingest sämtlicher Codec- und Containerformate ohne Umcodierungs-Arien (da sind wir bereits nah dran).
-Bessere, teilautomatisierte "Fehlerbehebungstools" (Grain, Unschärfen, Dead Pixels ...), wie im Artikel schon beschrieben.
-Automatisierte Spracherkennung und Untertitelung, die sich von selbst an verschiedene Bildformate anpasst.
-Audiobasierte "Stichwortsuche" bei langen Interview-Takes.
-Automatisierte Bildanpassung / CC wenn, wie heute üblich, mehrere, verschiedene Kameras Rohmaterial liefern.
-Teilautomatisierter Roh- Tonschnitt und Mischung: Per Knopfdruck verteilen sich Tonereignisse nach dem "Schachbrettprinzip" auf verschiedene Spuren, wobei Blenden und Pegel von selbst gesetzt werden.
-Eine "smarte Upgrade-Politik" der Entwickler, die nur Bugs behebt und ggf. neue Features implementiert, ohne dabei auf den neuesten UI-Modewellen zu surfen und Funktionierendes zu zerschießen. Zugegebenermaßen eine Gradwanderung.



roki100
Beiträge: 18483

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von roki100 »

macaw hat geschrieben: Fr 05 Mär, 2021 00:22 Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1.
Blender wird immer besser.... Realtime / EEVEE:
Bildschirmfoto 2021-03-06 um 21.32.48.png
Bildschirmfoto 2021-03-06 um 21.39.49.png
Diese blaue Text da "RAW", ist wie auf nem Display/Glas...Ist schöner Lauftext: "RAW, "CINEMA" BlinkBlink hier und da usw. wunderbar ;)
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



 Aktuelle Beiträge [alle Foren]
 
» Adobe Premiere für iPhone erschienen - kostenloser Videoschnitt mobil
von slashCAM - Do 10:42
» Tilly Norwood, Ziemlicher Rummel um Ki-Schauspielerin
von Blackbox - Mi 19:37
» Trump kündigt erneut Zölle auf im Ausland produzierte Filme an
von Jott - Mi 17:51
» Linsen (Vintage, Anamorphic & Co.)
von Funless - Mi 16:28
» Empfehlung Hauptmikros Stereo Chor- / Orchester
von ruessel - Mi 8:58
» Canon EOS C70 revisited: Drei Cages im Vergleich, Pro & Contra Focal Reducer und mehr
von rob - Mi 8:17
» Fast 40 Jahre nach dem Kultfilm kehrt "Highlander" zurück
von Bluboy - Mi 7:25
» Sennheiser EW D oder DX?
von rabe131 - Di 21:37
» Tilly Norwood
von Bluboy - Di 20:34
» Sachtler Stativ zu verkaufen
von MariavHeland - Di 19:18
» Neues LK Samyang AF 24-60mm F2.8 FE für Sony Alpha-Filmer angekündigt
von cantsin - Di 17:58
» Sony stellt das FE 100mm F2.8 Macro GM OSS mit 1,4-facher Vergrößerung vor
von slashCAM - Di 17:15
» Unser Kinofilm "The Trail" nun auf Amazon Prime
von freezer - Di 15:08
» Modularer SmallRig-Cage für die Nikon ZR angekündigt
von stip - Di 14:52
» Biete Viltrox AF 13mm 1.4 Fuji-X in OVP
von thsbln - Di 12:05
» *BIETE* Verschiedene SONY FE Objektive
von ksingle - Di 10:33
» UHD in Linux auslesen?
von Lehmeier - Mo 18:27
» Suche den lens mount adapter für den smallrig bmpcc4k cage mit villtrox ef-m2
von MrMeeseeks - Mo 11:16
» AJA Bridge Live 12G-4 und IP25-R erklärt: High End Streaming und neuer 2110 Converter
von slashCAM - Mo 9:45
» !!BIETE!! 3x Godox SL-60W in Silent Version mit Noctua Lüfter!
von klusterdegenerierung - Mo 0:54
» DJI Mini 5 Pro wiegt über 250g - bleibt aber trotzdem in der Dronenklasse C0
von TomStg - Mo 0:43
» Z-Cam - Firmware-Problem
von micha2305 - So 23:06
» Was passiert, wenn der Berg bröckelt? Klimawandelfolgen in den Alpen, Teil 3
von berlin123 - So 18:06
» Bis zu 60 Euro Rabatt für die slashCam-Community beim Equipment-Kauf
von slashCAM - So 15:02
» Blackmagic bringt neue kostenlose Trainingsbücher für DaVinci Resolve 20
von stip - So 14:33
» Lionsgate und Runway - die KI-Revolution in Hollywood stockt
von iasi - So 10:07
» 19 Jahre alt und keinen Plan wie ich in die Branche komme
von Bluboy - So 4:07
» !!BIETE!! GTX 1080 & GTX 970
von klusterdegenerierung - Sa 22:51
» Nikon deaktiviert Authenticity Service für Z6 III
von cantsin - Sa 14:12
» DJI Osmo Nano ist da - zweiteilige Mini-Actioncam kostet ab 279 Euro
von Jörg - Sa 10:13
» Nikon ZR - bald externes SSD-Recording durch Firmware-Update?
von iasi - Sa 9:23
» GoPro stellt neue 360-Grad-Kamera MAX2, Lifestyle-Kamera LIT HERO und einen KI-Gimbal vor
von medienonkel - Fr 22:54
» elevate.io - Gemeinsamer Videoschnitt im Browser in Echtzeit
von MarcusG - Fr 22:14
» MFT oder FT Objektive auf m39 oder m42 oder t-mount?
von Onfire - Fr 16:50
» Panasonic kündigt Supertele-Zoom LUMIX S 100-500mm F5-7.1 an
von slashCAM - Fr 10:30