slashCAM
Administrator
Administrator
Beiträge: 11279

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von slashCAM »


Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt



cantsin
Beiträge: 17147

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von cantsin »

Gehe jede Wette ein, dass KI-/Deep Learning-gestütztes audiovisuelle Technologie vor allem in zwei Bereichen Riesenfolgen haben wird:

(a) Codecs. Googles gestern vorgestellter auf KI-Modellen basierter Lyra-Codec, der Sprachtelefonie mit 3Kbit/s und Videoconferencing mit 56 Kbit/s-Bandbreite möglich macht, weist da schon in die zukünftige Richtung: https://ai.googleblog.com/2021/02/lyra- ... c-for.html

(b) Upscaling/Upsampling. Unsere Forendiskussion von Topaz Labs Video Enhance dürfte da erst die Low-Fi-Anfänge markieren. Zukünftig ist wohl damit zu rechnen, dass altes bzw. nichtprofessionell gedrehtes Film- und Videomaterial (bis hin zu heutigen Smartphone-Amateurvideos) im großen Stil hoch- und schöngerechnet wird, und dass die heutigen KI-Colorierungen und -Hochskalierungen von historischem FIlmmaterial da erst der Anfang sind. Langfristig kann das auch zu geschrumpfter bzw. vereinfachter Kameratechnik führen, die nur noch Ausgangsmaterial für diese Verbesserungsalgorithmen liefert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



Drushba
Beiträge: 2625

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Drushba »

Habe meinen ersten Film zu Hochschulzeiten ja noch am Steenbeck schneiden müssen, denn Avid gabs erst ab dem zweiten Studienjahr (pädagogischer Einfall der Profs, für den ich heute noch dankbar bin, weil ich dadurch weiss, wie es auch einfach gehen kann). Das einzig komplizierte daran war, die Materialfitzel übersichtlich zu halten. Heute schaue ich mir regelmässig Tutorials an, um in neuen Plugins irgendwelche Funktionsweisen zu verstehen, die dann mindestens so viel Zeit kosten, wie seinerzeit Windows 95 aufzusetzen. Es ist irgendwie eine Art "Uncanny Valley" des Verstehens entstanden, es macht kein Spass, dauert alles gefühlt zu lange, bis man loslegen kann. Wenn ich eine Autofahrt mache, möchte ich zuvor ja nicht auch erst einen Mechatronikkurs machen, um vor Fahrtbeginn die Zylinder von Hand anschleifen zu können und dann den Motor korrekt zusammenzusetzen. Mir reichts schon wenn ich den Zündschlüssel suchen muss, das Auto soll dann bitte von alleine funktionieren. So wünsche ich mir das auch mit Avid, Photoshop, After Effects, Cinema4D, Unreal etc. Idealerweise würden ein paar Wischgesten reichen und der Rest sollte über Sprachanweisungen laufen können: Sortiere mir das Material nach Protagonisten, suche Schnittbilder von Tag 4 mit Sonnenuntergang, zeige mir alle Aussenansichten mittags, restauriere mir den vom Strassenlärm übertönten Dialog in Einstellung 12. Ich denke, so wirds kommen, aber vermutlich nach meiner Zeit. ;-)



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

Ich sehe KI Technisch noch erheblich mehr, als hier angerissen. Was dies für Arbeitsschritte wie Motion Tracking, Rotoscoping und dgl. bedeuten wird, ist schon fantastisch. Kürzlich musste ich für einen Febreze Spot eine Frau mit lockigem Haar freistellen, was mich über den traditionellen Weg sicher einen halben bis einen ganzen Tag hätte kosten können (wie ich zu häufig schmerzhaft erfahren musste) - über KI unterstützte Software: 5 Minuten! Dann gäbe es noch Anwendungen wie Deepfakes und Co., was enorme Nebeneffekte für Retuschen, Compositing, Morphing und Co. bereithalten wird. Die ätzenden, mühseligen Vorbreitungsarbeiten der Vergangenheit erledigen sich fast wie von selbst und man kann sich endlich voll und ganz auf den kreativen Teil konzentrieren!



friuli
Beiträge: 108

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von friuli »

KI ist das eine, Echtzeit 3D das andere.

Mein Junior spielt gerade "Crew2" ein Rennspiel, da kann man sich in Echtzeit die coolsten Autos mit fetten Dekoren zusammenclicken. Warum gibt es noch keinen Titler der so eine Technik nutzt, um schnell fetzige 3D Titel zusammen zu klicken.

Früher habe ich noch mit Ulead3D die Nachmittage verdaddelt, da müsste doch heute viel mehr gehen... virtuelle Studios, Set-Extensions! Partikel, Licht und Feuer mit Volumen und Perspektive.

Oder einfach "Assets" die perspektivisch korrekt (oder korrigierbar) und globalen Lichtfunktionen und Fokuseinstellungen in die Szene gestellt werden können. Einfach mal einen Hubschrauber in den Hintergrund stellen oder einen Luxusfuhrpark (natürlich mit eigenen Grafiken drauf), oder nur einen Busch oder Baum (mit Saisonfunktion), um einen z.B. Müllcontainer zu kaschieren.

Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

friuli hat geschrieben: Do 04 Mär, 2021 21:28
Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.
Echtzeit wird in der 3D immer breiter einsetzbar. Für einfache Sachen wie Titel und Co. gibt es in After Effects doch schon lange Element 3D, wo man sowas in Minuten generieren kann, ich hatte es mir sofort bei Erscheinen gekauft, habe aber schon lange resigniert - Realtime 3D hat noch viele Hürden zu nehmen.

Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1. Vorher hatte ich den Hardware Renderer von C4D für einfachere Jobs im Einsatz (u.a. um für einen Imagefilm für die Allianz eine Drohnenformation zu generieren).

Bevor jemand mit Unreal Engine kommt: Jaaaaaajaaajaaa, aber Unreal ist halt noch lange keine DCC Anwendung und, für meinen Geschmack (was die UI angeht), noch sehr weit von einer produktiven Arbeitsumgebung entfernt.

Was aber trotz der erwähnten großen Sprünge bzgl. Realtime noch lange ein Nachteil sein wird ist, daß die
Outputs von Realtime Engines derzeit noch in vielen Bereichen zu stark beschränkt sind und daher mitunter noch recht künstlich wirkende Ergebnisse liefern (also nix mit schnell "geklickten" Hintergründen) - oder man braucht halt viel Nachbearbeitung in der Comp. Vieles, an das ich mich im normalen 3D Bereich schon seit Ewigkeiten gewöhnt habe wie Raytracing, GI, AO, ein sauberer DOF, Deformation motionblur, Cryptomatte etc. und was einem den Weg Richtung Realismus enorm abgekürzt hat, kommt aber Stück für Stück auch in Realtime - man kann also gespannt sein!



Jalue
Beiträge: 1573

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Jalue »

Ich bin kein IT'ler oder Prophet, weiß aber, was ich mir (lieber kurz- als langfristig) wünschen würde:

-Problemloser Ingest sämtlicher Codec- und Containerformate ohne Umcodierungs-Arien (da sind wir bereits nah dran).
-Bessere, teilautomatisierte "Fehlerbehebungstools" (Grain, Unschärfen, Dead Pixels ...), wie im Artikel schon beschrieben.
-Automatisierte Spracherkennung und Untertitelung, die sich von selbst an verschiedene Bildformate anpasst.
-Audiobasierte "Stichwortsuche" bei langen Interview-Takes.
-Automatisierte Bildanpassung / CC wenn, wie heute üblich, mehrere, verschiedene Kameras Rohmaterial liefern.
-Teilautomatisierter Roh- Tonschnitt und Mischung: Per Knopfdruck verteilen sich Tonereignisse nach dem "Schachbrettprinzip" auf verschiedene Spuren, wobei Blenden und Pegel von selbst gesetzt werden.
-Eine "smarte Upgrade-Politik" der Entwickler, die nur Bugs behebt und ggf. neue Features implementiert, ohne dabei auf den neuesten UI-Modewellen zu surfen und Funktionierendes zu zerschießen. Zugegebenermaßen eine Gradwanderung.



roki100
Beiträge: 18810

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von roki100 »

macaw hat geschrieben: Fr 05 Mär, 2021 00:22 Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1.
Blender wird immer besser.... Realtime / EEVEE:
Bildschirmfoto 2021-03-06 um 21.32.48.png
Bildschirmfoto 2021-03-06 um 21.39.49.png
Diese blaue Text da "RAW", ist wie auf nem Display/Glas...Ist schöner Lauftext: "RAW, "CINEMA" BlinkBlink hier und da usw. wunderbar ;)
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



 Aktuelle Beiträge [alle Foren]
 
» iPhone 17 Pro Max mit ProRes RAW - Rolling Shutter und Dynamik Sensortest
von berlin123 - Mo 16:37
» Viltrox 35mm F/1.2 LAB auch für Nikon Z verfügbar
von GaToR-BN - Mo 13:05
» Nikon Slashcam Test
von cantsin - Mo 11:22
» Atomos Ninja TX bekommt ProRes RAW & Camera Control für Canon EOS R6 III
von Pictureworld-Dg - Mo 10:37
» **BIETE** Holz-Handgriff für Kameras
von ksingle - Mo 10:19
» Walter Murch: neues Buch 2025
von berlin123 - Mo 9:57
» Zeitenwende: Oscars-Verleihung geht exklusiv zu YouTube
von MaxSchreck - Mo 8:53
» GoPro 59,94fps in FCP
von Jott - Mo 8:00
» Updates für Blackmagic ATEM Switchers, UltraStudio und DeckLink
von slashCAM - So 17:24
» Erfahrungen Filmhub?
von Brahmavata Smithee - So 15:57
» V-Mount Akkuplatte Smallrig 5227
von ksingle - So 15:27
» Neue Firmware für Canon EOS C400, C80, C70 und R5C ist da
von Tscheckoff - So 15:13
» AI-Diskussionsthread - Pro/Kontra?
von Darth Schneider - Sa 17:27
» Apple Roadmap 2026 - iMac Pro mit M5 Max und MacBooks mit M6 geplant
von Da_Michl - Sa 11:11
» Sony FX3 Sensor-Test - Dynamik, Debayering und Rolling Shutter
von Bildlauf - Sa 11:02
» Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
von Jott - Sa 9:46
» Audio Patch nicht haltbar
von Bluboy - Sa 9:15
» !!BIETE!! DJI AIR 3 Fly More Combo RC2
von klusterdegenerierung - Fr 19:48
» Preise für Speicher (HDD, SSD, RAM) auf Allzeithoch?
von Alex - Fr 17:44
» Canon EOS C400, C80, C70 und R5C bekommen neue Firmware
von iasi - Fr 17:42
» Erster Gehversuch mit KI
von buster007 - Fr 14:37
» Ist der Filmmarkt SCHEISSE?
von iasi - Fr 13:48
» Blackmagic PYXIS 12K/6K und URSA Broadcast G2 bekommen Pre-Recording & 4-Kanal Audio
von slashCAM - Fr 11:45
» Amazon darf Prime-Kunden keine Werbung aufzwängen
von iasi - Do 20:37
» Das richtige Einsteigerequipment für Sound/Musik
von Nigma1313 - Do 17:05
» Panasonic S12 und das ARRI LOG C3-Profil
von ksingle - Do 16:20
» BMD Camera Firmware 10.0 für URSA Broadcast G2, PYXIS 6K and PYXIS 12K
von freezer - Do 15:55
» Neuer DJI RS 5 Profi-Gimbal kommt bald mit intelligentem Tracking und Turbo-Ladefunktion
von Clemens Schiesko - Do 14:21
» Blackmagic DaVinci Resolve 20.3.1 Update
von slashCAM - Do 11:15
» Kino-Besucherstudie 2025
von ruessel - Do 10:35
» Benro Electronic ND Filter Kit kommt
von Bildlauf - Mi 16:27
» Video Deluxe 2021 Plus stabiler als Video Pro X12
von Jasper - Mi 15:50
» ARRI soll (Teil)Verkauf erwägen
von Bildlauf - Mi 13:46
» Nikon Z9 - neue Firmware 5.30 verbessert Autofokus, Motiverkennung und mehr
von slashCAM - Mi 11:36
» Adobe Firefly bekommt Upscaling per Topaz, Editing per Prompt und mehr
von slashCAM - Mi 10:33