slashCAM
Administrator
Administrator
Beiträge: 11279

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von slashCAM »


Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt



cantsin
Beiträge: 16303

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von cantsin »

Gehe jede Wette ein, dass KI-/Deep Learning-gestütztes audiovisuelle Technologie vor allem in zwei Bereichen Riesenfolgen haben wird:

(a) Codecs. Googles gestern vorgestellter auf KI-Modellen basierter Lyra-Codec, der Sprachtelefonie mit 3Kbit/s und Videoconferencing mit 56 Kbit/s-Bandbreite möglich macht, weist da schon in die zukünftige Richtung: https://ai.googleblog.com/2021/02/lyra- ... c-for.html

(b) Upscaling/Upsampling. Unsere Forendiskussion von Topaz Labs Video Enhance dürfte da erst die Low-Fi-Anfänge markieren. Zukünftig ist wohl damit zu rechnen, dass altes bzw. nichtprofessionell gedrehtes Film- und Videomaterial (bis hin zu heutigen Smartphone-Amateurvideos) im großen Stil hoch- und schöngerechnet wird, und dass die heutigen KI-Colorierungen und -Hochskalierungen von historischem FIlmmaterial da erst der Anfang sind. Langfristig kann das auch zu geschrumpfter bzw. vereinfachter Kameratechnik führen, die nur noch Ausgangsmaterial für diese Verbesserungsalgorithmen liefert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



Drushba
Beiträge: 2560

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Drushba »

Habe meinen ersten Film zu Hochschulzeiten ja noch am Steenbeck schneiden müssen, denn Avid gabs erst ab dem zweiten Studienjahr (pädagogischer Einfall der Profs, für den ich heute noch dankbar bin, weil ich dadurch weiss, wie es auch einfach gehen kann). Das einzig komplizierte daran war, die Materialfitzel übersichtlich zu halten. Heute schaue ich mir regelmässig Tutorials an, um in neuen Plugins irgendwelche Funktionsweisen zu verstehen, die dann mindestens so viel Zeit kosten, wie seinerzeit Windows 95 aufzusetzen. Es ist irgendwie eine Art "Uncanny Valley" des Verstehens entstanden, es macht kein Spass, dauert alles gefühlt zu lange, bis man loslegen kann. Wenn ich eine Autofahrt mache, möchte ich zuvor ja nicht auch erst einen Mechatronikkurs machen, um vor Fahrtbeginn die Zylinder von Hand anschleifen zu können und dann den Motor korrekt zusammenzusetzen. Mir reichts schon wenn ich den Zündschlüssel suchen muss, das Auto soll dann bitte von alleine funktionieren. So wünsche ich mir das auch mit Avid, Photoshop, After Effects, Cinema4D, Unreal etc. Idealerweise würden ein paar Wischgesten reichen und der Rest sollte über Sprachanweisungen laufen können: Sortiere mir das Material nach Protagonisten, suche Schnittbilder von Tag 4 mit Sonnenuntergang, zeige mir alle Aussenansichten mittags, restauriere mir den vom Strassenlärm übertönten Dialog in Einstellung 12. Ich denke, so wirds kommen, aber vermutlich nach meiner Zeit. ;-)



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

Ich sehe KI Technisch noch erheblich mehr, als hier angerissen. Was dies für Arbeitsschritte wie Motion Tracking, Rotoscoping und dgl. bedeuten wird, ist schon fantastisch. Kürzlich musste ich für einen Febreze Spot eine Frau mit lockigem Haar freistellen, was mich über den traditionellen Weg sicher einen halben bis einen ganzen Tag hätte kosten können (wie ich zu häufig schmerzhaft erfahren musste) - über KI unterstützte Software: 5 Minuten! Dann gäbe es noch Anwendungen wie Deepfakes und Co., was enorme Nebeneffekte für Retuschen, Compositing, Morphing und Co. bereithalten wird. Die ätzenden, mühseligen Vorbreitungsarbeiten der Vergangenheit erledigen sich fast wie von selbst und man kann sich endlich voll und ganz auf den kreativen Teil konzentrieren!



friuli
Beiträge: 108

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von friuli »

KI ist das eine, Echtzeit 3D das andere.

Mein Junior spielt gerade "Crew2" ein Rennspiel, da kann man sich in Echtzeit die coolsten Autos mit fetten Dekoren zusammenclicken. Warum gibt es noch keinen Titler der so eine Technik nutzt, um schnell fetzige 3D Titel zusammen zu klicken.

Früher habe ich noch mit Ulead3D die Nachmittage verdaddelt, da müsste doch heute viel mehr gehen... virtuelle Studios, Set-Extensions! Partikel, Licht und Feuer mit Volumen und Perspektive.

Oder einfach "Assets" die perspektivisch korrekt (oder korrigierbar) und globalen Lichtfunktionen und Fokuseinstellungen in die Szene gestellt werden können. Einfach mal einen Hubschrauber in den Hintergrund stellen oder einen Luxusfuhrpark (natürlich mit eigenen Grafiken drauf), oder nur einen Busch oder Baum (mit Saisonfunktion), um einen z.B. Müllcontainer zu kaschieren.

Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.



macaw

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

friuli hat geschrieben: Do 04 Mär, 2021 21:28
Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.
Echtzeit wird in der 3D immer breiter einsetzbar. Für einfache Sachen wie Titel und Co. gibt es in After Effects doch schon lange Element 3D, wo man sowas in Minuten generieren kann, ich hatte es mir sofort bei Erscheinen gekauft, habe aber schon lange resigniert - Realtime 3D hat noch viele Hürden zu nehmen.

Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1. Vorher hatte ich den Hardware Renderer von C4D für einfachere Jobs im Einsatz (u.a. um für einen Imagefilm für die Allianz eine Drohnenformation zu generieren).

Bevor jemand mit Unreal Engine kommt: Jaaaaaajaaajaaa, aber Unreal ist halt noch lange keine DCC Anwendung und, für meinen Geschmack (was die UI angeht), noch sehr weit von einer produktiven Arbeitsumgebung entfernt.

Was aber trotz der erwähnten großen Sprünge bzgl. Realtime noch lange ein Nachteil sein wird ist, daß die
Outputs von Realtime Engines derzeit noch in vielen Bereichen zu stark beschränkt sind und daher mitunter noch recht künstlich wirkende Ergebnisse liefern (also nix mit schnell "geklickten" Hintergründen) - oder man braucht halt viel Nachbearbeitung in der Comp. Vieles, an das ich mich im normalen 3D Bereich schon seit Ewigkeiten gewöhnt habe wie Raytracing, GI, AO, ein sauberer DOF, Deformation motionblur, Cryptomatte etc. und was einem den Weg Richtung Realismus enorm abgekürzt hat, kommt aber Stück für Stück auch in Realtime - man kann also gespannt sein!



Jalue
Beiträge: 1537

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Jalue »

Ich bin kein IT'ler oder Prophet, weiß aber, was ich mir (lieber kurz- als langfristig) wünschen würde:

-Problemloser Ingest sämtlicher Codec- und Containerformate ohne Umcodierungs-Arien (da sind wir bereits nah dran).
-Bessere, teilautomatisierte "Fehlerbehebungstools" (Grain, Unschärfen, Dead Pixels ...), wie im Artikel schon beschrieben.
-Automatisierte Spracherkennung und Untertitelung, die sich von selbst an verschiedene Bildformate anpasst.
-Audiobasierte "Stichwortsuche" bei langen Interview-Takes.
-Automatisierte Bildanpassung / CC wenn, wie heute üblich, mehrere, verschiedene Kameras Rohmaterial liefern.
-Teilautomatisierter Roh- Tonschnitt und Mischung: Per Knopfdruck verteilen sich Tonereignisse nach dem "Schachbrettprinzip" auf verschiedene Spuren, wobei Blenden und Pegel von selbst gesetzt werden.
-Eine "smarte Upgrade-Politik" der Entwickler, die nur Bugs behebt und ggf. neue Features implementiert, ohne dabei auf den neuesten UI-Modewellen zu surfen und Funktionierendes zu zerschießen. Zugegebenermaßen eine Gradwanderung.



roki100
Beiträge: 17881

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von roki100 »

macaw hat geschrieben: Fr 05 Mär, 2021 00:22 Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1.
Blender wird immer besser.... Realtime / EEVEE:
Bildschirmfoto 2021-03-06 um 21.32.48.png
Bildschirmfoto 2021-03-06 um 21.39.49.png
Diese blaue Text da "RAW", ist wie auf nem Display/Glas...Ist schöner Lauftext: "RAW, "CINEMA" BlinkBlink hier und da usw. wunderbar ;)
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



 Aktuelle Beiträge [alle Foren]
 
» Kompakte OM-5 Mark II bekommt zwei neue Bildprofile
von cantsin - So 10:25
» Nikon Z5 II mit interner RAW-Aufzeichnung - Debayering, Rolling Shutter und Dynamik
von cantsin - So 9:09
» Film wurde nur mit Handys gedreht...
von Jott - Sa 20:48
» Insta360 Studio - Bildjustagen verschwunden nach update
von soulbrother - Sa 20:09
» Welche USB-C SSD für 4k120 prores am iPhone 16 Pro?
von Totao - Sa 11:43
» Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...
von Totao - Sa 11:38
» Kleines Schwanenhalsmikro für AVX-Bodypacksenser gesucht
von pillepalle - Fr 16:04
» Magix Video deluxe 2026 und Video Pro X17 mit neuen KI-Funktionen
von slashCAM - Fr 11:45
» Nanlite FM Mount Projektionsaufsatz 18°-36° für präzise Lichtgestaltung
von Darth Schneider - Fr 11:20
» Adobe Firefly jetzt als Smartphone-App - samt Nutzung von Veo 3, Luma und Pika
von peter161170 - Fr 9:14
» Sony FX2 im Praxistest: Erstmalig neigbarer Sucher, Cine-Gehäuse wie FX3, 33 MP Fullframe CMOS
von pillepalle - Fr 7:18
» Panasonic S1RII im Praxistest: Überraschend viele Videofunktionen für Pros
von iasi - Fr 0:18
» Blackmagic Updates für Web Presenter, Video Assist, Cloud und BRAW
von slashCAM - Do 11:27
» Adobe Premiere Pro ab sofort mit 4:2:2 Beschleunigung per Nvidia GPU und mehr
von dienstag_01 - Do 11:03
» Superman | Offizieller Trailer
von 7River - Do 5:11
» Midjourney startet eigene Video-KI V1
von slashCAM - Do 1:09
» DJI RS4 Pro und LiDAR: Bestes AF/Tracking (inkl. Stabilisierung) für Cine-Setups?
von pillepalle - Mi 23:45
» Sigma 17-40mm F1.8 DC | Art für APS-C vorgestellt u.a. mit RF-Mount
von iasi - Mi 23:24
» SIRUI Reparaturen/Customer Service Germany
von gizmotronic - Mi 18:47
» RS4 mit XR AR Brillen als Videomonitor möglich?
von Silentsnoop - Mi 18:45
» Sony Alpha 6700 S-Cinetone überbelichtet
von cantsin - Mi 18:02
» Fujifilm X-E5 vorgestellt mit 40MP, IBIS, 6,2K Video - und deutlich teurer
von cantsin - Mi 14:07
» DaVinci Resolve 18 +++ Projekt.db wird nicht erkannt
von Jasper - Mi 11:39
» Verständnisfrage: MOV/MP4 H.264/H.265 Formate der S5/S5II für die Bearbeitung mit neuer Grafikkarte B580 (H.265 Decode)
von blueplanet - Mi 11:37
» Deutsche Redakteure austricksen! mit JOSEPH BOLZ
von Nigma1313 - Mi 11:08
» Sony FX2 Sensor-Bildqualität - Debayering, Rolling Shutter und Dynamik
von Alex - Mi 7:25
» 3 Audios bei einem Dreh WIE?
von Blackbox - Di 21:56
» Mocha Pro 2025.5 Update mit Facetracking, neuem 3D-Snap-Tool und mehr
von freezer - Di 19:29
» Kommt N-Log2 demnächst in Nikon Z9 / Z8 / Z6III / ZF Kameras?
von stip - Di 13:57
» Software zur Kamera HDC-SD600
von MLJ - Di 11:13
» KI-Werbespot für 2.000 Dollar im GTA Stil läuft zur TV-Hauptsendezeit
von 7River - Di 7:04
» RUHE bewahren am Set - Mit Shawn Bu
von Nigma1313 - Di 0:53
» NoScribe
von beiti - Mo 21:04
» Meta bietet kostenlose KI-Videoeffekte (VFX) an
von iasi - Mo 19:16
» Lumix S5 für Fotos und 4k Video ? Autofokus
von Darth Schneider - Mo 16:18