slashCAM
Administrator
Administrator
Beiträge: 11262

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von slashCAM »


Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt



cantsin
Beiträge: 14103

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von cantsin »

Gehe jede Wette ein, dass KI-/Deep Learning-gestütztes audiovisuelle Technologie vor allem in zwei Bereichen Riesenfolgen haben wird:

(a) Codecs. Googles gestern vorgestellter auf KI-Modellen basierter Lyra-Codec, der Sprachtelefonie mit 3Kbit/s und Videoconferencing mit 56 Kbit/s-Bandbreite möglich macht, weist da schon in die zukünftige Richtung: https://ai.googleblog.com/2021/02/lyra- ... c-for.html

(b) Upscaling/Upsampling. Unsere Forendiskussion von Topaz Labs Video Enhance dürfte da erst die Low-Fi-Anfänge markieren. Zukünftig ist wohl damit zu rechnen, dass altes bzw. nichtprofessionell gedrehtes Film- und Videomaterial (bis hin zu heutigen Smartphone-Amateurvideos) im großen Stil hoch- und schöngerechnet wird, und dass die heutigen KI-Colorierungen und -Hochskalierungen von historischem FIlmmaterial da erst der Anfang sind. Langfristig kann das auch zu geschrumpfter bzw. vereinfachter Kameratechnik führen, die nur noch Ausgangsmaterial für diese Verbesserungsalgorithmen liefert.



Drushba
Beiträge: 2507

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Drushba »

Habe meinen ersten Film zu Hochschulzeiten ja noch am Steenbeck schneiden müssen, denn Avid gabs erst ab dem zweiten Studienjahr (pädagogischer Einfall der Profs, für den ich heute noch dankbar bin, weil ich dadurch weiss, wie es auch einfach gehen kann). Das einzig komplizierte daran war, die Materialfitzel übersichtlich zu halten. Heute schaue ich mir regelmässig Tutorials an, um in neuen Plugins irgendwelche Funktionsweisen zu verstehen, die dann mindestens so viel Zeit kosten, wie seinerzeit Windows 95 aufzusetzen. Es ist irgendwie eine Art "Uncanny Valley" des Verstehens entstanden, es macht kein Spass, dauert alles gefühlt zu lange, bis man loslegen kann. Wenn ich eine Autofahrt mache, möchte ich zuvor ja nicht auch erst einen Mechatronikkurs machen, um vor Fahrtbeginn die Zylinder von Hand anschleifen zu können und dann den Motor korrekt zusammenzusetzen. Mir reichts schon wenn ich den Zündschlüssel suchen muss, das Auto soll dann bitte von alleine funktionieren. So wünsche ich mir das auch mit Avid, Photoshop, After Effects, Cinema4D, Unreal etc. Idealerweise würden ein paar Wischgesten reichen und der Rest sollte über Sprachanweisungen laufen können: Sortiere mir das Material nach Protagonisten, suche Schnittbilder von Tag 4 mit Sonnenuntergang, zeige mir alle Aussenansichten mittags, restauriere mir den vom Strassenlärm übertönten Dialog in Einstellung 12. Ich denke, so wirds kommen, aber vermutlich nach meiner Zeit. ;-)
Lieber glaub ich Wissenschaftlern, die sich mal irren, als Irren, die glauben, sie seien Wissenschaftler.



macaw
Beiträge: 1136

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

Ich sehe KI Technisch noch erheblich mehr, als hier angerissen. Was dies für Arbeitsschritte wie Motion Tracking, Rotoscoping und dgl. bedeuten wird, ist schon fantastisch. Kürzlich musste ich für einen Febreze Spot eine Frau mit lockigem Haar freistellen, was mich über den traditionellen Weg sicher einen halben bis einen ganzen Tag hätte kosten können (wie ich zu häufig schmerzhaft erfahren musste) - über KI unterstützte Software: 5 Minuten! Dann gäbe es noch Anwendungen wie Deepfakes und Co., was enorme Nebeneffekte für Retuschen, Compositing, Morphing und Co. bereithalten wird. Die ätzenden, mühseligen Vorbreitungsarbeiten der Vergangenheit erledigen sich fast wie von selbst und man kann sich endlich voll und ganz auf den kreativen Teil konzentrieren!



friuli
Beiträge: 107

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von friuli »

KI ist das eine, Echtzeit 3D das andere.

Mein Junior spielt gerade "Crew2" ein Rennspiel, da kann man sich in Echtzeit die coolsten Autos mit fetten Dekoren zusammenclicken. Warum gibt es noch keinen Titler der so eine Technik nutzt, um schnell fetzige 3D Titel zusammen zu klicken.

Früher habe ich noch mit Ulead3D die Nachmittage verdaddelt, da müsste doch heute viel mehr gehen... virtuelle Studios, Set-Extensions! Partikel, Licht und Feuer mit Volumen und Perspektive.

Oder einfach "Assets" die perspektivisch korrekt (oder korrigierbar) und globalen Lichtfunktionen und Fokuseinstellungen in die Szene gestellt werden können. Einfach mal einen Hubschrauber in den Hintergrund stellen oder einen Luxusfuhrpark (natürlich mit eigenen Grafiken drauf), oder nur einen Busch oder Baum (mit Saisonfunktion), um einen z.B. Müllcontainer zu kaschieren.

Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.



macaw
Beiträge: 1136

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von macaw »

friuli hat geschrieben: Do 04 Mär, 2021 21:28
Natürlich alles ruckelfrei in Echtzeit. Solche "Assets" sind doch auch ein riesen Markt! Eigene Plakatwände....u.s.w.
Echtzeit wird in der 3D immer breiter einsetzbar. Für einfache Sachen wie Titel und Co. gibt es in After Effects doch schon lange Element 3D, wo man sowas in Minuten generieren kann, ich hatte es mir sofort bei Erscheinen gekauft, habe aber schon lange resigniert - Realtime 3D hat noch viele Hürden zu nehmen.

Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1. Vorher hatte ich den Hardware Renderer von C4D für einfachere Jobs im Einsatz (u.a. um für einen Imagefilm für die Allianz eine Drohnenformation zu generieren).

Bevor jemand mit Unreal Engine kommt: Jaaaaaajaaajaaa, aber Unreal ist halt noch lange keine DCC Anwendung und, für meinen Geschmack (was die UI angeht), noch sehr weit von einer produktiven Arbeitsumgebung entfernt.

Was aber trotz der erwähnten großen Sprünge bzgl. Realtime noch lange ein Nachteil sein wird ist, daß die
Outputs von Realtime Engines derzeit noch in vielen Bereichen zu stark beschränkt sind und daher mitunter noch recht künstlich wirkende Ergebnisse liefern (also nix mit schnell "geklickten" Hintergründen) - oder man braucht halt viel Nachbearbeitung in der Comp. Vieles, an das ich mich im normalen 3D Bereich schon seit Ewigkeiten gewöhnt habe wie Raytracing, GI, AO, ein sauberer DOF, Deformation motionblur, Cryptomatte etc. und was einem den Weg Richtung Realismus enorm abgekürzt hat, kommt aber Stück für Stück auch in Realtime - man kann also gespannt sein!



Jalue
Beiträge: 1410

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von Jalue »

Ich bin kein IT'ler oder Prophet, weiß aber, was ich mir (lieber kurz- als langfristig) wünschen würde:

-Problemloser Ingest sämtlicher Codec- und Containerformate ohne Umcodierungs-Arien (da sind wir bereits nah dran).
-Bessere, teilautomatisierte "Fehlerbehebungstools" (Grain, Unschärfen, Dead Pixels ...), wie im Artikel schon beschrieben.
-Automatisierte Spracherkennung und Untertitelung, die sich von selbst an verschiedene Bildformate anpasst.
-Audiobasierte "Stichwortsuche" bei langen Interview-Takes.
-Automatisierte Bildanpassung / CC wenn, wie heute üblich, mehrere, verschiedene Kameras Rohmaterial liefern.
-Teilautomatisierter Roh- Tonschnitt und Mischung: Per Knopfdruck verteilen sich Tonereignisse nach dem "Schachbrettprinzip" auf verschiedene Spuren, wobei Blenden und Pegel von selbst gesetzt werden.
-Eine "smarte Upgrade-Politik" der Entwickler, die nur Bugs behebt und ggf. neue Features implementiert, ohne dabei auf den neuesten UI-Modewellen zu surfen und Funktionierendes zu zerschießen. Zugegebenermaßen eine Gradwanderung.



roki100
Beiträge: 15002

Re: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Beitrag von roki100 »

macaw hat geschrieben: Fr 05 Mär, 2021 00:22 Als sehr populäre Realtime Engine hätten wir da noch Eevee, den internen Renderer von Blender, der ist da meines erachtens absolute Nummer 1.
Blender wird immer besser.... Realtime / EEVEE:
Bildschirmfoto 2021-03-06 um 21.32.48.png
Bildschirmfoto 2021-03-06 um 21.39.49.png
Diese blaue Text da "RAW", ist wie auf nem Display/Glas...Ist schöner Lauftext: "RAW, "CINEMA" BlinkBlink hier und da usw. wunderbar ;)
"Deine Zeit ist begrenzt. Verschwende sie nicht damit, das Leben eines Anderen zu leben"
(Steve Jobs)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Di 0:52
» ZRAW - Allgemeines und Umwandlung
von roki100 - Mo 22:49
» Warnung vor LED-Leuchten mit internem Akku
von Blackbox - Mo 22:36
» After Effects CS6 Green Screen Frage
von macaw - Mo 22:07
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Mo 22:02
» Apple setzt auf lokale KIs in iPhone, iPad und Mac
von Jost - Mo 20:48
» Sony Alpha 9 III Sensor Test: Shutter, Debayering und Dynamik
von iasi - Mo 20:35
» IDEENFINDUNG: Wie man spannende Filme entwickelt! mit Vi-Dan Tran (Actiondesigner DUNE)
von Nigma1313 - Mo 16:54
» Panasonic AG AC 90 Zubehörschuh
von martin2 - Mo 16:53
» Zu verkaufen Viltrox 56mm 1.4 Viltrox 85mm 1.8 MKII Fuji X mount
von Jörg - Mo 14:27
» Musk macht GROK zu Open Scource
von SamSuffy - Mo 13:09
» The Next Big Thing? LED-Riesenkugel Sphere will Massen-Immersion neu definieren
von Alex - Mo 13:08
» Mocha Pro 2024 integriert 3D-Tracking von SynthEyes
von slashCAM - Mo 13:00
» Was hast Du zuletzt gekauft?
von Funless - Mo 12:54
» Software Tools für Productivity
von Frank Glencairn - Mo 12:51
» welches mikro für live-konzerte?
von Skeptiker - Mo 11:11
» Mikrohalterung Sony FS5 und Z150
von nicecam - Mo 11:05
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Frank Glencairn - Mo 9:18
» Drohne bauen, die nicht zu orten ist …?
von Jalue - So 22:02
» Werbung - es geht auch gut ;) Sammelthread
von 7River - So 17:07
» Monitor-Leuchte als Alternative zur Tischlampe ? - Quntis ScreenLinear Pro
von Jack43 - So 16:14
» Oppenheimer - inhaltlich und spirituell
von Frank Glencairn - So 15:43
» - Erfahrungsbericht - DJI Pocket 3
von klusterdegenerierung - So 13:20
» LG investiert 1 Milliarde Dollar in OLED-Produktion
von slashCAM - So 11:36
» 30-300mm T4 Cinezoom von Viltrox
von rush - So 8:03
» Revolutionäre Video-KI Sora soll noch dieses Jahr kommen
von Alex - So 7:49
» Wenn nennt man die Musik?
von Alex - So 7:29
» 7Artisans Sprite 24-96mm T2.9 - 4x Cinezoom für S35
von roki100 - Sa 22:57
» Was hörst Du gerade?
von klusterdegenerierung - Sa 20:42
» Biete: Manfrotto MH057M0-Q5 Kugelkopf
von beiti - Sa 18:17
» Suche LUT names Acuity
von jojo1243 - Sa 17:40
» Plant Nikon eine REDCODE RAW-Offensive zur NAB 2024?
von iasi - Sa 14:57
» The Crow — Rupert Sanders
von Gol - Sa 12:09
» Lohnt Kauf Canon HV40
von Bruno Peter - Sa 12:00
» Pika integriert Sound-Effekte in seine KI-Videos
von slashCAM - Sa 10:24