Meinung Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt

Welche Entwicklungen darf man bei Schnitt- und Compositing-Anwendungen in den nächsten 10 Jahren erwarten? Ein paar Trends zeichnen sich jedenfalls schon deutlich ab...

// 14:19 Mi, 3. Mär 2021von

Wir hatten bereits einen Blick in die Glaskugel gewagt, wohin sich Kameras und damit verbundene Produktionsweise in diesem Jahrzehnt bewegen könnten. Doch eine News, die damit verbundenen Kommentare sowie der kurzfristige Ausfall von einem anderen Artikel ;) haben uns veranlasst, auch mal einen Blick in die Zukunft des Editings und des Compositings zu werfen.




Die Hardware

Tatsächlich sehen wir das gesteigerte Leistungs-Wachstum der x86-CPUs durch den wiedererstarkten Intel Konkurrenten AMD als KEINEN Treiber neuer Videoschnitt-Möglichkeiten. Für die aktuellen Aufgaben bei Schnitt- und die meisten Compositing-Einsätze reichen 8 schnelle CPU-Kerne in der Regel völlig aus. Ob dies X86- oder ARM-Kerne sind, wird in diesem Jahrzehnt für die Videobearbeitung ziemlich egal sein, solange das genutzte Programm auf der gewünschten Plattform läuft.



Die Leistungsfähigkeit neuer CPUs wird die Videobearbeitung nicht revolutionieren.
Die Leistungsfähigkeit neuer CPUs wird die Videobearbeitung nicht revolutionieren.


Die allermeisten Video-Effekte wurden in den letzten Jahren auf die GPU optimiert, weshalb sich hier mit neuer Hardware weitaus mehr Leistungsplus erzielen lassen wird.


Wir gehen zudem stark davon aus, dass viele zukünftige Effekte KI-basiert arbeiten werden. Auch in den nächsten Jahren werden KI-Algorithmen weiterhin auf GPUs deutlich schneller laufen, als auf CPUs.



Bei der KI-Beschleunigung zeichnen sich jedoch in unseren Augen noch zwei weitere Trends für die nächsten Jahre ab:



Es wird eine Form universeller KI-Beschleunigung auch in CPU-Hardware integriert werden. Ähnlich den Tensor-Cores von Nvidia wird man diesen speziellen Matrizen-Multiplizierern von Generation zu Generation mehr Chipfläche gönnen.



Potente GPUs werden für universelle KI-Aufgaben dennoch weiterhin deutlich leistungsfähiger bleiben. Diese könnten jedoch von sogenannten FPGA-Speziallösungen signifikant übertroffen werden. Bei FPGAs handelt es sich quasi um programmierbare Hardware, die einmal programmierte Effekte oder KI-Modelle noch einmal deutlich effizienter (und damit ggf. auch schneller) abarbeiten kann.



FPGAs sind in ihren Hardware-Funktionen umprogrammierbar
FPGAs sind in ihren Hardware-Funktionen umprogrammierbar


Allerdings gibt es unseres Wissens aktuell keinen Software-Hersteller im Videobereich, der an einem FPGA-Beschleuniger-Board arbeitet. Wir hatten bisher Apple ein wenig in Verdacht, aber um die Afterburner Accelerator Karte für den Mac Pro ist es recht still geblieben. Mehr als beschleunigtes Decoding von ProRes und ProRES RAW ist damit bislang nicht möglich, obwohl in der Karte ein potenter FPGA sitzt.




Ebenfalls unter Generalverdacht für ein FPGA-Beschleuniger Board steht in unseren Augen Blackmagic, die als Hardware-Hersteller vieler Gadgets mit FPGA-Komponenten eine Menge Know-How hierfür im Unternehmen haben.


Grundsätzlich bleibt es jedoch fraglich, ob der Markt überhaupt groß genug ist, um eine solche Lösung zu entwickeln. Aufgrund der geringen Stückzahlen dürften es solche Karten gegenüber GPUs preislich sehr schwer haben. Zudem ist der Entwicklungsaufwand von FPGA IP nicht zu unterschätzen.



Den GPUs selbst steht dagegen in den nächsten Jahren wahrscheinlich noch ein deutlicher Leistungssprung hervor. Patente und Gerüchte von AMD und Nvidia lassen darauf schließen, dass die "Multi-GPU Hurdle" letztlich doch geknackt wird. In den letzten Jahrzehnten fiel es den beiden führenden Herstellern sichtlich schwer, mehrere GPUs parallel in einem Rechner einsetzbar zu machen. Sämtliche bisherigen Versuche wie SLI oder Crossfire sind mittlerweile praktisch wieder komplett von der Bildfläche verschwunden. Nun scheinen AMD und NVIDIA gerüchteweise in den nächsten Generationen jedoch mehrere Dies auf einem Chip einsetzen zu wollen, was dafür spricht, dass hier noch kein Moorsches Ende der GPU-Leistungsstange in Sicht ist. Wir denken daher, dass die Videoeffekt-Beschleunigung der nächsten Jahre weiterhin primär auf GPU-Technologie basieren wird.




Ähnliche Artikel //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash