Logo Logo
/// 

Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Mit AVID Edit on Demand steht seit diesem Frühjahr eine Möglichkeit für das Remote Editing mit dem Media Composer als SaaS Version zur Verfügung, mit einem NEXIS Cloud W...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren




Antwort von Frank Glencairn:

"Schnitt in der Cloud" - aber die Files müssen vorher heruntergeladen und lokal gespeichert werden.
Da kann ich sie auch gleich herunterladen und lokal speichern :P



Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
"Schnitt in der Cloud" - aber die Files müssen vorher heruntergeladen und lokal gespeichert werden.
Da kann ich sie auch gleich herunterladen und lokal speichern :P
ich fürchte, du unterschätz die komplexität all dieser ansätze, videoverabeitung langsam auch im netz in ähnlicher weise abzuwickeln, wie das in vielen anderen bereichen längst ganz selbstverständlich ist. selbst die kleinsten fortschritte sind hier augenblicklich noch mit sehr viel mühe erkauft.

gibt dazu übrigens gerade ein paar ganz gute infos bzw. konferenzaufzeichungen über den aktuellen stand der dinge:

https://www.w3.org/2021/03/media-produc ... talks.html








Antwort von Frank Glencairn:

Ich tu mir eher schwer, da generell irgendwelche Vorteile zu erkennen.



Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
Ich tu mir eher schwer, da generell irgendwelche Vorteile zu erkennen.
ich finde natürlich auch nicht alles daran besonders erfreulich od. wünschenswert -- besonders all das, was im umfeld komerzieller plattformbetreiber daraus gemacht wird...

aber ich seh schon einige ganz wichtige vorzüge derartiger lösungen, die ich durchaus für erstebenswert halte:

die ganze ständige benutzerseitige updaterei beschränkt sich auf ein und auch auf seite der softwarehersteller reduziert sich der betriebssystem spezifische prortierungsaufwand auf ein minimum. letzteres kann ziemlich bedeutsam sein, wenn du ein weniger populäres betriebsystem nutzt.

ganz generell hat das ganze aber auch einfach etwas mit der frage zu tun, wie man computerhardware möglichst effizent und ressourcenschonend benutzt.

das ist eine frage, die mich wirklich durch mein ganzes entsprechendes berufsleben begleitet. ursprünglich, als ich mit dem ganze zeug so richtig angefangen habe und zu programmieren gelernt habe, war es ja z.b. noch ganz und gar nicht selbstverständlich, dass desktop betreiebsysteme (apple system 6 und dos/windows) multitasking fähigkeiten mitbringen. und obwohl derartiges dann langsam natürlich auch in diesem umfeld einzug gehalten hat, war es deutlich spannender, gleich einen schritt weiter zu gehen und all die vorzüge kennen zu lernen, die plötzlich aus der unix- bzw. großrechnerwqelt auch auf ganz normelen PCs mit linux und co. zugänglich wurden.

ein ganz wesentlich punkt dabei war auch die erfahrung, dass man eben nicht unbedingt auf der maschine rechnet, mit der man das ganze bedient, sondern fast immer auch aus der ferne -- sei es im terminal modus od. mit grafischen X11 mitteln -- in genau gleicher weise mit dem zeug arbeiten konnte. damit hat man dann auch von recht schlanken terminals aus ziemlich viel rechenpower auf zentralen servern nutzten können.

in der praxis ist aber im amateurumfeld immer nur ein teil dieser vorzuge auch tatsächlich verstanden und sinnvoll genutzt worden.
das hab ich z.b. sehr intensiv in einer phase erfahren müssen, wo wir hier in der stadt eine art alternativen internet service provider für kunst- und kulturinteressierte gegründet haben, wo dann plötzlich alle ihre rechner bzw. kleinen linux-kisten in unseren serverraum gestellt haben, weil die netzanbindung dort vergleichsweise gut war. das hat schnell dazu geführt, dass wir mit mit dem ausbau der notstromversorgung, der klimaanlage u.ä. kaum mehr nachgekommen sind, weil diese art der extrem ineffizienten techniknutzung einfach ganz ungute begleiterscheinungen zeigt, die einem nur dort nicht bewusst werden, wo es wirklich nur um haushaltsgrößenordnungen geht.

so hab ich dann einige jahre damit verbracht den leuten die vorzüge von virtuellen maschinen zu vermitteln, spätern dann von noch ressourcenschonenderen containern-lösungen, und heut eben von div. serverless ansätzen, CDNs u.ä.

statt der vermittlung von sachkompetenz, um eigene server zu bereiben, setzte ich mittlerweile mehr darauf, dass die leute lernen, mit jenen technischen gestaltungsmitteln umzugehen, mit denen man heute quasi überall auf der welt entsprechende services im netz in ganz ähnlicher und weitestgehend beitreiberunabhängiger weise verteilen kann. damit wird vieles auch deutlich ressourcenschonender realisierbare als es auf amateurequipment im kleinen rahmen jemals möglich wäre.

während dieser zugang im bezug auf all formen des austauschs und veröffentlichung im netz, aber auch in im zusammenhang mit sehr vielen anderen entwicklungs- und arbeitsmitteln, heute ganz wunderbar funktioniert, bildet die videoverarbeitung noch immer eine ausnahme, die in diesen rahmen nicht gut hinein passt. hier benötigt man in der regel noch immer fetten, fürchterlich ineffizienten lokalen hardwareressourcen, ganz so wie es im anfänglich oben beschriebenen dinosauerierzeitalter der desktop betriebssysteme fast zwingend überall der fall war.

man muss sich daran ja nicht unbedingt stören. vielen zeitgenossen bereitet es ja geradezu eine befriedigung, rechner zu nutzen, die hunderte watt an strom fressen, genauso wie sie eben auch stinkende autos lieben, die möglich viel sprit fressen, um nach außen hin irgendwas darzustellen. wie gesagt -- ich kann mit solchen zugängen nicht sehr viel anfangen, weshalb mir alle lösungen, die hier längerfristig ein wenig abhilfe versprechen bzw. intelligenter an die sache herangehen, höchst willkommen sind.



Antwort von Frank Glencairn:

Ja, ich sehe deinen - sagen wir mal eher idealistisch-philisophischen - Ansatz schon, wobei ich eigentlich eher an den Vorteilen, die ich ganz konkret von so einer Lösung haben soll interessiert bin.

Und - du kennst mich ja lange genug - Stromsparen, Ressourcen etc. sind ganz unten auf meiner Liste, ich hab kein Updateproblem und nutze auch kein unpopuläres Betriebssystem.
Für mich zählt die Frage ob und wie lange ich auf meinen Rechner warten muß - sprich: bringt es mir leistungsmäßig was, oder hilft es mir in irgendeiner Form bei meinem (spezifischen) Workflow, und steht das ganze in einem entsprechenden Verhältnis zu Aufwand und Kosten (wiederum bezogen auf meine persönlichen Verhältnisse - your mileage may vary).

Aber selbst wen man deiner Idee folgt, kann ich nicht sehen wie ein "Vordinosaurierzeit-Ansatz" - also zurück zu den Zeiten bevor es PCs gab - um mal bei deiner Klassifikation zu bleiben, da irgendwelche Vorteile haben kann.

Sagen wir mal ich brauche für das Rendern einer Szene, oder für das Editing eines Clips eine Rechenpower (CPU/GPU/Speicherplatz und Durchsatz) von X.
Ob ich X jetzt auf einem Rechner realisiere der einen Meter von mir weg unterm Tisch steht, 300 km weit weg in irgendeinem Rechenzentrum, oder einen Kontinent weit weg bei Amazon - am Ende brauch ich immer einen Rechner, der mir X bereit stellt.

Wenn der jetzt noch weit weg steht, brauch ich zusätzlich noch die Verbindung dahin als Ressource, von der Kühlung und dem sonstigen zusätzlichen Verbrauch eines Rechenzentrums on top of that (den hab zuhause nicht - ich brauch keine Klimaanlage nur weil hier ein Desktop steht), ganz zu schweigen.

Zurück zu den Vorteilen für mich?
Es mag ein paar exotische Fälle geben, in denen sowas durchaus Sinn macht, aber die sind so exotisch, daß mir nicht mal ein einziger einfällt, der in meinem persönlichen Real-Life Workflow auch nur ansatzweise ne Rolle spielen würde (das mag bei anderen anders sein), während mir ganz spontan ne ganze Reihe von gravierenden Nachteilen einfallen würde - ganz voran das Dauerproblem der völligen Abhängigkeit einer Internetverbindung.

Seit Tagen kämpfe ich z.B. hier wieder mal mit ungefähr 20 Abbrüchen am Tag. Der Reset dauert jedes mal 5 Minuten, und oft genug hält die Leitung auch nicht länger bis zum nächsten Abbruch. Ich hab schon zwei mal den Provider gewechselt, Hardware sowieso - hilft nix, liegt wohl an der Gegenstelle, die alle Provider nutzen müssen. Sowas ist ein kompletter Alptraum, vor allem wenn man ne knappe Deadline hat.

Ganz ehrlich bin ich da lieber völlig autonom und dezentral, mit meinen Daten lokal und unabhängig statt irgendwelchen Telekom Fuzzies abhängig ausgeliefert zu sein.

Von der Geschwindigkeit ganz zu schweigen - jede externe 30 Euro SSD ist zig mal schneller als die teuerste Leitung.



Antwort von freezer:

Ich habe mir vor ein paar Wochen einen Testaccount bei https://renderro.com erstellt, um deren Service zu testen.
Man erhält einen virtuellen Windows-Rechner auf dem man alles installieren kann, was man möchte, das GUI wird dann gestreamt. Funktioniert echt gut.
Für /Monat erhält man einen VPC mit 100 GB System + 1 TB Daten und als Basis 4 Kerne (+4 HT) und 32GB plus NVIDIA T4 GPU mit 16GB.
Darauf kann man 200h pro Monat ohne zusätzliche Kosten arbeiten. Bei Bedarf kann man das Paket auf schnellere Hardware hochstufen zB 24 CPUs (+24 HT) 192 GB RAM und 4 NVIDIA T4 GPUs.
Dann kostet die Stunde ,99

Grundsätzlich ein interessantes Paket, aber für mich gab es da ein paar Catches:
1) Dateien von der 100GB System auf den 1TB Speicherplatz verschieben ging nur mit USB2.0 Geschwindigkeit. Arg lahm.
2) ich wollte das System für ein größeres Upscaling-Projekt mit Topaz Video Enhancer AI nutzen - aber das lief auf dieser GPU gerademal doppelt so schnell wie auf der Quadro GPU meines Laptops.
3) mein Upload beträgt für österreichische Verhältnisse eh gute 30 MBit/s - aber selbst damit wird das einfach öd.

Ich bin der gleichen Auffassung wie Frank - ich mache mich nicht abhängig vom Internet, ob ich arbeiten kann oder nicht. Fertige Videos verschicken kann ich im Notfall auch per Mobilnetz vom Handy (hab da 90 GB pro Monat und 300MBit/100MBit bei meinem Tarif).



Antwort von mash_gh4:

ich bin ohnehin insofern bei euch, als ich natürlich jede form von abhängigkeit von einzelnen cloudservice-betreibern und völlig unpraktikable bandbreitenanforderungen natürlich auch als völliges no-go betrachte.

trotzdem ist damit noch nicht gesagt, dass damit die sache gleich erledigt ist.

z.b. ist es im machine-learning umfeld bzw. beim trainieren der dortigen modelle mittlerweile gang und gäbe, dass man GPU-ressourcen im netz nutzt, weil man vergleichbares einfach nicht sinnvoll auf irgendwelche mobilen geräten unterbringen kann und selbst auf workstations die anschaffung wirklich leistungsfähiger entsprechender hardware oft ausgesprochen unwirtschaftlich erscheinen würde. derartiges nutzt man einfach besser gemeinsam auf zentraler infrastruktur.

umgelegt auf unser arbeitsfeld würde ich das etwa im zusammenhang mit der aufbereitung optimierter ausgaben für die adaptive distribution von videomaterial in hoher qualität ganz ähnlich sehen. ohne sehr kostspielige investitionen in überdimensionierte hardware wird man leider beim AV1-encoden gegenwärtig noch immer ziemlich alt, während sich das eben in der cloud mittlerweile zu annehmbaren preisen recht einfach umsetzen lässt.

und was die abhängigkeit von einzelnen anbietern bzw. spezieller software angeht, versuche ich meist auf lösung auszuweichen, die es zwar in fertig nutzbaren service auch irgendwo bequem zugänglich und für den hausgebrauch oft auch kostengünstig bis gratis zu benutzen gibt, gleichzeitig aber durchaus auch auf eigener infrastruktur genutzt werden kann, wenn man sich mühe der entsprechenden wartung antut. das gilt z.b. für GitLab,GitPod, Nextcloud, StorJ, cloudflare pages usw.

man muss sich in dem zusammenhang halt ein bisserl von den vorstellungen und gewohnheiten des arbeitens an desktop bzw. isolierten und räumlich verorteten arbeitsplätzen lösen und den umgang mit oci-containern und kubernetes lernen, weil das gegenwärtig quasi den kleinste gemeinsame nenner zur paraktischen bedienung aller dieser bedeutsameren infrastruktur-angebote draußen im netz darstellt. ohne desen schritt -- also allein nur mit dem angesprochenen auslagern auf virtuelle machinen, etc. -- kommt man einer effizienzsteigerung bzw. besserer ausnutzung entsprechender infrastruktur nicht wirklich näher.

das dafür nötige handwerkliche können lässt sich aber schnell lernen, wenn man ein bisserl neugierde und mut mit mitbringt. mit K3S kann man den umgang mit diesen arbeitsmitteln auch bereits in sehr bescheidenen arbeitsumgebungen proben, oder eben auch entsprechede service in der selben weise nutzen od. bereitstellen, wie man das auch in etwas größeren umgebungen heute handzuhaben pflegt.

und obwohl ich in diesen dingen für andere sicher extrem technikverliebt und abgehoben wirken mag, glaube ich im grunde doch eine ziemlich kritische position zu vertreten. d.h. ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert, die digitalisierung unhinterfragt in allen lebensbereichen vorantreibt und selbst den weltraum und die zahlungsmittel endlich irgenwelchen privaten IT-unternehmen unkontroliert überlässt. ein sinnvolles maß und eine nutzung unter berücksichtigung größerer gesellschaftlicher geschtspunkte und ziele, liegt mir in dem zusammenhang weit eher am herzen.

trotzdem braucht's halt einfach auch leute, die sich mit dingen überhaupt erst einmal ein bisserl ernsthafter auseinadersetzten, um tatsächlich mitreden zu können, und das eine oder andere auch für kreativere zwecke bzw. jenseits des ausschließlich kommerziell interessierten geschehens nutzbar zu machen.



Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:


z.b. ist es im machine-learning umfeld bzw. beim trainieren der dortigen modelle mittlerweile gang und gäbe, dass man GPU-ressourcen im netz nutzt,
Das sind genau die exotischen Spezialanwendungen, wo sowas durchaus Sinn machen kann, die aber bei mir nicht vorkommen, von denen ich gesprochen habe.
mash_gh4 hat geschrieben:


umgelegt auf unser arbeitsfeld würde ich das etwa im zusammenhang mit der aufbereitung optimierter ausgaben für die adaptive distribution von videomaterial in hoher qualität ganz ähnlich sehen. ohne sehr kostspielige investitionen in überdimensionierte hardware wird man leider beim AV1-encoden gegenwärtig noch immer ziemlich alt, während sich das eben in der cloud mittlerweile zu annehmbaren preisen recht einfach umsetzen lässt.

Ja, nur dauert das hochladen z.B. eines unkomprimierten (oder meinetwegen auch visual lossless komprimierten) Spielfilms (von dem ich solche Versionen normal rechne) länger als das lokale umrechnen.
mash_gh4 hat geschrieben:
das gilt z.b. für GitLab,GitPod, Nextcloud, StorJ, cloudflare pages usw.
Nice, aber das Problem der absoluten Abhängigkeit von einem zuverlässigen und ultraschnellen Netzzugangs bleibt.
mash_gh4 hat geschrieben:

ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert,
Das scheint mir etwas kurios, denn für so ziemlich alles was du vorschlägst, ist genau das die Grundvoraussetzung.
Ich meine in unserem Bereich sind ein paar TB quasi gar nix. Bei den Datenmengen bist du halt ganz schnell am Anschlag, was die Übertragungsleistungen betrifft.
Ich war kürzlich gezwungen zu ner befreundeten Agentur zu gehen, nur um DCPs für ein paar Festivals hochzuladen.
Und selbst mit deren wirklich schneller Glasfaser hat es ein paar Stunden gedauert - bei mir wahrscheinlich Tage.



Antwort von mash_gh4:

ich fürchte, bei der ganzen geschichte geht es mehr darum, wirklich intelligente antworten und löungen mit rücksicht auf die realen gegebenheiten und anforderungen zu finden, statt mit dem kopf durch wand gehen zu wollen.

vernünftige formen der kompression, neue poxy- und progessive caching-lösungen und hybride verarbeitungsansätze in der software, spielen dabei in der praxis vermutlich eine weit bedeutsame rolle, als einfach nur die gegenwärtigen arbeitsweisen und zugänge der bedienung 1:1 ins netz umlegen zu wollen.

und natürlich kommen einen die leitungen und verfügbaren anschlussbandbreiten immer viel zu langsam vor. ich finde es aber nicht weiter schlimm, wenn man hin und wieder ein paar schritte weit gehen muss, um wirklich große datenmengen von geeigneterem knoten aus zu übertragen. so wie ich halt ein packerl
sinnvollerweise auch zur post bringe. das scheint mir zumindest sinnvoller, als in völlig unangemessener weise den entsprechenden ausbau aller zugänge für die breite masse bzw. die damit verbundenen kosten völlig unverhältnismäßig explodieren zu lassen.

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.



Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.
LOL- Kommunisten gegen ÖPNV :P



Antwort von freezer:

"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.
LOL- Kommunisten gegen ÖPNV :P
Das stimmt so nicht. Die ÖVP unter Bgm Nagl wollte eine sehr teure U-Bahn-Lösung bei uns in Graz bauen, während die KPÖ auf eine starke Verbesserung der bestehenden Straßenbahnlinien in Kombination mit dem Ausbau von regionalen Schnellbahnen setzen wollte. Ich persönlich fand das vorgestellte U-Bahn-Konzept im Detail gut - in Anbetracht des Wachstums der Stadt, aber die Finanzierung wäre wohl kaum stemmbar gewesen.








Antwort von Jalue:

"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:

ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert,
Das scheint mir etwas kurios, denn für so ziemlich alles was du vorschlägst, ist genau das die Grundvoraussetzung.
Ich meine in unserem Bereich sind ein paar TB quasi gar nix. Bei den Datenmengen bist du halt ganz schnell am Anschlag, was die Übertragungsleistungen betrifft.
Ich war kürzlich gezwungen zu ner befreundeten Agentur zu gehen, nur um DCPs für ein paar Festivals hochzuladen.
Und selbst mit deren wirklich schneller Glasfaser hat es ein paar Stunden gedauert - bei mir wahrscheinlich Tage.
Ein Kunde von mir arbeitet mit so einem brandneuen, Cloud-basierten System. Alles landet im Netz, der Rest ist Proxy-Workflow, man kann auch die Projekte hochladen und kollaborativ bearbeiten, dann ist das Ganze noch mit einem komplexen Redaktionssystem verknüpft, dient zugleich als Archiv ... Funktioniert es? An guten Tagen ja. An schlechten raucht irgendwo ein Server ab und nichts geht mehr. Selbst wenn alles läuft, ist man gefühlt die Hälfte der Zeit damit beschäftigt, Bugs zu umschiffen oder den Anforderungen der IT-Sicherheit zu genügen, Stichwort: "Drei-Faktor-Authentifizierung". Da wird es schwierig bis unmöglich, konzentriert und kreativ am Produkt zu arbeiten - aber genau darum sollte es ja gehen!

Oder etwa nicht?

Versetzen wir uns kurz in die BWL'er-Perspektive, auch wenn es schwerfällt: "Egal ob das Dingens buggy ist und diese Kreativ-Heinis herumjammern ... wir sparen massig Personal und Kohle, wenn wir denen auch noch Sendeablauf, Rechteclearing und Archivierung überhelfen können." ;-)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Avid Media Composer Preis-Revolution -- ab 19 Euro monatlich ohne Team und Cloud // NAB 2018
Blackmagic: Desktop Firmware Update 11.4.1 bringt HDR Unterstützung für Avid Media Composer
Avid Media Composer 2020.4 bringt Support für macOS Catalina und ProRes
Anfrage Avid Media Composer 5.3 oder 5.5
Blackmagic RAW 2.0 Beta 2 bringt BRAW 12K für Adobe Premiere und Avid Media Composer unter Windows
Blackmagic RAW 1.5 bringt kostenlose Plugins für Adobe Premiere Pro und Avid Media Composer // IBC 2019
Avid Media Composer 2019 ist da mit neuer Media Engine und Workspaces, 16K Finishing und mehr
Film aus Avid Media Composer auf DVD brennen
Avid Media Composer 2021.3 verfügbar mit neuem IMF-Workflow
Avid Media Composer bekommt ProRes RAW Unterstützung // IBC 2019
Datensicherung von Avid Media Composer Projekten (Backup: RAID vs externe HDDs)?
Avid Media Composer 2019: Neue Media Engine, 16K Finishing, neue Workspaces uvm. // NAB 2019
Avid Media Composer 2018.7 mit neuer Live Timeline und 16K-Unterstützung
Frame.io Camera to Cloud: Cloud-basierter Echtzeit-Workflow von der Kamera bis zum Schnitt
Update: Kyno 1.8 mit BRAW-Support und DaVinci Resolve / Avid Media Composer Unterstützung
Avid Media Composer Update 2022.7 bringt Multi-Monitor Arbeitsbereiche und Resolve/Premiere-Shortcuts
Neue Version von Avid MediaCentral ist jetzt ganz in der Cloud
Frame.io startet Cloud-basierten Echtzeit-Workflow von der Kamera bis zum Schnitt
Frame.io plant Cloud-basierte Echtzeit-Workflows von der Kamera bis zum Schnitt
Neues Notebook für Schnitt - Permiere Cs6 und Avid
Blackmagic Cloud Store (Mini) und Cloud Pod: Netzwerkspeicherlösungen für die Resolve Cloud
Trailer Schnitt im Avid
Media Composer 2020.12 ist verfügbar - jetzt mit HEVC/H.265
Blackmagic Cloud Pod und Cloud Store Mini 8TB - Netzspeicher einfach für Alle
Atomos zeigt Cloud Studio Tools für die Live-Videoproduktion auf der NAB
Kostenloser Leitfaden für Premiere Pro Editoren erschienen

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom