Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren

Blackmagic URSA Broadcast G2

Newsmeldung von slashCAM:



Mit AVID Edit on Demand steht seit diesem Frühjahr eine Möglichkeit für das Remote Editing mit dem Media Composer als SaaS Version zur Verfügung, mit einem NEXIS Cloud W...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren


Space


Antwort von Frank Glencairn:

"Schnitt in der Cloud" - aber die Files müssen vorher heruntergeladen und lokal gespeichert werden.
Da kann ich sie auch gleich herunterladen und lokal speichern :P

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
"Schnitt in der Cloud" - aber die Files müssen vorher heruntergeladen und lokal gespeichert werden.
Da kann ich sie auch gleich herunterladen und lokal speichern :P
ich fürchte, du unterschätz die komplexität all dieser ansätze, videoverabeitung langsam auch im netz in ähnlicher weise abzuwickeln, wie das in vielen anderen bereichen längst ganz selbstverständlich ist. selbst die kleinsten fortschritte sind hier augenblicklich noch mit sehr viel mühe erkauft.

gibt dazu übrigens gerade ein paar ganz gute infos bzw. konferenzaufzeichungen über den aktuellen stand der dinge:

https://www.w3.org/2021/03/media-produc ... talks.html

Space


Antwort von Frank Glencairn:

Ich tu mir eher schwer, da generell irgendwelche Vorteile zu erkennen.

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
Ich tu mir eher schwer, da generell irgendwelche Vorteile zu erkennen.
ich finde natürlich auch nicht alles daran besonders erfreulich od. wünschenswert -- besonders all das, was im umfeld komerzieller plattformbetreiber daraus gemacht wird...

aber ich seh schon einige ganz wichtige vorzüge derartiger lösungen, die ich durchaus für erstebenswert halte:

die ganze ständige benutzerseitige updaterei beschränkt sich auf ein und auch auf seite der softwarehersteller reduziert sich der betriebssystem spezifische prortierungsaufwand auf ein minimum. letzteres kann ziemlich bedeutsam sein, wenn du ein weniger populäres betriebsystem nutzt.

ganz generell hat das ganze aber auch einfach etwas mit der frage zu tun, wie man computerhardware möglichst effizent und ressourcenschonend benutzt.

das ist eine frage, die mich wirklich durch mein ganzes entsprechendes berufsleben begleitet. ursprünglich, als ich mit dem ganze zeug so richtig angefangen habe und zu programmieren gelernt habe, war es ja z.b. noch ganz und gar nicht selbstverständlich, dass desktop betreiebsysteme (apple system 6 und dos/windows) multitasking fähigkeiten mitbringen. und obwohl derartiges dann langsam natürlich auch in diesem umfeld einzug gehalten hat, war es deutlich spannender, gleich einen schritt weiter zu gehen und all die vorzüge kennen zu lernen, die plötzlich aus der unix- bzw. großrechnerwqelt auch auf ganz normelen PCs mit linux und co. zugänglich wurden.

ein ganz wesentlich punkt dabei war auch die erfahrung, dass man eben nicht unbedingt auf der maschine rechnet, mit der man das ganze bedient, sondern fast immer auch aus der ferne -- sei es im terminal modus od. mit grafischen X11 mitteln -- in genau gleicher weise mit dem zeug arbeiten konnte. damit hat man dann auch von recht schlanken terminals aus ziemlich viel rechenpower auf zentralen servern nutzten können.

in der praxis ist aber im amateurumfeld immer nur ein teil dieser vorzuge auch tatsächlich verstanden und sinnvoll genutzt worden.
das hab ich z.b. sehr intensiv in einer phase erfahren müssen, wo wir hier in der stadt eine art alternativen internet service provider für kunst- und kulturinteressierte gegründet haben, wo dann plötzlich alle ihre rechner bzw. kleinen linux-kisten in unseren serverraum gestellt haben, weil die netzanbindung dort vergleichsweise gut war. das hat schnell dazu geführt, dass wir mit mit dem ausbau der notstromversorgung, der klimaanlage u.ä. kaum mehr nachgekommen sind, weil diese art der extrem ineffizienten techniknutzung einfach ganz ungute begleiterscheinungen zeigt, die einem nur dort nicht bewusst werden, wo es wirklich nur um haushaltsgrößenordnungen geht.

so hab ich dann einige jahre damit verbracht den leuten die vorzüge von virtuellen maschinen zu vermitteln, spätern dann von noch ressourcenschonenderen containern-lösungen, und heut eben von div. serverless ansätzen, CDNs u.ä.

statt der vermittlung von sachkompetenz, um eigene server zu bereiben, setzte ich mittlerweile mehr darauf, dass die leute lernen, mit jenen technischen gestaltungsmitteln umzugehen, mit denen man heute quasi überall auf der welt entsprechende services im netz in ganz ähnlicher und weitestgehend beitreiberunabhängiger weise verteilen kann. damit wird vieles auch deutlich ressourcenschonender realisierbare als es auf amateurequipment im kleinen rahmen jemals möglich wäre.

während dieser zugang im bezug auf all formen des austauschs und veröffentlichung im netz, aber auch in im zusammenhang mit sehr vielen anderen entwicklungs- und arbeitsmitteln, heute ganz wunderbar funktioniert, bildet die videoverarbeitung noch immer eine ausnahme, die in diesen rahmen nicht gut hinein passt. hier benötigt man in der regel noch immer fetten, fürchterlich ineffizienten lokalen hardwareressourcen, ganz so wie es im anfänglich oben beschriebenen dinosauerierzeitalter der desktop betriebssysteme fast zwingend überall der fall war.

man muss sich daran ja nicht unbedingt stören. vielen zeitgenossen bereitet es ja geradezu eine befriedigung, rechner zu nutzen, die hunderte watt an strom fressen, genauso wie sie eben auch stinkende autos lieben, die möglich viel sprit fressen, um nach außen hin irgendwas darzustellen. wie gesagt -- ich kann mit solchen zugängen nicht sehr viel anfangen, weshalb mir alle lösungen, die hier längerfristig ein wenig abhilfe versprechen bzw. intelligenter an die sache herangehen, höchst willkommen sind.

Space


Antwort von Frank Glencairn:

Ja, ich sehe deinen - sagen wir mal eher idealistisch-philisophischen - Ansatz schon, wobei ich eigentlich eher an den Vorteilen, die ich ganz konkret von so einer Lösung haben soll interessiert bin.

Und - du kennst mich ja lange genug - Stromsparen, Ressourcen etc. sind ganz unten auf meiner Liste, ich hab kein Updateproblem und nutze auch kein unpopuläres Betriebssystem.
Für mich zählt die Frage ob und wie lange ich auf meinen Rechner warten muß - sprich: bringt es mir leistungsmäßig was, oder hilft es mir in irgendeiner Form bei meinem (spezifischen) Workflow, und steht das ganze in einem entsprechenden Verhältnis zu Aufwand und Kosten (wiederum bezogen auf meine persönlichen Verhältnisse - your mileage may vary).

Aber selbst wen man deiner Idee folgt, kann ich nicht sehen wie ein "Vordinosaurierzeit-Ansatz" - also zurück zu den Zeiten bevor es PCs gab - um mal bei deiner Klassifikation zu bleiben, da irgendwelche Vorteile haben kann.

Sagen wir mal ich brauche für das Rendern einer Szene, oder für das Editing eines Clips eine Rechenpower (CPU/GPU/Speicherplatz und Durchsatz) von X.
Ob ich X jetzt auf einem Rechner realisiere der einen Meter von mir weg unterm Tisch steht, 300 km weit weg in irgendeinem Rechenzentrum, oder einen Kontinent weit weg bei Amazon - am Ende brauch ich immer einen Rechner, der mir X bereit stellt.

Wenn der jetzt noch weit weg steht, brauch ich zusätzlich noch die Verbindung dahin als Ressource, von der Kühlung und dem sonstigen zusätzlichen Verbrauch eines Rechenzentrums on top of that (den hab zuhause nicht - ich brauch keine Klimaanlage nur weil hier ein Desktop steht), ganz zu schweigen.

Zurück zu den Vorteilen für mich?
Es mag ein paar exotische Fälle geben, in denen sowas durchaus Sinn macht, aber die sind so exotisch, daß mir nicht mal ein einziger einfällt, der in meinem persönlichen Real-Life Workflow auch nur ansatzweise ne Rolle spielen würde (das mag bei anderen anders sein), während mir ganz spontan ne ganze Reihe von gravierenden Nachteilen einfallen würde - ganz voran das Dauerproblem der völligen Abhängigkeit einer Internetverbindung.

Seit Tagen kämpfe ich z.B. hier wieder mal mit ungefähr 20 Abbrüchen am Tag. Der Reset dauert jedes mal 5 Minuten, und oft genug hält die Leitung auch nicht länger bis zum nächsten Abbruch. Ich hab schon zwei mal den Provider gewechselt, Hardware sowieso - hilft nix, liegt wohl an der Gegenstelle, die alle Provider nutzen müssen. Sowas ist ein kompletter Alptraum, vor allem wenn man ne knappe Deadline hat.

Ganz ehrlich bin ich da lieber völlig autonom und dezentral, mit meinen Daten lokal und unabhängig statt irgendwelchen Telekom Fuzzies abhängig ausgeliefert zu sein.

Von der Geschwindigkeit ganz zu schweigen - jede externe 30 Euro SSD ist zig mal schneller als die teuerste Leitung.

Space


Antwort von freezer:

Ich habe mir vor ein paar Wochen einen Testaccount bei https://renderro.com erstellt, um deren Service zu testen.
Man erhält einen virtuellen Windows-Rechner auf dem man alles installieren kann, was man möchte, das GUI wird dann gestreamt. Funktioniert echt gut.
Für $49/Monat erhält man einen VPC mit 100 GB System + 1 TB Daten und als Basis 4 Kerne (+4 HT) und 32GB plus NVIDIA T4 GPU mit 16GB.
Darauf kann man 200h pro Monat ohne zusätzliche Kosten arbeiten. Bei Bedarf kann man das Paket auf schnellere Hardware hochstufen zB 24 CPUs (+24 HT) 192 GB RAM und 4 NVIDIA T4 GPUs.
Dann kostet die Stunde $4,99

Grundsätzlich ein interessantes Paket, aber für mich gab es da ein paar Catches:
1) Dateien von der 100GB System auf den 1TB Speicherplatz verschieben ging nur mit USB2.0 Geschwindigkeit. Arg lahm.
2) ich wollte das System für ein größeres Upscaling-Projekt mit Topaz Video Enhancer AI nutzen - aber das lief auf dieser GPU gerademal doppelt so schnell wie auf der Quadro GPU meines Laptops.
3) mein Upload beträgt für österreichische Verhältnisse eh gute 30 MBit/s - aber selbst damit wird das einfach öd.

Ich bin der gleichen Auffassung wie Frank - ich mache mich nicht abhängig vom Internet, ob ich arbeiten kann oder nicht. Fertige Videos verschicken kann ich im Notfall auch per Mobilnetz vom Handy (hab da 90 GB pro Monat und 300MBit/100MBit bei meinem Tarif).

Space


Antwort von mash_gh4:

ich bin ohnehin insofern bei euch, als ich natürlich jede form von abhängigkeit von einzelnen cloudservice-betreibern und völlig unpraktikable bandbreitenanforderungen natürlich auch als völliges no-go betrachte.

trotzdem ist damit noch nicht gesagt, dass damit die sache gleich erledigt ist.

z.b. ist es im machine-learning umfeld bzw. beim trainieren der dortigen modelle mittlerweile gang und gäbe, dass man GPU-ressourcen im netz nutzt, weil man vergleichbares einfach nicht sinnvoll auf irgendwelche mobilen geräten unterbringen kann und selbst auf workstations die anschaffung wirklich leistungsfähiger entsprechender hardware oft ausgesprochen unwirtschaftlich erscheinen würde. derartiges nutzt man einfach besser gemeinsam auf zentraler infrastruktur.

umgelegt auf unser arbeitsfeld würde ich das etwa im zusammenhang mit der aufbereitung optimierter ausgaben für die adaptive distribution von videomaterial in hoher qualität ganz ähnlich sehen. ohne sehr kostspielige investitionen in überdimensionierte hardware wird man leider beim AV1-encoden gegenwärtig noch immer ziemlich alt, während sich das eben in der cloud mittlerweile zu annehmbaren preisen recht einfach umsetzen lässt.

und was die abhängigkeit von einzelnen anbietern bzw. spezieller software angeht, versuche ich meist auf lösung auszuweichen, die es zwar in fertig nutzbaren service auch irgendwo bequem zugänglich und für den hausgebrauch oft auch kostengünstig bis gratis zu benutzen gibt, gleichzeitig aber durchaus auch auf eigener infrastruktur genutzt werden kann, wenn man sich mühe der entsprechenden wartung antut. das gilt z.b. für GitLab,GitPod, Nextcloud, StorJ, cloudflare pages usw.

man muss sich in dem zusammenhang halt ein bisserl von den vorstellungen und gewohnheiten des arbeitens an desktop bzw. isolierten und räumlich verorteten arbeitsplätzen lösen und den umgang mit oci-containern und kubernetes lernen, weil das gegenwärtig quasi den kleinste gemeinsame nenner zur paraktischen bedienung aller dieser bedeutsameren infrastruktur-angebote draußen im netz darstellt. ohne desen schritt -- also allein nur mit dem angesprochenen auslagern auf virtuelle machinen, etc. -- kommt man einer effizienzsteigerung bzw. besserer ausnutzung entsprechender infrastruktur nicht wirklich näher.

das dafür nötige handwerkliche können lässt sich aber schnell lernen, wenn man ein bisserl neugierde und mut mit mitbringt. mit K3S kann man den umgang mit diesen arbeitsmitteln auch bereits in sehr bescheidenen arbeitsumgebungen proben, oder eben auch entsprechede service in der selben weise nutzen od. bereitstellen, wie man das auch in etwas größeren umgebungen heute handzuhaben pflegt.

und obwohl ich in diesen dingen für andere sicher extrem technikverliebt und abgehoben wirken mag, glaube ich im grunde doch eine ziemlich kritische position zu vertreten. d.h. ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert, die digitalisierung unhinterfragt in allen lebensbereichen vorantreibt und selbst den weltraum und die zahlungsmittel endlich irgenwelchen privaten IT-unternehmen unkontroliert überlässt. ein sinnvolles maß und eine nutzung unter berücksichtigung größerer gesellschaftlicher geschtspunkte und ziele, liegt mir in dem zusammenhang weit eher am herzen.

trotzdem braucht's halt einfach auch leute, die sich mit dingen überhaupt erst einmal ein bisserl ernsthafter auseinadersetzten, um tatsächlich mitreden zu können, und das eine oder andere auch für kreativere zwecke bzw. jenseits des ausschließlich kommerziell interessierten geschehens nutzbar zu machen.

Space


Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:


z.b. ist es im machine-learning umfeld bzw. beim trainieren der dortigen modelle mittlerweile gang und gäbe, dass man GPU-ressourcen im netz nutzt,
Das sind genau die exotischen Spezialanwendungen, wo sowas durchaus Sinn machen kann, die aber bei mir nicht vorkommen, von denen ich gesprochen habe.
mash_gh4 hat geschrieben:


umgelegt auf unser arbeitsfeld würde ich das etwa im zusammenhang mit der aufbereitung optimierter ausgaben für die adaptive distribution von videomaterial in hoher qualität ganz ähnlich sehen. ohne sehr kostspielige investitionen in überdimensionierte hardware wird man leider beim AV1-encoden gegenwärtig noch immer ziemlich alt, während sich das eben in der cloud mittlerweile zu annehmbaren preisen recht einfach umsetzen lässt.

Ja, nur dauert das hochladen z.B. eines unkomprimierten (oder meinetwegen auch visual lossless komprimierten) Spielfilms (von dem ich solche Versionen normal rechne) länger als das lokale umrechnen.
mash_gh4 hat geschrieben:
das gilt z.b. für GitLab,GitPod, Nextcloud, StorJ, cloudflare pages usw.
Nice, aber das Problem der absoluten Abhängigkeit von einem zuverlässigen und ultraschnellen Netzzugangs bleibt.
mash_gh4 hat geschrieben:

ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert,
Das scheint mir etwas kurios, denn für so ziemlich alles was du vorschlägst, ist genau das die Grundvoraussetzung.
Ich meine in unserem Bereich sind ein paar TB quasi gar nix. Bei den Datenmengen bist du halt ganz schnell am Anschlag, was die Übertragungsleistungen betrifft.
Ich war kürzlich gezwungen zu ner befreundeten Agentur zu gehen, nur um DCPs für ein paar Festivals hochzuladen.
Und selbst mit deren wirklich schneller Glasfaser hat es ein paar Stunden gedauert - bei mir wahrscheinlich Tage.

Space



Space


Antwort von mash_gh4:

ich fürchte, bei der ganzen geschichte geht es mehr darum, wirklich intelligente antworten und löungen mit rücksicht auf die realen gegebenheiten und anforderungen zu finden, statt mit dem kopf durch wand gehen zu wollen.

vernünftige formen der kompression, neue poxy- und progessive caching-lösungen und hybride verarbeitungsansätze in der software, spielen dabei in der praxis vermutlich eine weit bedeutsame rolle, als einfach nur die gegenwärtigen arbeitsweisen und zugänge der bedienung 1:1 ins netz umlegen zu wollen.

und natürlich kommen einen die leitungen und verfügbaren anschlussbandbreiten immer viel zu langsam vor. ich finde es aber nicht weiter schlimm, wenn man hin und wieder ein paar schritte weit gehen muss, um wirklich große datenmengen von geeigneterem knoten aus zu übertragen. so wie ich halt ein packerl
sinnvollerweise auch zur post bringe. das scheint mir zumindest sinnvoller, als in völlig unangemessener weise den entsprechenden ausbau aller zugänge für die breite masse bzw. die damit verbundenen kosten völlig unverhältnismäßig explodieren zu lassen.

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.

Space


Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.
LOL- Kommunisten gegen ÖPNV :P

Space


Antwort von freezer:

"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:

aber gut, der ehemaliger bürgermeister in unserem lächerlich kleinen provinznest wollte auch um jeden preis, dass sie uns eine u-bahn und entsprechenden zugang unmittelbar vors haus setzten. damit ist er nun allerdings mit wehenden fahnen untergegangen und es sind glücklicherweise wieder etwas andere kräfte hier in der stadt ans ruder gekommen, die hoffentlich in naher zukunft vernünftigere lösungen in diesen fragen verfolgen werden.
LOL- Kommunisten gegen ÖPNV :P
Das stimmt so nicht. Die ÖVP unter Bgm Nagl wollte eine sehr teure U-Bahn-Lösung bei uns in Graz bauen, während die KPÖ auf eine starke Verbesserung der bestehenden Straßenbahnlinien in Kombination mit dem Ausbau von regionalen Schnellbahnen setzen wollte. Ich persönlich fand das vorgestellte U-Bahn-Konzept im Detail gut - in Anbetracht des Wachstums der Stadt, aber die Finanzierung wäre wohl kaum stemmbar gewesen.

Space


Antwort von Jalue:

"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:

ich trete ganz und gar nicht dafür ein, dass man man völlig verrückt in den breitbandausbau investiert,
Das scheint mir etwas kurios, denn für so ziemlich alles was du vorschlägst, ist genau das die Grundvoraussetzung.
Ich meine in unserem Bereich sind ein paar TB quasi gar nix. Bei den Datenmengen bist du halt ganz schnell am Anschlag, was die Übertragungsleistungen betrifft.
Ich war kürzlich gezwungen zu ner befreundeten Agentur zu gehen, nur um DCPs für ein paar Festivals hochzuladen.
Und selbst mit deren wirklich schneller Glasfaser hat es ein paar Stunden gedauert - bei mir wahrscheinlich Tage.
Ein Kunde von mir arbeitet mit so einem brandneuen, Cloud-basierten System. Alles landet im Netz, der Rest ist Proxy-Workflow, man kann auch die Projekte hochladen und kollaborativ bearbeiten, dann ist das Ganze noch mit einem komplexen Redaktionssystem verknüpft, dient zugleich als Archiv ... Funktioniert es? An guten Tagen ja. An schlechten raucht irgendwo ein Server ab und nichts geht mehr. Selbst wenn alles läuft, ist man gefühlt die Hälfte der Zeit damit beschäftigt, Bugs zu umschiffen oder den Anforderungen der IT-Sicherheit zu genügen, Stichwort: "Drei-Faktor-Authentifizierung". Da wird es schwierig bis unmöglich, konzentriert und kreativ am Produkt zu arbeiten - aber genau darum sollte es ja gehen!

Oder etwa nicht?

Versetzen wir uns kurz in die BWL'er-Perspektive, auch wenn es schwerfällt: "Egal ob das Dingens buggy ist und diese Kreativ-Heinis herumjammern ... wir sparen massig Personal und Kohle, wenn wir denen auch noch Sendeablauf, Rechteclearing und Archivierung überhelfen können." ;-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren
Avid Media Composer 2019: Neue Media Engine, 16K Finishing, neue Workspaces uvm. // NAB 2019
Avid Media Composer 2019 ist da mit neuer Media Engine und Workspaces, 16K Finishing und mehr
Blackmagic RAW 1.5 bringt kostenlose Plugins für Adobe Premiere Pro und Avid Media Composer // IBC 2019
Blackmagic: Desktop Firmware Update 11.4.1 bringt HDR Unterstützung für Avid Media Composer
Avid Media Composer 2020.4 bringt Support für macOS Catalina und ProRes
Blackmagic RAW 2.0 Beta 2 bringt BRAW 12K für Adobe Premiere und Avid Media Composer unter Windows
Avid Media Composer bekommt ProRes RAW Unterstützung // IBC 2019
Update: Kyno 1.8 mit BRAW-Support und DaVinci Resolve / Avid Media Composer Unterstützung
Anfrage Avid Media Composer 5.3 oder 5.5
Avid Media Composer 2021.3 verfügbar mit neuem IMF-Workflow
Avid Media Composer Update 2022.7 bringt Multi-Monitor Arbeitsbereiche und Resolve/Premiere-Shortcuts
Neue Version von Avid Media Composer bringt u.a. bessere Zusammenarbeit mit Pro Tools
Neues im Avid Media Composer 2023.8 - u.a. Transkription und Classic Layout
Frame.io Camera to Cloud: Cloud-basierter Echtzeit-Workflow von der Kamera bis zum Schnitt
Blackmagic Cloud Store (Mini) und Cloud Pod: Netzwerkspeicherlösungen für die Resolve Cloud
Camera-to-cloud: Atomos Connect bekommt Sony Ci Media-Cloud Integration
Ci Media Cloud von Sony Media Solutions - Günstigeres Abo Modell für Medien-KMUs
Hedge Update, und EditReady Transcoder bekommt erweiterten RAW-Support




RSS Facebook Twitter slashCAM-Slash