Logo Logo
/// 

Smartphone-Filmen: Die Krux mit der variablen Framerate



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://images.slashcam.de/texte/1667-- ... -FRONT.jpg
Wer öfter mit dem Handy filmt, hat meist schon schon einen Workaround, doch wer mit der Smartphone-Filmerei beginnt stolpert fast hundertprozentig darüber: Die variable FramerateFramerate im Glossar erklärt der aufgezeichneten Videos.

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Grundlagen: Smartphone-Filmen: Die Krux mit der variablen Framerate




Antwort von Bruno Peter:

Ich hatte diese variable Bitrate 2014 bei meinem Sony Xperia Z2. Das ärgerte mich damals...
Die Anpassung der Bildwiederholfrequenz der Xperia-Clips an die Projekteinstellung machte ich seinerzeit über die Funktion "Eigenschaften"
im Bin-Fenster von EDIUS Pro 7 bevor der Clip auf die TimelineTimeline im Glossar erklärt abgelegt worden ist. Hierdurch sind "Geisterbilder" dann verhindert worden.

zum Bild http://www.hennek-homepage.de/video/xpe ... bilder.jpg

Links das "Geisterbild" (MP4) bei recht schneller Bewegung, rechts das "saubere" MP4-Files nach Anpassung der BildwiederholrateBildwiederholrate im Glossar erklärt an die Projekteinstellung

Nach dem Firmwareupdate von Sony vom 05.11.2014 hat jeder Clip die Nenn-Bildwiederholrate von 29,97 fps bekommen und damit hat sich das Problem dann
von Haus für mich erledigt.

Diesen Tipp von mir hat im Videotreffpunkt auch ein Eigner vom Apple-I-Phone vor einigen Wochen von mir übernommen, er hat ebenfalls EDIUS.
Auch bei ihm hat dieser Tipp geholfen!



Antwort von beiti:

Ich kann mir nicht vorstellen, dass die Um-Interpretation auf feste 29,97 fps in Edius das Problem löst; das klappt vielleicht für die Wandlung von 24 auf 25 fps, aber nicht für Ausgangsclips mit variabler Framerate. Man wird dadurch vielleicht die durchs Frameblending erzeugten Geisterbilder los, aber dafür tritt dann entweder eine Asynchronität zwischen Bild und Ton oder eine Schwankung der Tonhöhe auf - denn an der Tatsache, dass das Video mit variabler FramerateFramerate im Glossar erklärt aufgenommen wurde, kann eine nachträgliche Interpretation ja nichts ändern.
Das heißt: Nach der Um-Interpretation variiert das Video zwar nicht mehr die FramerateFramerate im Glossar erklärt, aber dafür die Geschwindigkeit. Zumindest in gleichmäßigen Bewegungen wird das auffallen.

Edius macht eigentlich schon alles richtig: Es interpretiert die variable FramerateFramerate im Glossar erklärt korrekt und spielt das Video mit unverzerrtem und synchronem Ton ab.
Was Edius noch nicht kann, ist der native Umgang mit der variablen FramerateFramerate im Glossar erklärt auf der Timeline; stattdessen wird immer in die feste FramerateFramerate im Glossar erklärt des Projektes konvertiert. Wenn man die Konvertierung per Frameblending (Geisterbilder) nicht mag, kann man sie in Edius jederzeit auf "Nächster Nachbar" umstellen; das ist übrigens auch das, was HandBrake bei der Konvertierung macht. Seit irgendeiner Unterversion von Edius 8 ist als dritte Variante noch eine Optical-Flow-Konvertierung hinzugekommen, also eine Zwischenbildberechnung (wobei diese je nach Bildinhalt leider manchmal seltsame ArtefakteArtefakte im Glossar erklärt hervorbringt und daher nicht uneingeschränkt empfohlen werden kann).





Antwort von Roland Schulz:

Dieser blödsinnige SCHEISS ist mir am letzten Wochenende auch in die Quere gekommen. Habe mit nem iPhone X und Filmic Pro "gearbeitet" und selbst am Smartphone sah das teilweise beim Filmen schon komisch aus weil das Display teils einen erheblichen Lag zur Szene hatte. Mag daran gelegen haben dass ich zwischenzeitlich bei voreingestellter FramerateFramerate im Glossar erklärt von 25fps auf 1/25s Belichtungszeit gekommen bin, was eigentlich nur noch über Integration oder VFR halt ginge und die App schon nen Problem gekriegt hat.

Ebenfalls in EDIUS ging dann alles kreuz und quer. Das Bild hatte zunächst einen deutlichen Lag, zum Ende wurde das Video dann schneller abgespielt (Ton stets "korrekt"). In Premiere CC 2018 lief"s anders wenn auch nicht wirklich besser.
In MPC-HC (FFMpeg) sah"s "komischerweise" gut aus, keine erkennbaren Probleme.

Hab dann mit FFMpeg nen DNxHR (!!) draus gemacht (als Parameter ist nur DNxHDDNxHD im Glossar erklärt möglich, bleibt trotzdem 4K, EDIUS interpretiert DNxHR). Trotzdem hat FFMpeg während der Wandlung ein paar Fehler angezeigt (nicht gemerkt was da stand). In EDIUS lief der Clip dann aber ohne erkennbare Fehler.

Ich frage mich was dieser Mist soll, ggf. hat auch Filmic Pro einfach ne Macke (da stehe ich mit Eliot schon in Kontakt. Er "meint" es läge an der Telekamera die sich anders als die WWKamera verhält).

Wenn ich ~1.300€ für nen Smartphone auf den Tisch lege welches mit weitreichenden Videofunktionalitäten beworben wird erwarte ich irgendwo dass da was halbwegs verwendbares bei rauskommt.
Wenn weder EDIUS noch Premiere CC derzeit damit klar kommen sollte man VFR heute noch deaktivieren können. Ist beides schließlich nicht die letzte Maggiesuppensoftware.



Antwort von Jott:

Apple-Software hat, wie man auch erwarten würde, keine Probleme mit iPhones. Egal ob mit oder ohne Filmic und Konsorten. Kann also kein prinzipiell unlösbares Problem sein.

Vielleicht gibt‘s irgendwann mal ein aufschlussreiches Behind-the-Scenes zu "Unsane", der ja schon am Set geschnitten worden sein soll.



Antwort von mash_gh4:

am vernünftigsten finde ich es, wenn programme unbedarfte benutzer in dieser hinsicht ganz praktisch unterstützen. shotcut hat eine entsprechende funktionalität ende letzten jahres bekommen. dort wird VFR automatisch erkannt und einen entsprechenden dialog zwecks notwendiger umwandlung ausspuckt:
zum Bild https://www.shotcut.org/assets/img/blog ... iendly.png



Antwort von Roland Schulz:

Die Frage ist wozu VFR bei konventionellem Video überhaupt dienen soll bzw. wo man VFR hinterher "richtig" wiedergeben kann.
Bis mein PC oder TV oder Sender oder sonstwas VFR "richtig" wiedergeben kann, also auch mit variabler Darstellungsbildrate, gehen noch ein paar Monde ins Land. Bis dahin sollte man den Quatsch (!!) deaktivieren können - auch bei Apple! Spätestens wenn ich mit dem Ding nur noch nen iOS 11 iPhone und kein anderes Telefon mehr anrufen kann gewinnt der Schnacker ohnehin nen Freiflug bei 330 aus dem Seitenfenster.

Wie von "slashCAM" geschrieben ist VFR bei nem LongGOP CodecCodec im Glossar erklärt ohnehin so sinnvoll wie ne Pustel... .
Im Moment führt das eher zu Problemen als das es irgendeinen sinnvollen Zweck erfüllt. Für Präsentationen mit echt statischem Inhalt sehe ich sowas vielleicht ein, für konventionelles Video mit Rauschen oder sonstigen Veränderungen ist das Tullux!

Die ganzen iPhone X "Kinofilme" können zudem eigentlich nur mit modifizierten Geräten gedreht worden sein da die bewegliche Linse auf jedem angeblich im Einsatz gewesenen Gimbal auch abgeschaltet rumjittert (teilweise sogar aus Bewegungen mit der Hand überschwingt). Ich hab bisher drei Gimabls getestet und überall der selbe Mist der auch in verschiedenen Berichten (zudem auch mit nicht Apple Geräten) bestätigt wird. Die beweglich aufgehängte Optik scheint schnell mitzuschwingen.

@Jott: arbeitet hier eigentlich irgendwer mit iMovie, ähm FinalCut ;-p ;-) ;-) ?!?!?



Antwort von mash_gh4:


Die Frage ist wozu VFR bei konventionellem Video überhaupt dienen soll bzw. wo man VFR hinterher "richtig" wiedergeben kann.
Bis mein PC oder TV oder Sender oder sonstwas VFR "richtig" wiedergeben kann, also auch mit variabler Darstellungsbildrate, gehen noch ein paar Monde ins Land. Bis dahin sollte man den Quatsch (!!) deaktivieren können...

nicht immer muss alles unbedingt auf die möglichkeiten der wiedergabe hin optimiert sein.

es gibt verschiedene gründe, warum VFR immer öfter anzutreffen ist.

bei den handys ist es hauptsächlich der recht begrenzten rechenleistung und engpässen beim auslesen des sensors zuzuschreiben, dass man auf diese weise wenigstens die maximal mögliche framerate erhält, beim aufzeichen von bildschirminhalten -- vorzugsweise natürlich irgendwelche "games" -- hat's z.t. einfach auch damit zu tun, das der grafikinhalt am schirm eben auch nicht immer mit konstanter geschwindigkeit generiert wird, sondern eben ausgegeben wird, sobald wieder ein frame fertig ist. da beide fälle ohnehin als gratwanderungen an der grenze des möglichen anzusehen sind, machts durchaus sinn, wenn man es der postproduktion überlässt, das ein wenig zu bereinigen und in besser verwertbare formen zu bringen. ich würde das relativ werturteilsfrei einfach als reale gegebenheit hinnehmen.



Antwort von Jott:

Importiert man iPhone-Material in imovie oder fcp, wird es natürlich mit konstanter Bitrate verarbeitet. Alles andere wie eine Timeline/ein Projekt mit variablen Bitraten wäre ja pervers.



Antwort von Roland Schulz:


Importiert man iPhone-Material in imovie oder fcp, wird es natürlich mit konstanter Bitrate verarbeitet. Alles andere wie eine Timeline/ein Projekt mit variablen Bitraten wäre ja pervers.

;-)!!



Antwort von rainermann:


@Jott: arbeitet hier eigentlich irgendwer mit iMovie, ähm FinalCut ;-p ;-) ;-) ?!?!?

klar :)
(nach Jahren Avid und FCP heute alles auf FCPX)



Antwort von Jott:

Ein paar mehr muss es schon geben - oder Codex (die mit dem ArriRAW-Recorder) bringt seine High End-Farbkorrektur für fcp x nur zum Spaß.

https://colorsynth.codex.online

Okay, off topic, zurück zu iPhones.



Antwort von Bruno Peter:

Am schlimmsten waren die Redaktionstester damals zum Kaufzeitpunkt meines Sony Xperia Z2 im Jahre 2014.
Die haben das mit der variablen Bildrate überhaupt nicht bemerkt sondern das Produkt in höchsten Tönen getrommelt!
Ich bin eigentlich mit dem Sony Xperia Z2 bis heute sehr zufrieden.

Interesse hätte ich an dem neuen Sony Xperia XZ2 mit HDR und 960er Zeitlupe.
Das wäre eine höherwertigere mobile Ergänzung zusammen mit meiner ActionCam ThiEYE T5 Edge
für kleine Pedelec- und City-Touren.



Antwort von dosaris:


... hauptsächlich der recht begrenzten rechenleistung und engpässen beim auslesen des sensors zuzuschreiben, dass man auf diese weise wenigstens die maximal mögliche framerate erhält,

spart dies wirklich Rechenleistung?

Um zu entscheiden, ob ein neues FrameFrame im Glossar erklärt bearbeitet und codiert werden soll, muss der Encoder
doch ohnehin erst einmal das neue Bild (aus dem festen Zeitraster) haben und vergleichen (subtrahieren).
Erst dann kann er entscheiden, ob das encoding nötig ist, so wie bei CFR auch.
Also bis hier gleicher Rechenaufwand.
Aber AVC ist ja ohnehin schon clever genug (im Gegensatz zu MPEG2) zu signalisieren,
dass das vorige Bild (bei stills) nur repliziert werden muss. Außer bei Chip-Rauschen :-(

Ich gehe davon aus, dass Apple für VFR ohnehin nur ganzzahlige Vielfache der Framedauer aus CFR nutzt,
also nicht zB 17.3 msec, 12.1 msec usw.
(kann dies jemand bestätigen?)

Also auch hier wäre VFR obsolet?!?



Antwort von mash_gh4:


Ich gehe davon aus, dass Apple für VFR ohnehin nur ganzzahlige Vielfache der Framedauer aus CFR nutzt, also nicht zB 17.3 msec, 12.1 msec usw.
(kann dies jemand bestätigen?)
Also auch hier wäre VFR obsolet?!?

so weit ich das überblicken kann, kann man die einzelnen zeitpunkte bzw. frameraten ziemlich frei angeben. wo genau die grenzen liegen, müsste man an hand der entsprechenden spezifikationen ermitteln. zum teil kommen da aber auch noch implementationsspezifische eigenheiten dazu.

wenns't dich damit spielen willst, kannst dir ja folgendes programm bzw. dessen recht erhellende dokumentation ansehen:

https://github.com/nu774/mp4fpsmod



Antwort von dosaris:



so weit ich das überblicken kann, kann man die einzelnen zeitpunkte bzw. frameraten ziemlich frei angeben. wo genau die grenzen liegen, müsste man an hand der entsprechenden spezifikationen ermitteln. ...
wenns't dich damit spielen willst, kannst dir ja folgendes programm bzw. dessen recht erhellende dokumentation ansehen:

danke für die Info:

aber es muss ja dann eine feste Max-Framerate geben (in der der Chip ausgelesen wird)
und die müssen einen ziemlich hoch auflösenden TimecodeTimecode im Glossar erklärt mit encodieren.
Andernfalls würde sich ein kumulierender A/V-Offset ergeben !?!

nun brauche ich zum Testen nur noch ein kleines Stück APPLE-Video in VFR
( Hier nix apple )



Antwort von Gysenberg:


Dieser blödsinnige SCHEISS ist mir am letzten Wochenende auch in die Quere gekommen. Habe mit nem iPhone X und Filmic Pro "gearbeitet" und selbst am Smartphone sah das teilweise beim Filmen schon komisch aus weil das Display teils einen erheblichen Lag zur Szene hatte. Mag daran gelegen haben dass ich zwischenzeitlich bei voreingestellter FramerateFramerate im Glossar erklärt von 25fps auf 1/25s Belichtungszeit gekommen bin, was eigentlich nur noch über Integration oder VFR halt ginge und die App schon nen Problem gekriegt hat.

Ebenfalls in EDIUS ging dann alles kreuz und quer. Das Bild hatte zunächst einen deutlichen Lag, zum Ende wurde das Video dann schneller abgespielt (Ton stets "korrekt"). In Premiere CC 2018 lief"s anders wenn auch nicht wirklich besser.
In MPC-HC (FFMpeg) sah"s "komischerweise" gut aus, keine erkennbaren Probleme.

Hab dann mit FFMpeg nen DNxHR (!!) draus gemacht (als Parameter ist nur DNxHDDNxHD im Glossar erklärt möglich, bleibt trotzdem 4K, EDIUS interpretiert DNxHR). Trotzdem hat FFMpeg während der Wandlung ein paar Fehler angezeigt (nicht gemerkt was da stand). In EDIUS lief der Clip dann aber ohne erkennbare Fehler.

Ich frage mich was dieser Mist soll, ggf. hat auch Filmic Pro einfach ne Macke (da stehe ich mit Eliot schon in Kontakt. Er "meint" es läge an der Telekamera die sich anders als die WWKamera verhält).

Wenn ich ~1.300€ für nen Smartphone auf den Tisch lege welches mit weitreichenden Videofunktionalitäten beworben wird erwarte ich irgendwo dass da was halbwegs verwendbares bei rauskommt.
Wenn weder EDIUS noch Premiere CC derzeit damit klar kommen sollte man VFR heute noch deaktivieren können. Ist beides schließlich nicht die letzte Maggiesuppensoftware.

Habe neulich genau das gleiche Problem gehabt, mit einem S7 und Filmic Pro-Bei einem Protagonistencasting. Ton stottert, Bild stottert, einfach grauenhaft. In Premiere war es ganz schlimm, in Vegas etwas besser. Nicht lösbares Problem. Hatte die Wahl, 200 km hin und her zu fahren, um das Casting zu wiederholen oder es zähneknirschend an die Redaktion zu geben. Habe letztere Möglichkeit gewählt, würgt mich jetzt noch. BTW: Aktuelle Premiereversion. Bei Filmic Pro waren 25fps eingestellt, in Premiere werden unterschiedliche Raten angezeigt: 20,98, 23,54 etc.



Antwort von Roland Schulz:



Dieser blödsinnige SCHEISS ist mir am letzten Wochenende auch in die Quere gekommen. Habe mit nem iPhone X und Filmic Pro "gearbeitet" und selbst am Smartphone sah das teilweise beim Filmen schon komisch aus weil das Display teils einen erheblichen Lag zur Szene hatte. Mag daran gelegen haben dass ich zwischenzeitlich bei voreingestellter FramerateFramerate im Glossar erklärt von 25fps auf 1/25s Belichtungszeit gekommen bin, was eigentlich nur noch über Integration oder VFR halt ginge und die App schon nen Problem gekriegt hat.

Ebenfalls in EDIUS ging dann alles kreuz und quer. Das Bild hatte zunächst einen deutlichen Lag, zum Ende wurde das Video dann schneller abgespielt (Ton stets "korrekt"). In Premiere CC 2018 lief"s anders wenn auch nicht wirklich besser.
In MPC-HC (FFMpeg) sah"s "komischerweise" gut aus, keine erkennbaren Probleme.

Hab dann mit FFMpeg nen DNxHR (!!) draus gemacht (als Parameter ist nur DNxHDDNxHD im Glossar erklärt möglich, bleibt trotzdem 4K, EDIUS interpretiert DNxHR). Trotzdem hat FFMpeg während der Wandlung ein paar Fehler angezeigt (nicht gemerkt was da stand). In EDIUS lief der Clip dann aber ohne erkennbare Fehler.

Ich frage mich was dieser Mist soll, ggf. hat auch Filmic Pro einfach ne Macke (da stehe ich mit Eliot schon in Kontakt. Er "meint" es läge an der Telekamera die sich anders als die WWKamera verhält).

Wenn ich ~1.300€ für nen Smartphone auf den Tisch lege welches mit weitreichenden Videofunktionalitäten beworben wird erwarte ich irgendwo dass da was halbwegs verwendbares bei rauskommt.
Wenn weder EDIUS noch Premiere CC derzeit damit klar kommen sollte man VFR heute noch deaktivieren können. Ist beides schließlich nicht die letzte Maggiesuppensoftware.

Habe neulich genau das gleiche Problem gehabt, mit einem S7 und Filmic Pro-Bei einem Protagonistencasting. Ton stottert, Bild stottert, einfach grauenhaft. In Premiere war es ganz schlimm, in Vegas etwas besser. Nicht lösbares Problem. Hatte die Wahl, 200 km hin und her zu fahren, um das Casting zu wiederholen oder es zähneknirschend an die Redaktion zu geben. Habe letztere Möglichkeit gewählt, würgt mich jetzt noch. BTW: Aktuelle Premiereversion. Bei Filmic Pro waren 25fps eingestellt, in Premiere werden unterschiedliche Raten angezeigt: 20,98, 23,54 etc.

Probier das mal mit FFMpeg nach DNxHD/R zu bringen, bei mir hat's geholfen!



Antwort von Roland Schulz:

Mir erschließt sich kein echter Sinn für VFR außer in Präsentationen bei denen sich zeitweise nix bewegt.
Bei Video ist das Quatsch, der Sensor selbst muss ohnehin in der maximal vorgewählten Bildrate ausgelesen werden, der Encoder muss ebenfalls voll analysieren - woher soll die Kamera vorher wissen ob was passiert oder nicht, da gibt's doch kein Schedule für!!?
Ein praktisches Videobild in dem "nichts" passiert gibt's zudem nicht, wir haben immer etwas Rauschen und zwar in Frequenz der Bildrate der Auslesung.



Antwort von mash_gh4:


Bei Video ist das Quatsch, der Sensor selbst muss ohnehin in der maximal vorgewählten Bildrate ausgelesen werden, der Encoder muss ebenfalls voll analysieren - woher soll die Kamera vorher wissen ob was passiert oder nicht, da gibt's doch kein Schedule für!!?

warum soll es nicht auch so funktionieren, dass der sensor bzw. die elementare bildaufbereitung sich zwar beeilt, so gut es möglich ist, dann aber einfach einen frame plus zeitstempel an den codec übergibt.
also gar nicht optimiert im sinne möglicher bandbreiteneinsparung, sondern vielmehr um überhaupt mit den verfügbaren ressourcen auszukommen. wobei das ganze durchaus auch in die andere richtung sinn machen kann -- d.h. wenn die sd-karte mit dem rausschreiben nicht klar kommt od.ä., lieber alles ein bisserl einzubremsen, ohne die aufzeichnung gleich völlig abzubrechen.



Antwort von Roland Schulz:

Jepp, Performanceprobleme der Hardware sind das Einzige wo's sinnvoll sein sollte?! - schwaches Bild - für die Hardware.
Trotzdem erklärt sich aber nicht warum in eingestellter Zielbildrate dann nicht einfach Frames ausgelassen bzw. doppelt "gespeichert" werden weil's am Ende ja genau darauf hinauslaufen würde (doppelte Darstellung eines Bildes weil zum Zeitpunkt der abgefragten, synchronisierten Ausgabe nichts anderes da wäre).

Werde mal gucken ob die GoPro Hero 6 in UHD 60p auch VFR macht, bisher ist mir da nix aufgefallen.

Ansonsten sehe ich nur Sinn beim Capturen von Videospielen in denen sich mal nix bewegt oder für Zeichentrickdaumenkino ;-)



Antwort von eXp:

Guter Beitrag. Ich habe mich schon so oft über die variable FramerateFramerate im Glossar erklärt aufgeregt, es ist mir auch vollkommen unklar warum das bei Smartphones von 2017/2018 noch so ist. Am Speicher kann es ja nicht liegen, davon ist ja bei neuen Smartphones genug vorhanden.
Das Problem was ich oft habe, ist das selbst Videos die ich mit Handbrake von VFR auf CFR umgewandelt habe, an manchen Stellen immernoch ruckeln.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Framerate
Sony Venice: Firmware v5.0 wird Framerates bis zu 90fps in 6K ermöglichen
Framerates "nachträglich" ändern
Wie ändert man die Framerate eines Projektes?
Davinci: Wie falsche Framerate rückgängig machen?
ungültige framegröße/framerate_Fehlermeldung
Smartphone-Filmen: Die Krux mit der variablen Framerate
Verschiedene Framerates in einem Projekt
Frameraten in der digitalen Videotechnik (Artikelserie)
Variable Framerate - Gedankenspiel
Welche Framerate um sich alles offen zu halten
Warum keine Framerate frei wählbar?
Netflix: Kino contra Streaming - die Krux mit der Kinoauswertung
Mit dem Smartphone filmen -- ernsthaft! Teil 2: die Vorteile
Filmen mit dem Smartphone: Apple iPhone XS, Filmic Pro und Zhiyun Smooth 4 Gimbal in der Praxis
Wie Google die Videos der Pixel 2 Smartphone-Kamera stabilisiert
Filmen mit dem Smartphone: Rode VideoMic Me-L - kabelloses Mikro für iPhone und Co. vorgestellt
DXO über die Entwicklung der Smartphone-Kamera in den letzten Jahren
CES: mit der DJI 4K-Drohnenkamera aus der Hand filmen
Animation mit variablen Texten
Framerate der Sequenz für Slowmotion
Filmen in Zeitlupe mit der neuen GoPro4 Black
NUR Touch-Focus beim Filmen mit der EOS R?
Qualität von Canopus Procoder 3.0 beim Konvertieren der Framerate?
Soundtracks zur Untermalung von Filmen mit der PremiumBeat App finden
Kurze Geschichte der Smartphone-Kameras

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
21-24. November / Hannover
up-and-coming
22-23. November / Hamm
Hammer Kurzfilmnächte
27. November / München
Camgaroo Award 2019
30. November / Bünde
Bünder Kurzfilmfestival 2019
alle Termine und Einreichfristen