Frage von BildTon:Hallo zusammen,
ich habe noch nie mit Timecode gearbeitet und meine Kameras unterstützen auch keine Synchronisation beziehungsweise haben dafür keine separaten Anschlüsse.
Deshalb möchte ich fragen, wie man vorgehen sollte wenn man den Timecode über den Mikrofon Eingang durch einen Audiorecorder wie den Zoom M4 MicTrak einspeisen möchte.
Kann Premiere Pro erkennen, dass auf einer Tonspur der Timecode liegt?
Und wie sieht eine Tonspur mit Timecode überhaupt aus?
Oder ist es besser, gleich das Audio des externen Audiorecorder in die Kamera einzuspeisen?
Antwort von Frank Glencairn:
Der Timecode bei sowas ist eigentlich ne Audiospur und klingt so ähnlich wie ein altes Modem beim Verbinden.
Ob Premiere damit klar kommt, kann ich nicht sagen, da bin ich bei Premiere schon zu lange raus, bei Resolve ist es kein Problem.
BildTon hat geschrieben:
Oder ist es besser, gleich das Audio des externen Audiorecorder in die Kamera einzuspeisen?
Wäre wahrscheinlich das Beste. Wenn du nur ein Mikro hast, macht eine getrennte Aufnahme sowieso keinen Sinn, und verursacht nur unsinnige Mehrarbeit ohne jeglichen Vorteil.
Antwort von antonknoblach:
In Premiere kannst du dieses Feature aktuell in der Beta testen:
https://community.adobe.com/t5/premiere ... p/14692021
Aber wie schon gesagt wurde: Wenn du mit einem Mikro und einer Kamera arbeitest, erspart dir das direkte Einspeisen eine Menge Arbeit.
Antwort von BildTon:
antonknoblach hat geschrieben:
In Premiere kannst du dieses Feature aktuell in der Beta testen: https://community.adobe.com/t5/premiere ... p/14692021
Aber wie schon gesagt wurde: Wenn du mit einem Mikro und einer Kamera arbeitest, erspart dir das direkte Einspeisen eine Menge Arbeit.
Vielen Dank, dann kommt die Unterstützung bald auch in Premiere.
Ich nehme klassische Konzerte und Veranstaltungen mehrere Stunden mit verschiedenen Kameras und Audio Rekordern auf.
Dann stehe ich oft vor dem Problem, dass diese nicht gleichmäßig laufen und nach einiger Zeit immer wieder neu synchronisiert werden müssen.
Könnte durch den Timecode die Spur einer Kamera oder eines Audio Recorder nicht nur synchronisiert, sondern auch etwas gestreckt oder gestaucht werden, so dass insbesondere der Ton trotz Toleranzen der Aufnahme Geräte immer zusammen passt?
Antwort von Frank Glencairn:
BildTon hat geschrieben:
Könnte durch den Timecode die Spur einer Kamera oder eines Audio Recorder nicht nur synchronisiert, sondern auch etwas gestreckt oder gestaucht werden, so dass insbesondere der Ton trotz Toleranzen der Aufnahme Geräte immer zusammen passt?
Sinn macht das in deinem Fall nur wenn alle Kameras und Recorder den selben Timecode haben.
Wenn es dir Ernst mit der Aufnahme ist, wirst du um Tentacles oder was ähnliches nicht rum kommen.
Die beseitigen dafür dein Problem dann aber auch komplett, und du sparst auch noch jede Menge Zeit.
Material irgendwie zu strecken ist ne ganz schlechte Idee, und führt nur zu Ärger - da würde ich die Finger davon lassen.
Antwort von BildTon:
"Frank Glencairn" hat geschrieben:
BildTon hat geschrieben:
Material irgendwie zu strecken ist ne ganz schlechte Idee, und führt nur zu Ärger - da würde ich die Finger davon lassen.
Plural Eyes hat eine "Automatic Drift Correction", denke, diese passt Toleranzen von verschiedenen Aufnahme Geräten entsprechend an.
Könnte ich den Timecode per Funk Sender an verschiedene Kameras verteilen und dann von Premiere Pro Beta synchronisieren lassen?
Bisher habe ich mit Plural Eyes gearbeitet und es hat mit einigen manuellen Anpassungen auch funktioniert.
Antwort von Frank Glencairn:
BildTon hat geschrieben:
Könnte ich den Timecode per Funk Sender an verschiedene Kameras verteilen und dann von Premiere Pro Beta synchronisieren lassen?
Bissl umständlich (normal hängt man halt an jede Kamera einen Tentacle) aber prinzipiell geht das. Wo kommt dein Timecode Signal her?
Antwort von BildTon:
"Frank Glencairn" hat geschrieben:
[normal hängt man halt an jede Kamera einen Tentacle) aber prinzipiell geht das. Wo kommt dein Timecode Signal her?
Der Tentacle ist inklusive Lizenz für Tentacle Sync Studio Software für macOS und hergestellt in Handarbeit und mit Liebe in Köln. Ich wohne ganz in der Nähe, habe leider keine Apple Computer.
Das Timecode Signal kommt vom Zoom M4 MicTrak.
Wenn ich es richtig verstanden habe hat der Tentacle noch ein eingebautes Mikrofon. Wird damit das Timecode Signal und das Umgebungsgeräuch gemischt oder separat auf rechts und links verteilt?
Ist das Tentacle Timecode Signal hörbar?
Antwort von berlin123:
BildTon hat geschrieben:
Wenn ich es richtig verstanden habe hat der Tentacle noch ein eingebautes Mikrofon. Wird damit das Timecode Signal und das Umgebungsgeräuch gemischt oder separat auf rechts und links verteilt?
Ist das Tentacle Timecode Signal hörbar?
Timecode ist auf einem Kanal, das Scratch-Audio vom Mikrofon auf dem anderen. Allerdings funktioniert dieses Feature nur, wenn man den Tentacle Sync auf Mic Level Ausgabe stellt und der Recorder oder die Kamera ihn mit Spannung (Plugin Power ~5V) versorgt.
Das Audio-Signal vom Mikrofon ist nicht schlecht, aber natürlich nur als zusätzliches Hilfsmittel für eine manuelle Snychronisierung gedacht, nicht als vollwertige Audiospur für den finalen Export.
p.s. ja das Tentacle TC Signal ist hörbar, klingt so:
https://www.youtube.com/watch?v=zjH0RFV206M
Antwort von Blackbox:
Woher kommt denn die Info, dass ein gemeinsamer LTC die Drift zwischen verschiedenen Geräten verhindert?
Ich kenn das nur so, dass bei Audio dazu zwingend Wordclock laufen muss (oder ADAT-Sync, oder Module, die den gemeinsamen LTC nutzen, um die interne clock anzupassen (zB RME TCO-Modul) ), und das bei Video in ähnlicher Weise über genock bewerkstelligt wird.
LTC sorgt doch eigentlich nur dafür, dass die jeweiligen (parallelen) Aufnahmen mit gleicher SMPTE Zeit einstarten und den gleichen Zeitstempel erhalten (beim Einstarten).
Ist das veraltet und neuere Kameras setzten LTC ein um den internen Quarz kontinuierlich mit Korrukturfaktor zu betreiben, also zB die 25p mal etwas beschleunigen, mal etwas verlangsamen?
Antwort von Skeptiker:
Blackbox hat geschrieben:
Woher kommt denn die Info, dass ein gemeinsamer LTC die Drift zwischen verschiedenen Geräten verhindert?
Ich kenn das nur so, dass bei Audio dazu zwingend Wordclock laufen muss (oder ADAT-Sync, oder Module, die den gemeinsamen LTC nutzen, um die interne clock anzupassen (zB RME TCO-Modul) ), und das bei Video in ähnlicher Weise über genock bewerkstelligt wird.
LTC sorgt doch eigentlich nur dafür, dass die jeweiligen (parallelen) Aufnahmen mit gleicher SMPTE Zeit einstarten und den gleichen Zeitstempel erhalten (beim Einstarten). ...
Als ich damals noch ohne videotauglichen Computer vor der Aufgabe stand, meinen selbstgebastelten Hi8 Sci-Fi-Streifen lippensynchron nachzuvertonen (Live-Ton leider mit zu vielen Störgeräuschen), ging das lange nicht.
Möglich wurde es erst mit einem Fostex 4-Spur Tisch-Recorder namens FD-4 mit (optionaler) interner Harddisk (die damaligen 4-Spur-MiniDisk-Geräte oder Kassetten-Multitracker hatten keinen extern gesteuerten Passiv-Modus per Timecode-In), der per MIDI-Timecode Empfang bildgenau mitlaufen konnte (Slave Mode).
Das ungelöste Problem war, dass Video-Abspieler keinen MIDI-Timecode liefern konnten. Es gab ein sehr teures, professionelles Interface (um die 1000 USD), das den LANC-Timecode eines DV-Abspielers in MIDI-TC umwandeln konnte. Aber erst eine kleine Sync Box namens SI-80 S des Audio-Hersteller Roland ermöglichte dann die bezahlbare, bildgenaue, externe Synchronisation von LANC zu MIDI und somit die Video-'Frame'-genaue Nachvertonung.
Antwort von pillepalle:
Timecode sind praktisch nur Metadaten die in die Videodatei eingefügt werden. Drift (also das auseinanderlaufen mehrerer Geräte) spielt bei kurzen Takes, wie z.B. bei szenischen Aufnahmen, keine Rolle, aber bei langen Aufnahmen (wie z.B. Konzertmitschnitten) dann schon eher. Das liegt daran, dass verschiedene Geräte tatsächlich in leicht unterschiedlichen Geschwindigkeiten laufen, weil die interne Clock (Quartz) nicht genau genug ist. Und diese Fehler summieren sich dann mit der Zeit. Wenn man zwei Dateien dann später nach einem gemeinsamen Startsignal synchronisiert, sind sie am Anfang synchron, aber nach einiger Zeit nicht mehr.
Damit mehrere Geräte aber wirklich synchron (in der gleichen Geschwindigkeit) laufen müssen sie die gleiche Clock teilen. Also sich quasi den Takt von einer externen gemeinsamen Quelle vorgeben lassen. Das sind dann für Video Timecodegeneratoren mit Genlock (die nach Bildzeilen synchronisieren) und für Audio Wordclock (die nach Samples synchronisieren). Man braucht also zum einem Geräte die einen Genlock-Eingang (Videokameras) bzw. Wordclock-Eingang (Audiogeräte) haben. Und natürlich auch eine externe Clock, also TC-Generatoren die Genlock oder Wordclock bieten, wie der Atomos UltrasyncOne, oder den Ambient Lockit.
Die meisten Consumerkameras unterstützen kein Genlock. Von da her kann man Drift bei langen Takes eigentlich nie ganz ausschließen. Etwas helfen würde es sicherlich (falls möglich) statt einem langen Take, zwei oder drei kürzere zu machen. Dann hat man mehrere Synchronisationspunkte und der Drift summiert sich weniger.
VG
Antwort von MK:
antonknoblach hat geschrieben:
In Premiere kannst du dieses Feature aktuell in der Beta testen: https://community.adobe.com/t5/premiere ... p/14692021
38 Jahre nach der Erfindung von LTC-Timecode, Hurra! :D
Antwort von Blackbox:
Skeptiker hat geschrieben:
Als ich damals noch ohne videotauglichen Computer
Ja, sowas kenne ich auch noch ein wenig, damals war ja auch DAT und ADAT 'heisser Scheiss' (hab selbst noch einen alten Fostex 24Ch. HD Recorder zum Einstauben im Rack) und sobald Video dazukam waren komplizierte Setups mit Synchronizern etc. notwendig, aber mit Allgegenwart von Rechnern mit Audio- und Video-NLE hatte sich das dann recht schnell erledigt.
Später kamen ja auch noch Programme wie vocalign dazu, wodurch dann ADR auch für 'Untalentierte' relativ leicht möglich wurde.
Das frühere 'Gefrickel' hatte aber mE seinen ganz eigenen Reiz, und die bequemen Lösungen sind nicht unbedingt die befriedigerenden.
Antwort von Blackbox:
pillepalle hat geschrieben:
Damit mehrere Geräte aber wirklich synchron (in der gleichen Geschwindigkeit) laufen müssen sie die gleiche Clock teilen. Also sich quasi den Takt von einer externen gemeinsamen Quelle vorgeben lassen.
Ja genau, das meinte ich oben mit '"ich kenn das nur so"
ABER:
Das muss ja nicht in Stein gemeißelt sein.
Prinzipiell besteht doch die Möglichkeit Drift mit LTC zu verhindern, wenn es einen geräteinternen connect zwischen dem Eingang von LTC und der Justage des internen Taktgebers gibt. Sowas ähnliches bot zB das RME-TCO Modul für das 'alte' Fireface-800. Da konntest du anhand der kontinuierlichen Anpassung der internen Samplerate quasi live zuschauen wie 'falsch' der eingehende Takt der Videokamera gerade in Bezug auf den Takt des fireface läuft (bin mir aber grad nicht mehr 100% sicher ob das über LTC lief, oder über den 'Video-In' Anschluss mit Genlocksignal).
Angeblich soll der Zoom F6 die kontinuierliche Anpassung von eingehendem LTC auf die interne Taktgeschwindigkeit des Quarzes auch ohne Zusatzgedöns können.
Habs bislang nur relativ kurz getestet, aber wenn ich mal genug Zeit und Lust habe werd ich mal nen längeren Test machen, ob der F6 als LTC-Slave wirklich stabil in Sync zu einem LTC-Master bleibt. Durchgehende Samplegenauigkeit ist da wohl nicht zu erwarten, aber wenn's nicht um sehr zeitkritische Anwendungen geht (zwei Kanäle des Stereo Hauptmikros, etc.) ist ja ein gewisses 'Eiern' etwa zwischen 47999 und 48001 hz durchaus akzeptabel, wenn dabei die Langzeitdrift gut ausgeglichen wird.
Nähere verbindliche Infos dazu scheinen aber derzeit rar gesät zu sein.
Kurz gesagt:
sollte sich ein Chiphersteller bzw. IC-designer bzw. Programmierer mal dazu entschließen (oder entschlossen haben?) im Bereich der Quarztaktauswertung einen LTC-In mit Korrekturfaktor vorzusehen, mag es so sein, dass auch nur mit LTC eine gute Synchronisation über viele Stunden/Tage als Standard möglich wird?
Oder ist das u.U. bereits in etlichen Geräten der Fall, ohne dass das groß kommuniziert wurde?
Antwort von pillepalle:
@ Blackbox
Ja, prinzipiell kann man bei LTC den Drift auch manuell korrigieren, indem man die Dateien einfach an mehreren Stellen neu synchronisiert. Aber man hat dann natürlich (neben dem Zusatztaufwand) immer kleine Sprünge im Footgage, die man z.B. mit einem Schnitt kaschieren müsste. Man muss den Anfang und das Ende des LTC Signals mit aufnehmen damit er anschließend richtig interpretiert wird, aber der LTC wird schon kontinuierlich geschrieben, so wie auch ein TC-Audiosignal dauerhaft gesendet wird und erst später (in der Post) in Metadaten umgewandelt wird.
Ob die Zommrecorder das was du geschrieben hast mit externem LTC können weiß ich gar nicht. Kann ich mir nicht so ganz vorstellen. Aber in der Praxis hat man eigentlich eher selten Probleme mit Drift. Also wirklich nur bei Aufnahmen die lange am Stück gehen. Und Geräte die Timecode bieten laufen schon per se genauer, als welche die keine temperaturkompensierten Quarze haben.
Der eigentliche Punkt ist aber sich den Unterschied zwischen Timecode und Synchronität klar zu machen. Man kann einen Timecode (einen sehr genauen Zeitstempel) in eine Datei einfügen, aber an der tatsächlichen Geschwindigkeit verschiedener Geräte ändert sich nur etwas, wenn sie auch nach einem gemeinsamen Taktgeber laufen.
VG
Antwort von Blackbox:
Jedenfalls lässt sich für den Threadersteller antworten, dass die Umstellung auf LTC zB mit den Tentacles das Problem des Auseinanderdriftens langer Aufnahmen nicht im Geringsten schmälern wird, das wär also in Bezug auf die angestrebte Driftvermeidung definitiv rausgeschmissenes Geld.
Von Ambient gibt's n kurzes leicht verständliches Erklärvideo dazu:
https://www.youtube.com/embed/ui9cjoGYrJU
Antwort von soulbrother:
Blackbox hat geschrieben:
Jedenfalls lässt sich für den Threadersteller antworten, dass die Umstellung auf LTC zB mit den Tentacles das Problem des Auseinanderdriftens langer Aufnahmen nicht im Geringsten schmälern wird, ...
jepp und ich würde deshalb (und so mache ich das auch seit Jahren...) unbedingt versuchen nicht allzu störende "Cuts" zu machen (meist beim Beifall, oder ähnlichen Gelegenheiten...),
so dass ich pro "take" im Idealfall nicht mehr als ne halbe Stunde erreiche.
Da ich dabei mind. mit 2 Kameras arbeite, habe ich beim Break von Cam1 sowieso noch das weiterlaufende Bild (und Ton) von Cam2, falls ich das beim finalen Schnitt doch unbedingt brauche...