floit hat geschrieben:D.h. wenn man eine Kamera wie 5D oder Blackmagic mit einem professionellen Audio-Rekorder wie dem Sounddevices 744T benutzt, dann gehts. Vielleicht gibt es aber doch noch einen Trick, ich probier mal weiter...
Das ist genau eines der Probleme, die ich weiter oben mal mit 'Workflow' angesprochen habe. Da muss mehr Info hin!
Wenn ich ein Tool entwickle, dass LTC auf beliebigen Audiospuren/-kanälen üblicher Kameras oder separater Audiorekorder nutzbar machen soll, dann darf es doch keine Rolle spielen, ob der LTC auf einem Profi- oder Amateurgerät aufgezeichnet wird. Es geht doch gerade darum, Geräte zu nutzen, die NICHT explizit für TC vorbereitet sind.
Diese Ansprüche müsste man alle mal halbwegs strukturieren und in Workflows für übliche Editing-Programme konvertieren.
Hierbei gibts ja grundsätzlich zwei verschiedene Möglichkeiten:
- ich schreibe einen externen Transcoder oder Wrapper, der ein Videofile nimmt, aus dessen Audiospur einen LTC liest. Dazu eine Audio-Datei nimmt, die einen dazu (intendiert) gesyncten LTC enthält. Dann wird das Audio vom externen Rekorder in die Videodatei reingeschrieben und ist somit erstmal 'hart' synchron. Das deckt die üblichen Fälle des DualSystem Sound ab, bei dem man Mono oder Stereotracks mit OnLocation Sounds von externen Rekordern synchronisiert benutzen kann, weil das kamerainterne Audio nichts taugt oder nicht nah genug am Objekt zu kriegen ist. Idealerweise würde dieser Transcoder oder Wrapper keine Veränderungen, speziell kein Bild-Transcoding/überführen in einen anderen Codec vornehmen. Optional könnte er natürlich in übliche Codecs wie ProRes oder DNxHD konvertieren.
Vorteil so einer Lösung ist, dass die resultierenden Dateien in jedem Editing Programm sofort mit ordentlichem SyncSound verwendbar sind und die Sync Referenz unlösbar im resultierenden File festgeschrieben ist, so wie beim InKamera Ton. Das Editing Programm bräuchte im Grunde überhaupt keine speziellen TC-Fähigkeiten. Vorteil ist ausserdem, dass typischerweise der Bezug zwischen Video-TC und Audio-TC in Absolut-Zeit hergestellt ist und dieses Transcoding sehr einfach batchbasiert auf hunderte Files laufen kann, ohne dass man manuell jede Datei anpacken muss. Das Programm sucht in allen Dateien nach Timecodes, erstellt eine Datenbank mit identischen Zeitreferenzen, und arbeitet dann das Transcoding/Wrapping ab.
Grenzen hat das Verfahren, wenn es um aufwendigere Sachen wie MultiCam Editing oder komplizierteren Mehrkanal-Audioaufnahmen geht, oder die verwendeten Codecs bestimmte Features nicht unterstützen.
Dabei wäre es wichtig, dass Audio+LTC ins Schnittprogramm geladen werden und dort mit den Mitteln des Editors angelegt und gesynct werden kann. Auch hier gibt es wieder zwei Varianten:
- Das Schnittprogramm beherrscht selbst das Auslesen und Decodieren von Audio-LTC aus Tonspuren.
- Ein externes Programm, eben ggfs. wieder ein Transcoder/Wrapper erlaubt es, den LTC aus dem Audiofile zu extrahieren und als TimeCode Tracks, logischen TimeCode, etc. in eine Audio-Datei zu schreiben. Das Schnittprogramm muss dann nicht mehr selbst LTC lesen/decodieren können, sondern nur eine Möglichkeit bieten, den trackbasieretn LTC im Audio- und Videofile zu erkennen und zu nutzen.
Probleme bei diesen Varianten sind:
- welche Schnittprogramme unterstützen welche TC Varianten in welchen Datenstrukturen und erlauben ein sinnvolles Arbeiten damit? Ein schlichtes Anzeigen oder Einbrennen von LTC-Fenstern sieht zwar sofort professionell aus, nützt einem aber für einen Schnitt-Workflow überhaupt nichts.
- welche Fileformate für Bild und Ton unterstützen logische TC tracks
Hier ist ausserdem noch der durchaus nicht uninteressante Aspekt zu beleuchten, dass für LTC verkoppelten DualSystemSound zumindest grundsätzlich keinerlei Abstimmung zwischen Videobildraten und Audio-Abtastraten und dem verwendeten LTC-Format bestehen muss. Sprich, ich kann auch eine 25fps Aufnahme mit 24 oder 30fps LTC synchronisieren. Es muss nur eben auf beiden Aufzeichnungen der gleiche LTC verwendet werden (technisch wäre nichtmal das wirklich nötig). Bei professionellen TC Anwendungen mit erweiterten Ansprüchen wie Bild/Audiolocking und Absolutzeitanforderungen sieht das natürlich anders aus. Schönes Extrem-Beispiel ist PluralEyes, das ja das Ziel der Synchronisation ohne JEDE formale Beziehung irgendwelcher Bild- oder Abtastenraten bzw. Absolutzeit erlaubt. Zusätzlich gäbe es bei den Transcodern/Wrappern eventuell noch eine nützliche Zusatzfunktion, mit 'falscher' Abtastrate erstelle Aufnahmen (klassisches 44.1/48KHz Problem) auch noch abtastratenzuwandeln. Oder zumindest auf eine Diskrepanz zwischen den Abtastraten im Video- und Audiofile hinzuweisen.
Wenn das mal ordentlich strukturiert ist, kann man auch typische Workflow Szenarien entwickeln.
Ansonsten ist das relativ witzlos, wenn man ein Audio-File zusammen mit einem DNG rumliegen hat, und es keine Möglichkeit gibt, den TC zu 'verwerten' weder den im von der BMPCC lokal aufgezeichneten LTC, noch den in einer Datei von einem externen Rekorder.
Ohne saubere Strukturierung der Abläufe ist das alles relativ witzlos.
- Carsten
and now for something completely different...