Habe es gerade mal ausprobiert. Es funktioniert mit kleinen Einschränkungen.Frank Glencairn hat geschrieben:Mich würde viel mehr interresieren, inwiefern das mit Resolve funktioniert.
Da kann ich Dir nicht beipflichten. Solche Studenten gibt es heute noch zu Hauff, die durch solche Jobs auch Kontakte in die Firmen hinein finden, denn gute Leute sind auch heute noch gefragt.Die Elektrostudenten, die für umme in einem Tag alles realisieren, gibt's nur am Stammtisch nach dem dritten Bier.
Hey Frank, gute Neuigkeiten! Habe es gerade mit meiner BMPCC ausprobiert und das klappt einwandfrei mit Cinema-DNG und Audio-LTC in Resolve. Wie gesagt solltest du den Ton aber dann auf einem Audio-Rekorder mit nativer Timecode-Unterstützung benutzen, wie z.B einen Sound-Devices 744T oder 633.Frank Glencairn hat geschrieben:Irgendwie steh ich aufm Schlauch.
Was mich konkret interresiert ist raw material - also CinemaDNGs aus der BMCC. Da kommt ja ein einzelnes Wave File mit in dem Ordner wo die DNGs liegen.
Deshalb klappt das auch mit Plural Eyes nicht.
Für mich wäre es also Optimal wenn ich das Material in Resolve mit Bordmitteln syncen könnte, ohne den Umweg über Proxies machen zu müssen.
Also ich möchte hier noch mal klarstellen, dass wir nicht irgendeinen fertigen Timecode-Chip benutzen. Es handelt sich hierbei um eine komplette Eigenentwicklung. Meines Wissens gibt es so einen Chip auch nicht der all die Funktionalität bereitstellt welche wir nutzen. Ich habe übrigens Nachrichtentechnik studiert und schon einige Layouts erstellt, es dauert jedenfalls länger als einen Tag.WoWu hat geschrieben:@ LG Chris
Ich hab lange genug in der Entwicklung gearbeitet und wenn man sich die Integration der verwendeten Chips einmal im ansieht, dann stellt sich sehr schnell heraus, dass es eigentlich nur noch um etwas "Infrastruktur" geht und so ein Layout macht Dir jeder Student heute in ein paar Stunden.
floit hat geschrieben:D.h. wenn man eine Kamera wie 5D oder Blackmagic mit einem professionellen Audio-Rekorder wie dem Sounddevices 744T benutzt, dann gehts. Vielleicht gibt es aber doch noch einen Trick, ich probier mal weiter...
Der olle ICS2008 ist schon lange nicht mehr lieferbar. Ausserdem braucht das Ding zuviel Strom und ist viel zu groß für unsere Anwendung. Das war ein idealer Begleiter für BetaSP und VHS.WoWu hat geschrieben:Dann gib doch einfach mal ein paar Informationen zum Aufbau -speziell, wenn Ihr diskret TC erzeugt-
Und sag doch mal, warum Ihr dann solche Chips wie das ICS2008 -anders als andere hersteller- nicht benutzt, und was es nicht kann, was Euer System aber bereitstellt.
Mach doch mal ein bisschen Werbung, wenn Euer System mehr kann.
Übrigens stehen oben noch einige Fragen aus.
Gib doch einfach mal ein paar Antworten darauf.
Sollte Dir ja nicht schwer fallen.
Um z.B. mehr getrennte Kanäle aufzeichnen zu können. Wenn du drei Funkmikros plus Angel hast, hast du später im Schnitt mehr Möglichkeiten und bist nicht nur auf den Mix angewiesen. Ausserdem brauchst du kein Kabel zwischen Kamera und Mischer, Probleme mit der Funkübertragung des Tons gibt es hier auch nicht.Darthharry hat geschrieben:Hi,
ich habe auch nochmal ein paar Fragen. Das Teil sieht ja auf den ersten Blick sehr interessant aus, aber ich habe einmal überlegt wo man das am besten bei uns einsetzten kann.
Für alle Kameras die sowie eine eigene gute Tonverarbeitung haben macht das für mich keinen Sinn. Da nehm ich den Ton am liebsten sofort in der Kamera auf und habe keine Probleme mit dem Synchronisieren. Mir ist auch keine Anwendung eingefallen wo ich den Ton getrennt aufnehmen sollte. Bei mehreren Audioquellen gehen wir in einen Mischer und über den in die Kamera. Bei entfernten Audioquellen nutzen wir die Funke. Aber warum sollte man z.B. bei einer PMW 200 oder einer F5 den Ton getrennt aufnehmen ?
Man kann Tentacle auf zwei Arten einsetzten, einmal mit Kameras welche Timecode nativ unterstützen (wie z.B. C300 / PMW200 usw.) Bei diesen Geräten kannst du Tentacle direkt an den TC-In der Kamera anschliessen.Das macht nur bei Kameras Sinn die keine gute Tonverarbeitung haben wie jede DSLR und die Blackmagic Kameras. Wenn ich das richtig verstanden habe nutzt der Tentacles die Audiospur des Rekorders und der Kamera für das Syncsignal. Das heisst es arbeites genauso wie Plural Eyes, nur etwas zuverlässiger und wahrscheinlich schneller, dafür unterstützt es nicht alle Systeme ( ich schneide in Premiere auf Windows). Und die gerade angesprochene RAW Aufnahme der Blackmagic Kamera wird unterstützt. Das ist super aber wir nehmen zu 90 % in ProRes auf.
Bei einer 5D wird der linke Kanal für das Timecodesignal genutzt, auf dem rechten Kanal wird der Referenzton des in Tentacle eingebauten Mikrofons aufgezeichnet.Eine Frage, ist die Audiospur der Kamera dann eigentlich noch benutzbar oder wird sie von dem Syncsignal "zerstört" ?
Das ist wirklich Quatsch .. lies mal meine Fragen oben durch. Die sind alle anwendungsbezogen aber nicht mal die Frage nach dem benutzten Audiopegel konnte er beantworten und wenn ich jetzt lese, dass beide Spuren der D5 ohne Audioanpassung nutzbar sind, dann wird die Frage wieder aktuell, weil das davon abhängt, mit welchem Pegel sie daraufgehen, denn die D5 lässt sich nicht individuell angleichen.Nur weil das Entwicklerteam nicht ihre ganzen Schaltpläne und technische Details zu Verfügung stellt, bedeutet noch lange nicht, das sie nicht wissen was sie da tun.
carstenkurz hat geschrieben:Ja, WoWu hat sich leider mal wieder verbissen und wirft ATC Nebelkerzen, um eine Fundamentaldiskussion anzuzetteln. Sorry Wolfgang, das ist nicht hilfreich.
Carsten: Sorry Wolfgang, dies ist nicht hilfreich.
Dies ist auch meine Meinung!!!
Meine Meinung dazu: Lasst die beiden doch erst einmal machen.
Viele Entwicklungen in der Technikgeschichte wurden zuerst als Utopie oder gar schlimmer bezeichnet.
Wer schon mal versucht hat 2-4 Kameras bei Events einzusetzen, weiss welche Schwierigkeiten beim Editing auftauchen. Sich am Ton zu orientieren, zB dem Anstieg des Toneinsatzes zu nutzen, weiss wie schwierig es ist, die 2-4 Kameras in der Timeline zu synchronisieren, vor allem wenn an allen Kameras unterschiedliche Bild einstellungen gewählt werden.
Ein Techniker wird stolz das Ergebnis seiner Arbeit bis ins Detail erläutern,
der Kaufmann wird nur soviel weiter geben, wie er für den Verkauf seines Produktes braucht.
Die Technikgeschichte mal sorgfältig lesen und feststellen wer was von seiner Arbeit hatte ............
viele Grüße
Werner
Ich sehe, Du hast keine Ahnung.Echt festgebissen. Mit welchem Pegel aufgezeichnet wird, regelt doch der Kameramann. Im Monitorweg der Kamera kann er sogar prüfen, ob ein Übersprechen zu hören ist (was eher früher bei analogem Ton ein Problem war). Und für simple Kameras ohne Regelmöglichkeit kann man den Ausgangspegel zwischen Line und Mic - so wurde es beschrieben - stufenlos regeln. Wo soll da jetzt ein Problem sein?
Nix denken, nur wundern.floit hat geschrieben:Tja, was soll ich zu all dem sagen?
Als Max und ich die Idee zu einem kleinen, einfachen, möglichst universell einsetzbaren und unkomplizierten Timecode-Generator hatten, hatten wir immer die Community von slashcam im Hinterkopf. Ich selbst bin ein großer Fan dieser Platform. Wir habe kein Problem mit Kritik, ganz im Gegenteil: Wir nehmen das wirklich Ernst und wollen darauf gerne eingehen. Wir wollen keinen in die Pfanne hauen, wir möchten nur eine Lösung für ein Problem anbieten und denken dass das auch für andere interessant sein könnte.
Aber was hier gerade passiert enttäuscht mich jedoch schon ein wenig. Wir haben sehr lange an diesem System gearbeitet und von Anfang an professionelle Tonleute und Kameramänner in die Entwicklung mit einbezogen.
Selbst das Research & Development Department der BBC hat unser System schon getestet und für gut befunden, ebenso der WDR ist interessiert. Für ZDF neo wurden damit sämtliche Folgen der Serie "heimwärts mit..." gedreht und gesynced. Die ifs-köln (internationale filmschule) hat gerade einen Doku-Dreh in Sibirien damit abgeschlossen (-30 °C !!!) - das Team ist begeistert. So ein Bullshit kann das System also nicht sein.
Und zu dem Crowdfunding kann ich nur sagen: Wir wollen ja keine 90.000 Euro geschenkt haben. Für das Geld bekommen die Unterstützer im Gegenzug Tentacle Geräte der ersten Produktion und das zu einem deutlich günstigeren Preis als später im Laden. Es ist also eher eine Vorbestellung. Wir machen das ganze nur weil es sich erst lohnt ab einer bestimmten Menge produzieren zu lassen. Das tun wir übrigens ausschließlich in Deutschland.
Das wars, weiter möchte ich mich an dieser Diskussion auf dieser Ebene eigentlich nicht mehr beteiligen. Wer interessiert ist kann mir gerne eine email schreiben, mich anrufen oder auch in unserem Büro in Köln vorbeikommen. Für einen Kaffe haben wir immer Zeit :)
Also ich würde ja, wenn ich irgendwas im Netz verkaufen möchte, wie Du Dein Buch, grundsätzlich freundlich sein. Es lesen ja auch andere mit...WoWu hat geschrieben:Ich sehe, Du hast keine Ahnung.
You need a recorder, that generates it’s own timecode, when you want to use the Tentacles with Resolve (at least for now).
0.5ppm (parts per million) in 24h sind ungefähr 1 frame bei 25 fps, d.h. 40 ms oder 0,04 sec. Und das nur im ungünstigsten Fall bei Benutzung des kompletten Temperaturbereichs von -30 bis +85 Grad. Unter normalen Temperaturbedingungen liegt die Genauigkeit sogar unter 0.1 ppm. Das ist also deutlich besser als deine Quarzuhr.domain hat geschrieben:Ein wenig wundert mich, dass die durchschnittliche Asynchronität mit ca. 0,5 sec. pro Tag und maximal einer Sekunde als besonders lobenswert herausgestellt wird. Meine Quarz-Uhr geht im halben Jahr ungefähr 20 Sekunden nach, das wären demnach 0,11 sec. pro Tag und das war bei den vorhergehenden Modellen auch nicht anders.