Frage von andy2804:Hi, ich bin Andy und neu in dem Forum.
Ich habe Vorträge gefilmt die auf Englisch gehalten und auf Deutsch übersetzt wurden. Ich habe an den Redner und an den Übersetzer jeweils ein Lavaliermikrofon mit Recorder gehängt.
In Premiere habe ich die zwei Tonspuren mit der Tonspur der zwei Kameras synchronisiert und die Tonspuren beider Kameras gelöscht um nur die zwei Tonspuren der Mikrofonen zu haben. Soweit so gut.
Mein Problem ist, dass eine Art Echo entsteht. Wenn ich eine Tonspur deaktiviere dann hört sich jeweils die Tonspur viel klarer und sauberer an. Ich habe versucht dies Problem zu lösen indem ich die Tonspur Frame für Frame verschoben habe jedoch leider ohne Erfolg. Das Problem ist, dass der Ton da nicht exakt übereinander gelegt werden kann (ich kann die Spur nicht z.B. ein 1/10 Frame verschieben).
Was ich früher gemacht habe: ich habe manuell die Tonspur der Person die nicht spricht ausgeschnitten bzw. Keyframes in der Tonspur gesetzt und die Lautstärke komplett runtergezogen. Das ist zwar sehr umständlich - hat aber funktioniert. Jedoch habe ich jetzt 8 Vorträge jeweils 1 bis 1,5h lang gefilmt und um hier die Tonspur manuell anzupassen würde ich Tage brauchen... das kann ich nicht machen. Andererseits bin ich mit der jetzigen Tonqualität nicht zufrieden und möchte die Arbeit nicht mit diesem Problem dem Kunden liefern.
Was kann ich machen?
Da muss es doch bestimmt einen anderen Weg geben das Problem zu lösen oder nicht? Für jeden Tipp bin ich sehr dankbar!
Grüße
Andy
Antwort von TonBild:
andy2804 hat geschrieben:
Hi, ich bin Andy und neu in dem Forum.
Ich habe Vorträge gefilmt die auf Englisch gehalten und auf Deutsch übersetzt wurden. Ich habe an den Redner und an den Übersetzer jeweils ein Lavaliermikrofon mit Recorder gehängt.
In Premiere habe ich die zwei Tonspuren mit der Tonspur der zwei Kameras synchronisiert und die Tonspuren beider Kameras gelöscht um nur die zwei Tonspuren der Mikrofonen zu haben. Soweit so gut.
Mein Problem ist, dass eine Art Echo entsteht.
Klar, die Übersetzung ist etwas zeitversetzt.
Ich würde die Spuren getrennt lassen und dem Kunden sagen er soll nur jeweils eine abhören. Also links Original, rechts Übersetzung. Der Ku
und braucht dann ein Abspieler mit dem er die Kanäle wählen kann.
Oder einfach eine Version mit Original-Stimme und eine mit Übersetzung anbieten.
Antwort von pillepalle:
Kann mich nicht mehr genau erinnern wie es in Premiere funktioniert, aber Du musst die Tonspur von der Bildspur lösen/entkoppeln. Dann kannst Du sie auch in kleineren Einheiten als einem Frame verschieben. Bei Davinci Resolve gibt es so ein Schloß-Symbol dafür das deaktiviert sein muss. Sollte in Premiere eigentlich auch irgendwie gehen. Ansonnsten den Ton in einer DAW passgenau legen und dann in Premiere importieren und einfügen.
VG
Antwort von andy2804:
Danke für eure Tipps!
@TonBild: Bei den Aufnahmen sollen die Stimmen beider Sprecher gut zu hören sein. Deswegen brauche ich den sauberen Ton von beiden. Wenn ich die Tonspur des Redners weglassen würde und nur die Tonspur des Übersetzers dalassen würde - wäre das Problem auch gelöst. Aber der Kunde möchte eben das beide zu hören sind (wenn ich Kunde wäre, würde ich es mir auch so wünschen, ist ja blöd wenn zwei auf der Bühne stehen und man aber nur einen hört).
@pillepalle Danke, der Tipp war hilfreich! In der Sequenz kann man Rechtsklick auf die Timeline --> "Audio-Zeiteinheiten anzeigen" da konnte ich die Audiospuren feiner verschieben.
Antwort von Blackbox:
Reden die denn teilweise gleichzeitig, wie bei synchronübersetzung, oder ist das nacheinander?
Wenn nacheinander ginge das ja auch u.U. mit jeweils einem über sidechain (Mikro des anderen Sprechers) gesteuerten Kompressor/Expander. Ist aber dann sauber einzustellen.
Die Lobik mit der Suurverschiebung versteh ich nicht ganz.
Wenn Du da den Einen nach vorne ziehst, ist doch der andere umso mehr draussen, was die Laufzeitunterschiede angeht.
Antwort von Pianist:
andy2804 hat geschrieben:
Mein Problem ist, dass eine Art Echo entsteht. Wenn ich eine Tonspur deaktiviere dann hört sich jeweils die Tonspur viel klarer und sauberer an.
Ich hätte jetzt spontan auf Kammfilter bzw. Phase getippt, aber wenn zwei Leute in einem gewissen Abstand zu einander stehen und jeweils sehr nahe mit einem Anstecker aufgenommen werden, halte ich das für ausgeschlossen. Da muss noch irgend eine Besonderheit vorliegen, über die wir noch nicht gesprochen haben.
Matthias
Antwort von Auf Achse:
Blackbox hat geschrieben:
Die Logik mit der Spurverschiebung versteh ich nicht ganz.
Wenn Du da den Einen nach vorne ziehst, ist doch der andere umso mehr draussen, was die Laufzeitunterschiede angeht.
An genau das hab ich auch gedacht. Wars aber offensichtlich nicht denn das Problem des TO ist ja gelöst.
@Blackbox: Kannst du mir den Vorgang mit dem Sidechain bitte näher beschreiben? Wie wird das gemacht, klingt sehr interessant und wäre vielleicht auch für meine Interviewsituationen brauchbar.
Danke + Grüße,
Auf Achse
Antwort von Pianist:
"Auf Achse" hat geschrieben:
Kannst du mir den Vorgang mit dem Sidechain bitte näher beschreiben?
Ganz simpel: Wenn der eine spricht, triggert er den anderen runter, und wenn der andere spricht, triggert er den einen runter. "Sidechain" bedeutete in der analogen Welt, dass ein Fremdsignal (hier also der jeweils andere Sprecher) zur Regelung eines Kompressors oder Limiters verwendet wird. Das kann man in der digitalen Welt entsprechend nachbauen.
Allerdings verstehe ich nach wie vor nicht, warum das nötig sein soll, denn normalerweise müssten die Signale zweier Ansteckmikrofone an zwei verschiedenen Personen, die nicht unmittelbar nebeneinander stehen, so unabhängig von einander sein, dass das nicht erforderlich ist. Man hat vom jeweils anderen einfach so wenig "drauf", dass das an sich keine Probleme macht. Warum das hier so sein soll, erschließt sich mir nicht.
Matthias
Antwort von Auf Achse:
Danke Matthias für deine Info! Ich hab mittlerweile gegoogelt und bin auf ein gutes Tutorial gestoßen, ist allerdings für die Musikproduktion. Aber das Prinzip ist jedes mal das selbe wie du es oben beschrieben hast.
Ich hab grad eine Vortragssituation mit zwei Personen wo man im Mikro des einen den anderen recht deutlich hört. Dafür werd ich diese Sidechain Sache einfach mal ausprobieren.
Eine weitere Anwendung der Sidechain ist Audio Ducking bei Offsprechern. Diese Funktion gibts mittlerweile auch automatisiert in zB Adobe Premiere.
Grüße,
Auf Achse
https://www.youtube.com/watch?v=kK8j_PJxq24
Antwort von handiro:
Anstatt sidechain Ducking würde ich ein noisegate nehmen und es so einstellen, dass die fremdstimme immer aus dem jeweiligen mikro kanal weg-gegated wird.
Antwort von carstenkurz:
Hatten wir das nicht erst kürzlich - Behringer X-Air Automix.
- Carsten
Antwort von Pianist:
handiro hat geschrieben:
Anstatt sidechain Ducking würde ich ein noisegate nehmen und es so einstellen, dass die fremdstimme immer aus dem jeweiligen mikro kanal weg-gegated wird.
Siehste, so unterschiedlich sind die Geschmäcker. Ich zum Beispiel finde Gates (nein, nicht den Billy) ganz furchtbar. Wenn man sowas erst in der Nachbearbeitung einsetzt, kann man es ja wenigstens noch steuern, aber manchmal kommt es bei Beschallungen vor, dass die Leute am Pult schon mit Gates arbeiten, und dann bitte ich wirklich darum, sie komplett rauszunehmen, denn das kann ganz schnell total kaputt klingen. Vor allem, wenn sie sehr scharf eingestellt sind. Genau so eine Unsitte sind Pre-Fader-Mischungen auf dem Splitter, wo man sich dann plötzlich wundert, warum man irgendwelches Husten und Räuspern von anderen Leuten hört, die gerade gar nicht aktiv reden. Offenbar ist es für Tonleute heute schon zu viel verlangt, während einer Diskussion konzentriert fünf Regler zu bedienen. Aber das nur nebenbei...
Matthias
Antwort von Auf Achse:
carstenkurz hat geschrieben:
Hatten wir das nicht erst kürzlich - Behringer X-Air Automix.
- Carsten
Ja, Carsten, das war die Live Beschallung. Aber diesmal gehts mir um die Bearbeitung in der Post, wenn zwei Sprecher auf separaten Spuren aufgenommen sind :-)
Danke trotzdem + Grüße,
Auf Achse
Antwort von handiro:
Das noisegate sollte natürlich eine fadein-fadeout haben und nicht einfach knack aus...knack an machen. Aber mit sidechain ducking kann man das auch machen. Ist nur etwas komplexer wenn man noch nie sidechain benutzt hat. Bis das klappt, habe ich schon eine Automation geschrieben und jeden Kanalfader geritten ;-)
Antwort von srone:
handiro hat geschrieben:
Das noisegate sollte natürlich eine fadein-fadeout haben und nicht einfach knack aus...knack an machen. Aber mit sidechain ducking kann man das auch machen. Ist nur etwas komplexer wenn man noch nie sidechain benutzt hat. Bis das klappt, habe ich schon eine Automation geschrieben und jeden Kanalfader geritten ;-)
egal über was wir hierbei reden, die parametriesierung ist entscheident, ein falsch eingestelltes gate ist genauso wenig hilfreich, wie ein falsch eingestelltes ducking...
lg
srone
Antwort von Pianist:
handiro hat geschrieben:
Das noisegate sollte natürlich eine fadein-fadeout haben und nicht einfach knack aus...knack an machen.
Genau! Zu kurze Regelzeiten sind meistens nicht gut. Aber wer nicht so präzise hinhört oder keinen Kopfhörer benutzt, dem fällt das vor Ort womöglich gar nicht auf. Ich wollte nur mal wieder darauf hinweisen, dass wir uns oftmals in einem natürlichen Spannungsverhältnis zwischen Beschaller und Filmer befinden. Der Beschaller will es so einfach wie möglich haben, weil für ihn anschließend die Veranstaltung vorbei ist. Und wir wollen es so schön wie möglich haben, weil unsere Aufnahmen für die Ewigkeit sind...
Diese Risiken sollte man einfach kennen, um ggf. vor Ort noch ein wenig Einfluss zu nehmen.
Matthias
Antwort von 3Dvideos:
Hi Andi,
in welchem Format liegen denn die Aufnahmen vom Rekorder / von den Rekordern vor? Handelt es sich um wav-Dateien oder vielleicht um mp3-Aufnahmen? Während wav-Dateien sich bisher unproblematisch verarbeiten ließen, sind mp3-Aufnahmen durch die Kompression für geringfügige zeitliche Schwankungen bekannt, die eine Synchronisation stark beeinträchtigen können. Deshalb kann man empfehlen, bei Aufnahmen mit externen Rekordern im wav-Format aufzunehmen. wav-Audiodateien lassen sich auch untereinander automatisch synchronisieren. Nach dem Erstellen der gesamten Audiodatei kann diese dann mit dem Filmmaterial synchronisiert werden. Das lässt sich leicht realisieren, wenn von der Kamera noch die Originalaufnahmen vorliegen. Ansonsten wäre der Upload von Samples ins Forum hilfreich, weil theoretische unvollständige Beschreibungen des Problems Abhilfe erschweren.
Gruß
3Dvideos