Frage von Benutzername:Ich hätte gerne ein Rezept, wie man Sprache und Musik so abmischt, dass die Sprache verständlich bleibt, die Musik aber nicht im Nirvana verschwindet.
Kompressor, EQ etc. sind mir nicht fremd. Die Anforderungen an das Ergebnis der Abmischung sind semiprofessionell (kein Hollywoodsound).
Dieses Thema wurde in einer anderen Kategorie dieses Forums schon einmal angeschnitten (
http://forum.slashcam.de/tonabmischung- ... highlight=). Aber vielleicht hat noch jemand hier in der Ton-Kategorie was zu ergänzen. Danke für eure Hilfe!
Antwort von Alf_300:
So wie im Radio ?
Da gibts mehrere Plugins (VST), eins davon nennt sich Sidekick
Antwort von calvato:
...also, beim radio "ducken" sie die musik, sie nehmen also nen kompressor auf die musik, mit der stimme als sidechain. für"n film...... also ich mache das meistens mit der lautstärkekurve (zb. von premiere) , die ich programmiere. wenn es schnell gehen muss, ducke ich auch....
Antwort von phili2p:
Um welche Form des Films geht es denn?
Ducking gab's bei zu meiner TV-Zeit (Beta auf dem 2 oder 3-Maschinenplatz) eigentlich nur bei der Vertonung von Beträgen, die schnell auf Sendung mussten. Bei Corporate Videos oder Werbung gab es das nicht.
Also: Was ist es für ein Filmgenre (Doku, Animation, Fiktion...) und was ist das Zielmedium (Kino, TV, Web, Messestand..)?
Dementsprechend ist die Komponente Audiomischung eventuell anders anzugehen...
Und prinzpiell stellt sich gerade bei Consumer / Prosumer auch die Frage, wie die Abhörsituation eigentlich ist, also allein ob es beschönigende HiFi-Komponenten gibt oder aktive Monitorboxen macht ja schon einen großen Unterschied!
Antwort von Pianist:
Man braucht dafür jedenfalls kein Plugin, sondern eine vernünftige Abhöre, ein vernünftiges Gehör und eine halbwegs vernünftige Raumakustik.
Man kann dafür auch keine festen Messwerte vorgeben, sondern man muss das eben rein nach Bauchgefühl so machen, dass es gut klingt. Musik klingt ja auch sehr unterschiedlich laut, schon deshalb gibt es kein Patentrezept.
Und privat muss man sich ja auch an keine Aussteuerungs- oder Lautheitsregeln halten. Es ist aber sicher nicht verkehrt, das in etwa so zu machen, wie es das Fernsehen macht.
Matthias
Antwort von rush:
Ich sehe das wie Matthias...
Das Pegelverhältnis zwischen Musik und Sprache lässt sich nur schwer allgemein beziffern und sollte vielmehr individuell erfolgen.
Die Sprachverständlichkeit im Vergleich zur Musik solltest du bereits mit einer halbwegs vernünftigen Abhöre gut beurteilen und justieren können.
Letzten Endes kommt es ja auch immer auf die Wirkung an... ein relativ seidiger instrumentaler Klangteppich ist weniger aufdringlich als ein vocal-lastiger Rocktrack etc pp.
Kurzum: Mach dich nicht verrückt... erstell dir notfalls 2-3 verschiedene Mixe und setz dich mit geschlossenen Augen vor die Abhöre. Du wirst schnell merken welche der Varianten am ehesten das optimale Verhältnis aus Sprache und Musik darstellt.
Antwort von Pianist:
Und ruhig auf verschiedenen Geräten hören. Auch mal per Kopfhörer, aber nicht ausschließlich. Es ist überliefert, dass berühmte Dirigenten sich gleich nach der Aufnahme eine Cassette haben geben lassen, um damit im Auto probezuhören, wie es dort klingt...
Matthias
Antwort von Frank Glencairn:
In Audition , und ich glaube auch in Premiere gibt es für einen der EQs ein Preset mit der Bezeichning "make room for voice" (oder so ähnlich) damit würde ich mal anfangen.
Antwort von srone:
was ich sehr gerne mache, ist die musik mit einem vollparametrischen eq bei ca 800hz (männerstimme bzw 1000-1200hz frauenstimme) um ca 3db abzusenken, bei hoher güte (q) um danach nach gehör die güte soweit runterzudrehen, dass es den mitten der musik nicht allzuviel tut.
das schafft enorm luft für eine sprecherstimme.
lg
srone
Antwort von srone:
In Audition , und ich glaube auch in Premiere gibt es für einen der EQs ein Preset mit der Bezeichning "make room for voice" (oder so ähnlich) damit würde ich mal anfangen.
der ansatz scheint ähnlich.
lg
srone