Logo Logo
/// 

Arbeitsschritte Tonmischung



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von ennui:


Was genau wird eigentlich bei einer professionellen Tonmischung für Film gemacht, also was für einzelne Arbeitsschritte und welche Hardware/Software? Wird zum Beispiel am Ende ein Kompressor auf die fertig gemischte Summe gelegt? Oder auf Einzelspuren? Oder gibt es dafür eine gute Anleitung im Netz?



Antwort von domain:

Eine kurze Suche hier hat mal gleich mehrere Beiträge ergeben. Einer der für dich hilfreich sein könnte:
viewtopic.php?t=94177?highlight=tonmischung



Antwort von ennui:

Ja, das da zitierte Buch klingt ganz gut, wäre vielleicht den Versuch wert. Ich meinte jetzt eigentlich auch nur ganz grob, stichpunktartig.

Oder mal anders gefragt: Wenn ich Atmo, O-Töne und weitere Sounds gut aufgenommen, und dann für mich stimmig gemischt oder angeglichen habe, reicht mir das persönlich eigentlich schon als "Tonmischung". Von der Musikproduktion habe ich mir aber abgeguckt, das dort bei dem Stand noch lange nicht Schluss ist, da wird dann eben gerne ein Kompressor auf die Summe gelegt, etc., eben all das, was unter "Mastering" läuft. Und gerade teure Spielfilme scheinen mir vom Klang her eher ähnlich produziert zu werden wie Musikstücke, also wesentlich aufwändiger. Daher wollte ich nur kurz wissen, was denn da üblicherweise noch so alles gemacht wird.








Antwort von Pianist:

Zunächst mal die Frage: Welche technische Ausstattung steht Dir denn bisher zur Verfügung? Um eine gute Tonbearbeitung zu machen, musst Du hören und sehen, was Du tust. Du brauchst also einen vernünftigen Aussteuerungsmesser, künftig auch einen Lautheitsmesser, zwei vernünftige Lautsprecher und einen vernünftigen Raum, der nicht zu stark reflektiert.

Und dann eben einfach gute Ohren und Erfahrung. Es gibt technische Regeln, es gibt gestalterische Regeln, und letztendlich soll der Zuschauer alles gut verstehen.

Matthias



Antwort von srone:

wenn man es gut machen will, ist die tonbearbeitung so aufwändig wie der schnitt.
jedoch gibt es kein "patentrezept" dies zu tun.

meine vorgehensweise ist die folgende:

1. säubern (denoisen, entbrummen etc) und pegeln (angleichen der lautheit) der einzelnen spuren, auch mit limiter oder compressor.

2. angleichen der klangfarben der spuren -> eq (kann man wie color-(hier klangfarben)-grading sehen -> soundesign)

(die reihenfolge eq/compressor bzw compressor/eq ist tauschbar und abhängig vom gewünschten ergebnis)

3. angleichen der räumlichkeiten von spuren -> hall

4. mastering -> multiband-limiter/compressor, eq

es ist nicht zwingend erforderlich bei jeder spur jeden schritt durchzuführen, das kommt auf die spur selbst und den gesamtzusammenhang an,

zb.

eine gute stereo-atmo benötigt sicher keinen hall (raum), ein gutes rauschfreies mikrosignal muss nicht zwangsweise denoised werden, etc.


lg

srone



Antwort von ennui:

@Pianist

Zur Verfügung habe ich 2 günstigere, aber ok getestete Monitorboxen und nen Sony MDR 7506 Studiokopfhörer. Ein kleines analoges 8-Kanalmischpult, momentan ohne jegliche PC-Anbindung, einen Tascam-Recorder, irgendwo auch noch ein Multieffektgerät, das nicht überragend, aber auch nicht schlecht klingt. Und ein externes 2-Kanal-USB-Soundinterface. So auf dem Level bewegte sich das alles, wenn ich mal mit Ton experimentiert habe. Musikproduktion auf halbwegs professionellem Niveau kenne ich von Bekannten.

Besagte "Tonmischung" von mir fand aber ausschließlich in meinem Schnitt-PC (mit Audacity für Tonbearbeitungssachen, Edius 5, und HDMI-Vorschau für Ton und Bild) statt. Es waren auch eher schlichte Anforderungen, Stereoton, hier mal ein Wav normalisiert und noch dazugemischt, da mal mit EQ die tiefen Frequenzen entfernt, da mal Sachen ineinander übergeblendet. Zum Schluss dann alles gerendert und auf DVD gebrannt. Wie gesagt, mir reicht das so eigentlich völlig, ich nehme nur schon einen Unterschied zwischen meiner "Produktion" und "richtigen" Produktionen wahr, die mich als erstes an einen Kompressor denken ließ. Die Frage ist wirklich eher interessehalber, und im besten Fall kann ich mir vieleicht noch was abgucken. Aber Protools und Konsorten liegen außerhalb meiner Möglichkeiten.

@srone

Danke, sowas meinte ich.

Wobei ich schon das Problem habe, dass zb. Sprache zwar gut aufgenommen war, aber mit Sicherheitsreserve beim Pegel, also mit einigem Headroom. Andere Sounds waren voll ausgesteuert. Orientiere ich mich dann am lautesten Material und normalisiere die leiseren WAVs, oder regel ich eher die lauten Sachen auf das Niveau der leiseren? Ist zwar unlogisch, weil leiseres Endergebnis, aber für mich klang das so oft subjektiv besser. Soll denn üblicherweise das Endprodukt auch normalisiert/voll ausgesteuert sein? Ich erlebe es öfters bei älteren Spielfilmen auf Kauf-DVDs, dass diese offensichtlich leiser als andere sind, leiser abgemischt. Oder täusche ich mich.



Antwort von domain:

.. künftig auch einen Lautheitsmesser, ... Ein für mich bisher unbekannter Begriff, der aber in Zukunft eine Rolle spielen dürfte. Google-Rechere hat u.a. die EBU-Richtlinie R-128 ergeben http://de.wikipedia.org/wiki/EBU-Richtlinie_R_128
Was mir schon immer aufgefallen ist, ist die Tatsache, dass z.B. eine Null-DB Angleichung diverser Clips trotzdem zu einem recht unterschiedlichen Höreindruck hinsichtlich der subjektiv empfundenen Lautstärke führen kann.
Spielt da eine Rolle, dass mittlere Frequenzen vom Ohr besonders gut wahrgenommen werden können?



Antwort von srone:

@ domain

nein, es kommt hier auf die gesamtdynamik an.

wenn du ein relativ leises signal hast mit wenigen lauten pegelspitzen, wird sozusagen auf die pegelspitzen normalisiert, das leise signal wird dadurch kaum lauter.

hast du aber ein relativ gleichförmig lautes/leises signal wird dies in gänze normalisiert, und erscheint dir dann lauter als ersteres, was es auch ist.

hierfür lohnt der blick auf die rms-anzeige eines pegelmessers, der sagt nämlich was über die durchschnittliche lautheit des signals aus, im gegensatz zum peakmeter, welcher absolute spitzenwerte anzeigt.

lg

srone



Antwort von Pianist:

Was mir schon immer aufgefallen ist, ist die Tatsache, dass z.B. eine Null-DB Angleichung diverser Clips trotzdem zu einem recht unterschiedlichen Höreindruck hinsichtlich der subjektiv empfundenen Lautstärke führen kann. Und genau deshalb gibt es die R-128 und die neue Maßeinheit LUFS. Das ist die bahnbrechendste technische Neuerung der vergangenen Jahrzehnte, weil sie ein uraltes Problem grundsätzlich löst.

Matthias



Antwort von srone:

@ ennui

einzelne spuren in gänze würde ich immer normalisieren, bei einzelnen clips bin ich da eher vorsichtiger, da hier gerne der oben von domain gefragte effekt zuschlägt.

aber prinzipiell gilt, jede bearbeitung sollte etwas verbessern im gesamt(!)sound, es nützt wenig wenn einzelne spuren soundtechnisch glänzen, jedoch der dialog unverständlich ist, hier gilt es zweckdienlich zu mischen und die klangliche gestaltung der einzelnen spuren dem ganzen zu unterwerfen.

lg

srone



Antwort von ennui:

Also mal als theoretisches Beispiel: Ich habe eine Sprachaufnahme, die aus dem Recorder kommt mit Pegelspitzen bei vielleicht 60%. Dann habe ich, sagen wir, das Grillenzirpen bei Sonnenuntergang als Atmo, das hat dann die Spitzen bei 20%. Und dann möchte ich da noch Musik von einer professionell produzierten CD dabei haben. Meine Arbeitsweise wäre bisher gewesen, die Sprache so zu lassen, die Musik ziemlich runterzuregeln, und die Grillen vielleicht noch etwas anzuheben, und mit EQ zu betonen. Bis es für mich stimmig und rund klingt. So lande ich aber natürlich nicht bei einem voll ausgesteuerten Signal, und wenn ich am Ende das Signal normalisiere, kann es je nach Ausgangsprodukten schon merklich rauschen.

Bei einem "Lautheitsmesser" bin ich da noch gar nicht, bzw. nutze meine Ohren...

Letztlich entspricht so eine Filmabmischung dann wohl eher dem Abmischen von klassischer Musik? Weil größere Dynamik?

Und es gibt doch dann diesen 1Khz-Test-Ton zum Testbild, der dem angeschlossenen Equipment bei der Vorführung mitteilt, wie laut es maximal wird. Der muss aber immer entsprechend voll ausgesteuert sein, richtig?



Antwort von Pianist:

Nein, ein Kilohertz wird üblicherweise auf -9 dB auf dem RTW ausgesteuert, das entspricht -18 dBFS. Bei einer ordentlichen Mischung liegen die Spitzen dann bei 0 dB auf dem RTW, das entspricht -9 dBFS.

Sprache sollte üblicherweise bis 0 dB (-9 dBFS) gehen, Musik (ohne gleichzeitige Sprache) bleibt 5 dB drunter.

Ohne vernünftigen Aussteuerungsmesser ist das alles reiner Blindflug.

Matthias








Antwort von ennui:

Edius bietet ja eine Pegel-Anzeige, bzw. die Möglichkeit, diese in die Vorschau einzublenden. Solange es nicht in Echtzeit sein muss, kann ich auch in Audacity den Maximal- (und Durchschnitts-?) Pegel einer Datei betrachten. Den 1Khz-Testton könnte ich da zb. voll ausgesteuert erzeugen, und dann in Edius auf -9 dB normalisieren. Oder sind diese Pegelanzeigen nicht genau genug? Bisher nutze ich sie hauptsächlich, um zu verhindern, das was übersteuert, und um eben Pegel/Lautstärken visuell einzuschätzen.



Antwort von Pianist:

Auf der digitalen Vollskala müsste der Pegelton auf -18 dB gepegelt werden. Du müsstest Dich im Prinzip erst mal mit den ganzen tontechnischen Grundlagen beschäftigen. Ist das denn eher Hobby oder soll daraus mal ein Beruf oder eine unternehmerische Tätigkeit werden? Wenn Hobby, dann mach Dir keinen Kopp und lass es weiter so laufen wie bisher.

Matthias



Antwort von ennui:

@Pianist

Sowohl als auch, eigentlich, aber eher die inhaltlichen Aspekte professionell. Diese Art von Tonmischung fällt definitiv eher in den Hobbybereich, da reicht mein erlerntes Können nur bis zu zufriedenstellenden Tonaufnahmen am Set. Bei meinen eigenen Sachen habe ich teils schon ganz ohne Ton gearbeitet, teils nur mit O-Tönen, da war also bisher nicht wirklich viel zu mischen. Manche Kollegen handhaben es so, dass sie mit ihren größeren Sachen oder szenischen Filmen irgendwann einfach zu jemandem gehen, der ihnen dann die Tonmischung macht, genauso wie sie zu jemandem gehen, der ihnen das Grading und die Farbkorrekturen macht. Also Arbeitsteilung mit Profis und entsprechendes Budget. Ich möchte aber bei sowas immer zumindest verstehen, was die da dann konkret machen, wenn es nicht sogar selber notfalls ansatzweise können.

Die Resultate müssen auch keinen sehr strengen technischen Standards genügen in dem Bereich, nur möglichst nicht völlig verhunzt sein, und vorführbar. Das habe ich bisher schon hinbekommen, aber momentan arbeite ich an einem Projekt, wo Ton mal etwas wichtiger ist. Sprache gibt es da gar nicht, aber Töne/Musik und Atmosounds müssen stimmig gemischt werden, ich hätte da am liebsten sowas wie einen satten Spielfilmsound, aber um das aus der Hand zu geben, ist es doch wieder zu klein und Low/No Budget. Und ich merke gerade auch, wie wenig Ahnung ich von der Tonmischung habe, daher ja die Fragen.

Wenn man alles intern im PC macht, suggeriert einem die Software ja, man hätte die Kontrolle über alles. Ich nehme zum Beispiel mal an, dass Edius sich schon selbst um korrekte Pegelwerte kümmert, solange bei mir die Anzeige voll ausschlägt und noch nicht übersteuert. Wie ich da Tonspuren reinmische oder bearbeiten kann, verstehe ich auch noch. Welche Werte/Normen das im Einzelnen dann sind, weiß ich aber tatsächlich nicht, da hörts schon auf.



Antwort von Pianist:

Das klingt doch nach einem ganz vernünftigen Ansatz. Mehr verstehen, mehr selbst machen, aber auch die eigenen Grenzen kennen und dann andere mit einbeziehen. Mache ich ja auch so.

So lange bei Deinem eigenen kleinen Projekt alles vernünftig klingt und nichts verzerrt, ist es doch prima. Dann musst Du auch nicht präzise irgendwelche Standard-Pegel einhalten.

Matthias




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum
















weitere Themen:
Spezialthemen


3D/VR
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adapter/Konverter
Adobe After Effects
Adobe Premiere Pro
After effects
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avi
Avid
Avid Media Composer
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blende
Cam
Camcorder
Camera
Canon
Canon EOS
Capture
Capturing
Cinema
ClipKanal
Codec
DJI
DSLR
DaVinci Resolve
Digital
EDIUS
ENG
Effect
Effekt
Effekte
Eis
Empfehlung
Euro
Fehler
Festplatte
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Foto
Frage
Frame
GH2
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kanal
Kauf
Kaufberatung
Kaufe
Kurzfilm
Layer
Licht
Light
Live
Log
Lösung
MAGIX video deLuxe
MPEG
MPEG2
Magix
Magix Vegas Pro
Mikro
Mikrofon
Mikrophone
Movie
Musik
Musikvideo
NAB
Nero
Nikon
Objektiv
Objektive
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Plugin
Premiere
Produktion
RAW
RED
Render
Rendern
S5
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Studio
TV
Test
Titel
Ton
Trailer
Umwandeln
Vegas
Video
Video-DSLM-/DSLR
Videos
Videoschnitt
YouTube
Zoom