Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // audio denoise methodik



Frage von aight8:


ich bin da gerade in einem club aber ist mir gerade etwas eingefallen dass muss ich jetzz einfach schreiben. kann ein audio editing program aus 2 audio quellen die audios so zusammenfügen das die schnittmenge herausgefiltert wird. bei handys werden solche verfahren ja auch on the fly realisirt um hintergrund geräusche herauszufiltern.

schöhnen abend noch liebe community

Space


Antwort von WoWu:

klar, von einer Quelle die Phase drehen und Mono wieder ausgeben.

Space


Antwort von B.DeKid:

Oder spricht Er nun von "Phase Umkehr" Methode wie Bose das bei seinen Helikopter Lautsprechern anbietet ode r wie man zur letzten WM s die Vuvuzelas "quasi" stumm stellen konnte?

Also ne gleichbleibende Schallquelle lässt sich rausfiltern so was geht und is ganz geil - quasi STILLE auf Knopfdruck ;-))

MfG
B.DeKid

Space


Antwort von WoWu:

Es gibt da mehrere Methoden ... und sogar ganze Programme, die nicht anderes tun, als solche Soundprobleme zu bewerkstelligen.

Space


Antwort von B.DeKid:

Deswegen fragte ich ja - denn ich hab 2 Freunde , die sind echt fit wenns um Sound geht - und das echt geil wenn die quasi nen Staubsauger rausfiltern und man nur noch die Mom rufen hört! ;-))

Und halt von Helis kenn ich halt Bose Lautsprecher die quasi das "Schrabb, Schrabb , Schrabb" raus fitern und man nur nooch die Stimmen des Piloten hört - kann auch ne Menge:-)

So wie ich mir es erklären liess - dreht man halt nen Peak um und schluckt diesen so - was bei gleichbleibenden Schallquellen halt einfach ist.

Aber ich geh mal schwer davon aus das es dafür hier richtige Fachleuts gibt die das wesentlich besser erklären können als wir beide - oder WoWu?-)

MfG
B.DeKid

Space


Antwort von Axel:

Aber ich geh mal schwer davon aus das es dafür hier richtige Fachleuts gibt die das wesentlich besser erklären können als wir beide - oder WoWu?-) Vielleicht hilft es gerade, dass ich kein Fachmann bin, dadurch wird die Erklärung schlichter:

Man kann eine Sekunde Hintergrundrauschen - oder was auch immer - isolieren und einen sogenannten "Fingerabdruck" (noise print) davon erstellen. Dieses Frequenzsample kann als Auswahl auf jeden beliebigen Audioclip angewendet werden. Die meisten, wenn nicht alle Audioprogramme haben eine Funktion Störgeräusche entfernen oder so.

Was geschehen ist: Das Muster, das man zuvor eingepflegt hat, dient als Key, wie Grün beim Greenscreen. Es besagt noch nichts darüber, was hinterher damit geschieht. Ein Key ist eine Auswahl.

Wenn jetzt einfach automatisch diese Frequenz zu 100% entfernt würde, hätte man ein hässliches Loch im Frequenzspektrum. Unter- und Obertöne der erwünschten Frequenzen (darunter die passend so genannten Harmonien) wären - Paff! - abgeschnitten. Nicht nur ein Audiophiler, sondern jeder nicht ganz Taube schlägt die Hände überm Kopf zusammen.

Das mindeste, was es geben muss, sind einstellbare Toleranzen, die man nach Ohrenmaß einstellt, die Analogie zum Farbkeying passt wieder. Auch, dass man hinterher "Spill" (Reste der unerwünschten Frequenzen) übrig hat. Und, wie wir es von Video kennen, darf auch eine Spillunterdrückung nicht automatisch sein, wenn man nicht das ganze Bild magenta haben will.

Man filtert also besser manuell. Das fällt vielen Nicht-Tontechnikern schwer, da für sie die Zahlen für die Frequenzhöhen nicht spontan etwas mit dem Gehörten zu tun haben. Endloses Rumexperimentieren, wobei man nach zehn Minuten nicht mehr weiß, ob das verfilterte Resultat nun überhaupt besser ist als das Original. Doof.

Für mich fiel der Groschen mit diesem Thread (EDIT, btw: Peinlich, was ich da über Soundbooth schreibe. Was lerne ich daraus: Bescheiden sein, wenn der Hintergrund fehlt). Das, was wir mit der Waveform von Audio zu sehen gewohnt sind, repräsentiert nur die Lautstärke, aber überhaupt nichts von der Frequenz. Diese Soundbooth-Demo warb mit der Frequenzspektrumsdarstellung (die heute auch etwa in Soundtrack Pro Standard ist):

Oben sehen wir die gewohnte Waveform, unten die Frequenzdarstellung. Während man hört, sieht man, was man hört. Nicht nur kann man für eine numerische Filterung die Frequenzhöhe auf der y-Koordinate (rechts) ablesen, man kann sogar direkt mit an Photoshop erinnernden Auswahlwerkzeugen ("Lasso", in der alten Demoversion zumindest gab es auch das Razzelfummi) an den Problembereichen rumdoktorn.

Das Allerbeste: Nach ein paar Stunden parallelem Hören und Sehen weiß man plötzlich - so ungefähr zumindest - in welchem Frequenzband ein Ton liegt.

Space


Antwort von WoWu:

Drei gängige Methoden kommen in den überwiegenden Fällen zur Anwendung.
Das Gating, das beruht darauf, dass ein Inhalt (Stimme) ein Hintergrundgeräusch im Pegel übersteigt.
Spricht niemand, wird entweder der Pegel abgesenkt oder ein einstellbares Filter begrenzt in dem Fall die Höhen, zur Rauschunterdrückung. Das geht auch mit einem Signal (Mono).

Phasenumkehr setzt zwei Signale voraus. Dabei wird der Inhalt des einen Signals durch 180° Phase vom andern Signal abgezogen und in der Summenbildung so nicht mehr hörbar. Problem dabei ist, das bei breitbandigen Inhalten auch das eigentliche Nutzsignal mit beschnitten wird, weil keine inhaltliche Gewichtung stattfindet.
Voraussetzung hierfür ist die örtliche Nähe der beiden Schallaufnahmen, denn durch eine Laufzeit (Mikrofonabstand) zwischen den Signalen, wird der Nutzeffekt geringer und nicht alle Frequenzen können mehr gefiltert werden.

Die Filterung, dabei werden die Frequenzlagen analysiert und störende Frequenzinhalte einfach begrenzt.

Nun gibt es Programme, wie schon von Axel geschrieben, die eine Mischung aus diesen Methoden herstellen, also eine Analyse vornehmen und die Tools entlang der Anforderungen einsetzen und kombinieren. dabei können dann auch noch zusätzlich periodisch auftretende Effekte beseitigt werden und auch Reaktionen auf bestimmte Flanken hinzugefügt werden (Klick). Oder Teile der Signale sind über ein Delay auf der zeitlichen Achse veränderbar, um Laufzeiten auszugleichen.

Auch werden unterschiedliche Hüllkurven berücksichtigt.

Hier kommt also noch die zeitliche Komponente ins Spiel.

Solche Programme sind schon ziemlich effektiv. Nur sie beruhen alle auf dem Pegel, der Frequenz und dem zeitlichen Signalverhalten der Klangereignisse.
Wer mit den drei Komponenten umgehen kann, wir schon gute Lösungen anbieten können.

Space


Antwort von shodushitanaka:

Also ne gleichbleibende Schallquelle lässt sich rausfiltern so was geht und is ganz geil - quasi STILLE auf Knopfdruck ;-)) Geht sogar kinderleicht. Ich jage z.B. einen gesprochenen Text immer durch die Software Audacity. Du machst einen 2sekündigen "Fingerabdruck" der gleichbleibenden Schallquelle (z.B. Hintergrundrauschen, jetzt keine Musik, oder so... ) und schwupps, hast du nur noch die klare Stimme.

Space


Antwort von shodushitanaka:

Also ne gleichbleibende Schallquelle lässt sich rausfiltern so was geht und is ganz geil - quasi STILLE auf Knopfdruck ;-)) Man kann eine Sekunde Hintergrundrauschen - oder was auch immer - isolieren und einen sogenannten "Fingerabdruck" (noise print) davon erstellen. z.B. mit der kostenlosen Software "Audacity"

Space



Space


Antwort von B.DeKid:

Danke hab ich auch direkt mal wieder nen bissel mehr gelernt.

MfG
B.DeKid

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen //


Denoise für FCPX
Audio Plugins auf der GPU berechnen - BRAINGINES GPU Audio
Audio Design Desk: Bessere Integration in Final Cut Pro per Audio Bridge Erweiterung
Zoom UAC-232 USB Audio Converter: 32-Bit-Float-Audio macht Gain Regler überflüssig
Aus Text wird nun auch Audio: Stable Audio generiert Musik und Soundeffekte per KI
Auto low audio sound to high Audio qualy?
Zoom F6: Orca OR-268 Audio Bag Hack
Zoom F6 Multitrack Fieldrecorder: Kompakte Audio-Funktionen für Solo-Shooter - Teil 1
Blackmagic ATEM Update 8.2.2 bringt einstellbares Audio Delay
Spitfire Audio - BBC Symphony Orchestra Discover
Empfehlenswerte VST Audio Plugins zur Musik & Videoproduktion (Freeware/Freebies)
miniDSP ambiMIK-1: Ambisonic USB Mikrophon für 3D 360° Audio
Dringende Frage zu Audio in DaVinci Resolve
MP4 Datei nicht mehr synchron nach Import (AUDIO)?! HILFE!!!
KI synchronisiert Lippen und Audio in Echtzeit
Premiere Pro Audio Spur 2 zu leise nach rendern
Erstes Hands On mit der Canon EOS C70: 16+ DR, 10 Bit Log, ND-Filter, XLR-Audio, Kompakt-Gehäuse uvm ...
Audio-Pegel richtig einstellen




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash