Logo
///  >

Grundlagen : Denoising 1x1

von Mo, 29.Februar 2016 | 4 Seiten | diesen Artikel auf einer Seite lesen

  Einleitung
  Denoising braucht Rechenleistung
  Zwei Grundtypen
  Rechenhilfe GPU
  Bessere Qualität ?
  Rauschen ist nicht gleich Rauschen
  Oder doch schon in der Kamera?
  Downscaling = Automatisches Denoising
  Rauschen und Log

Der Begriff Denoising (auch Noise Reduction, kurz NR) bedeutet “Entrauschen” und ebendiese Funktion nutzen viele Anwender in letzter Zeit immer häufiger. Doch wann macht der Einsatz eines Denoisers überhaupt Sinn?

Auf den ersten Blick klingt "Denoising" wie eine magische Wunderwaffe. Mit genügend Rechenpower ist es scheinbar irgendwie möglich, aus stark verrauschten Aufnahmen wieder ein "klares" Bild zu erzeugen. Doch in der Praxis ist die Rauschentfernung auch mit ein paar Nachteilen verbunden, auf die wir sukzessive eingehen wollen.



Denoising braucht Rechenleistung



Als Daumenregel kann erst einmal gelten: Je besser ein Denoising-Algorithmus funktioniert, desto mehr Rechenleistung benötigt er. Auf einer normalen CPU ist schon ein moderner FullHD-Denoising-Algorithmus kaum in Echtzeit zu schaffen. Auf einer modernen GPU (also Grafikkarte) dagegen schon. Wenn es jedoch um die bestmöglichen Ergebnisse - eventuell sogar in 4K - geht, kommt man in der Regel nicht um längere Rendering-Sessions herum.

Dies ist insofern problematisch, weil man in vielen Bereichen einen Denoiser immer visuell kontrollieren sollte. Parameter, die in einer Szene gut funktionieren, können in einer anderen Szene (oder auch nur in anderen Bildbereichen) für hässliche Artefakte sorgen. Um jedoch die Qualität eines Denoisers richtig einzuschätzen, MUSS man dessen Ergebnis in Echtzeit sehen. Sieht man das Ergebnis z.B. nur mit 17 fps statt mit 24 fps, so ist eine korrekte Einschätzung der Bildwirkung fast unmöglich, da man das Bewegungsverhalten der Flächen und des übrigen Rauschens bei anderen Bildraten eben ganz anders wahrnimmt.



Zwei Grundtypen



Grundsätzlich lassen sich die Verfahren zur Rauschunterdrückung in zwei Klassen einteilen, temporale und spatiale Verfahren, wobei die besten Denoiser meistens beides kombinieren.

Die spatialen Verfahren betrachten nur die Rauschverteilung innerhalb eines Bildes und versuchen sich ein eigenes Bild des Rauschens zu machen. In der Regel erstellen sie so etwas wie einen “typischen Abdruck” (Noise-Print), worunter man sich eine möglichst getreue Simulation des vorhandenen Rauschens vorstellen kann. Dieses “geschätzte Rauschen” wird dann aus dem Original-Bild herausgerechnet.

Bei den temporalen Verfahren versucht dagegen die Noise Reduction zu erkennen, welche Veränderungen zwischen mehreren Bildern alleine auf das Rauschen zurückzuführen sind. Damit dies gut funktioniert, muss die Software daher auch erkennen, wenn sich die Kamera oder einzelne Objekte bewegen. Deswegen wird hierbei in der Regel das Material mittels Optical Flow-Algorithmen analysiert, was ohne GPU extrem zeitaufwändig ist. Im Gegenzug sind die temporalen Verfahren meist spürbar effektiver und gehen meist deutlich weniger destruktiv zu Werke. Eben weil sie über den zeitlichen Vergleich besser einschätzen können, welche Pixelwerte zu einem Objekt gehören und welche Pixelveränderungen durch Rauschen entstehen.

In diesem Zusammenhang sei auch kurz angemerkt, dass fast alle uns bekannten temporalen Rauschunterdrücker zeitlich nur in eine Richtung arbeiten. Das bedeutet, dass die ersten Frames eines Clips meistens noch stärker rauschen, bis der Algorithmus seine Parameter gefunden hat. Es ist daher anzuraten, beim Denoising immer ein paar Frames mehr Vorlauf/Fleisch mitzunehmen, als man später einsetzen wird. Denn dieses "Einschwingen" der Noise Reduction fällt auch ungeübten Betrachtern schnell ins Auge.

Rechenhilfe GPU / Bessere Qualität ? / Rauschen ist nicht gleich Rauschen


4 Seiten:
Einleitung / Denoising braucht Rechenleistung / Zwei Grundtypen
Rechenhilfe GPU / Bessere Qualität ? / Rauschen ist nicht gleich Rauschen
Oder doch schon in der Kamera? / Downscaling = Automatisches Denoising / Rauschen und Log
  

[23 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Starshine Pictures    09:20 am 12.3.2016
Ich verwende bei meinem Canon DSLR Material IMMER NeatVideo! Jeder Shot wird denoised, egal ob bei Tag mit Iso 100 oder am Abend mit 1600 gefilmt. Die Unterschiede sind immer...weiterlesen
nachtaktiv    04:31 am 12.3.2016
tja. mir bleibt als nachtfilmer leider nix anderes übrig und ich find den artikel recht interessant. dokufilmer, die des nachts filmen, können auch nicht so ausleuchten, wie...weiterlesen
div4o    10:58 am 2.3.2016
Und zurück zum Thema:) grundsätzlich vertrete ich die Meinung, am Set alles richtig zu machen, um in der Post weniger Ärger zu habe, leider wegen Budget und eigene...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Smartphone-Filmen: Die Krux mit der variablen Framerate Mo, 5.März 2018
Wer öfter mit dem Handy filmt, hat meist schon schon einen Workaround, doch wer mit der Smartphone-Filmerei beginnt stolpert fast hundertprozentig darüber: Die variable Framerate der aufgezeichneten Videos.
Grundlagen: Warum der digitale Videopegel relevant ist. Fr, 28.April 2017
Gerade unter jungen Profis sind Begriffe wie Studio Swing, Video-Level oder Schwarzwert nicht immer geläufig, vor allem weil sie in der digitalen Signalverarbeitung eigentlich keine Rolle mehr spielen müssten. Tun sie aber doch ...
Grundlagen: OpenCL- CUDA- Stream -Welche GPU fürs Editing? Fr, 6.November 2009
Eine Frage, die sich momentan viele Anwender stellen, beschäftigte gerade auch uns in der Redaktion. Welche Grafikkarte macht eigentlich gerade für Editing-Aufgaben besonderen Sinn?
Grundlagen: Pixelverhältnisse und woher sie kommen Do, 5.Juni 2003
Angeregt durch eine aktuelle Diskussion zur Schnittsoftware Vegas ist unser Autor Holger Scheel dem Thema "Pixelverhältnisse" auf den Grund gegangen. Wie immer gibt es hier viel zu lernen über Video und Computer, nicht einfach, aber sehr lesenswert.
Grundlagen: RAID Mo, 20.Mai 2002
Test: Videovorschau in 4K - Blackmagic DeckLink 4K Extreme 12G Mo, 2.Dezember 2019
Erfahrungsberichte: Mit angezogener Handbremse: H.265/HEVC Decoding und Scrubbing im Jahre 2019 Di, 2.Juli 2019
Test: Loupedeck+ Steuerpult u.a. für Premiere Pro CC - flexibel und ungezähmt Di, 30.April 2019
News: RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019 Di, 9.April 2019
News: Viele Neuigkeiten für Adobe Premiere Pro, After Effects und Audition zur // NAB 2019 Mi, 3.April 2019
News: Adobe CC Updates: Premiere Pro, After Effects und Audition // IBC 2018 Mi, 12.September 2018
News: Neue CC-Funktionen u.a. für Adobe Premiere Pro und After Effects zur // NAB 2018 Di, 3.April 2018


[nach oben]


[nach oben]
















passende Forenbeiträge zum Thema
Apple Final Cut Pro X:
DV-AVI nicht mehr Unterstütze Formate FCPX
Bild und Ton nach Import in FCP X nicht mehr synchron
Welche Software statt Final Cut X? Oder bei FCX bleiben?
FCP X für iOS?
Das neue fcpx und die anderen Tools sind online
Messevideo: AJA Kona 5 mit 12G-SDI und HDMI 2.0 für Avid MC, FCPX, Premiere Pro CC u.a. // IBC 2018
mehr Beiträge zum Thema Apple Final Cut Pro X


Specialsschraeg
20. Februar - 1. März / Berlin
Berlinale
22-27. Februar /
Berlinale Talents
11-18. März / Regensburg
Internationale Kurzfilmwoche Regensburg
18-22. März / Hofheim
Naturfilmfestival im Taunus
alle Termine und Einreichfristen


update am 17.Februar 2020 - 15:12
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*