Logo Logo
/// 

Informationstheorie - einfach erklärt: "An Intuitive Look at the Basics of Information Theory"



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Auch wenn sich das Thema etwas abseits von unseren üblichen News Themen bewegt könnten wir diesen besonders frischen Artikel auf Medium wirklich jedem ans Herz legen, der...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Informationstheorie - einfach erklärt: "An Intuitive Look at the Basics of Information Theory"




Antwort von dosaris:

interessante Darstellung der basics.

Möglicherweise fragen sich aber doch einige,
wat hilft mich dat?

Ein konkreter Erklärungsansatz ergibt sich daraus, was die Bit-Tiefe mit der Datenrate zu tun hat,
insbesondere die Abschätzung 8bit vs 10bit.

Natürlich ist im Idealfall sicher 10bit Auflösung besser als 8 bit Auflösung.
In diesem Idealfall würde die Datenrate eben ca 1/4 höher.
no big deal!

Aber der Knackpunkt steckt (siehe der referenzierte Artikel) eben darin, was in den zusätzlichen (unteren) 2 bit drin steckt.
Wenn darin nur (zusätzliches) Bildrauschen steckt wird die Datenrate eben nicht nur 25% höher sondern es können
eben auch mal über 200% Aufschlag werden. Eben weil die Entropie des zu komprimierenden Signals (durch das Rauschen)
schlagartig viel größer wird. Und dadurch wird gleichermaßen die benötigte Speicherchip-Qualität u -Größe
entsprechend höher ohne dass das Videosignal eine bessere Qualität bekommt. Od umgekehrt - weil
encoder immer nach bit-budget-Vorgaben arbeiten - kann die Qualität des nutzbaren Bildinhaltes bei 10bit
sogar schlechter sein als bei 8bit trotz wesentlich erhöhter Datenmenge.

Man muss sich also wirklich überlegen, wofür man die 2 zusätzlichen Bit realistisch nutzen kann/will.



Antwort von cantsin:

dosaris hat geschrieben:
Aber der Knackpunkt steckt (siehe der referenzierte Artikel) eben darin, was in den zusätzlichen (unteren) 2 bit drin steckt.
Wenn darin nur (zusätzliches) Bildrauschen steckt wird die Datenrate eben nicht nur 25% höher sondern es können
eben auch mal über 200% Aufschlag werden.
Was auch die Erklärung dafür ist, warum viele 'Raw'-Formate inkl. Blackmagic Raw/BRAW mittlerweile vorab bzw. kameraintern rauschgefiltert sind.








Antwort von SonyTony:

Und zeigt, warum in log drehen, wenn man die Schwarzwerte in der Post sowieso absenken will nicht unbedingt mehr Qualität bringt.
Vor allem nicht, wenn das Signal stark komprimiert.

cantsin hat geschrieben:
dosaris hat geschrieben:
Aber der Knackpunkt steckt (siehe der referenzierte Artikel) eben darin, was in den zusätzlichen (unteren) 2 bit drin steckt.
Wenn darin nur (zusätzliches) Bildrauschen steckt wird die Datenrate eben nicht nur 25% höher sondern es können
eben auch mal über 200% Aufschlag werden.
Was auch die Erklärung dafür ist, warum viele 'Raw'-Formate inkl. Blackmagic Raw/BRAW mittlerweile vorab bzw. kameraintern rauschgefiltert sind.




Antwort von dienstag_01:

cantsin hat geschrieben:
dosaris hat geschrieben:
Aber der Knackpunkt steckt (siehe der referenzierte Artikel) eben darin, was in den zusätzlichen (unteren) 2 bit drin steckt.
Wenn darin nur (zusätzliches) Bildrauschen steckt wird die Datenrate eben nicht nur 25% höher sondern es können
eben auch mal über 200% Aufschlag werden.
Was auch die Erklärung dafür ist, warum viele 'Raw'-Formate inkl. Blackmagic Raw/BRAW mittlerweile vorab bzw. kameraintern rauschgefiltert sind.
Ich denke nicht. Gerade bei Raw würde es Sinn machen, die Daten für die Post einfach durchzureichen, das entspricht ja auch dem eigentlichen Sinn von Raw. Ist am Anfang bei den ersten Kameras auch so gewesen. Geändert haben sich vor allem die Sensoren und damit das Processing in der Kamera, Rauschunterdrückung findet bei modernen Kameras auf dem Sensor statt, vor der Digitalisierung. Das macht Sinn für alle standardisierten Videoformate. Für Raw, wo es eigentlich weniger Sinn macht, bleibt aber gar keine andere Möglichkeit mehr, da die Sensoren nun mal so gebaut sind.



Antwort von cantsin:

Allerdings stellt sich jetzt durch Deep Learning/neuronale Netze/KI die Frage, inwieweit diese klassischen Annahmen der Informationstheorie und Grundlagen der Datenkompression noch für zukünftige Systeme Bestand haben werden.

Um das Beispiel aus dem Artikel zu nehmen: Pixelrauschen ist für die menschliche Wahrnehmung "repetitiv und redundant", für einen Kompressionsalgorithmus wegen der hohen Entropie aber maximal komplex bzw. nicht-redundant, daher mit hohem Informationsgehalt und schlecht komprimierbar. Wenn man jetzt aber Deep Learning-trainierte Kompressionsalgorithmen auf das Pixelrauschen loslässt, interpretieren die das Rauschen einfach als Rauschen und speichern es mit einem Bit weg. (Also reduziert sich dann die Kolmogorow-Komplexität des Rauschmusters von maximal auf minimal.)

Spannende Zeiten...



Antwort von cantsin:

dienstag_01 hat geschrieben:
Ich denke nicht. Gerade bei Raw würde es Sinn machen, die Daten für die Post einfach durchzureichen, das entspricht ja auch dem eigentlichen Sinn von Raw. Ist am Anfang bei den ersten Kameras auch so gewesen. Geändert haben sich vor allem die Sensoren und damit das Processing in der Kamera, Rauschunterdrückung findet bei modernen Kameras auf dem Sensor statt, vor der Digitalisierung. Das macht Sinn für alle standardisierten Videoformate. Für Raw, wo es eigentlich weniger Sinn macht, bleibt aber gar keine andere Möglichkeit mehr, da die Sensoren nun mal so gebaut sind.
Ist aber bei Blackmagics aktuellen Kameras (wie der Pocket 4K und 6K) definitiv nicht so, weil Du da neben dem rauschgefilterten BRAW auch noch nicht-rauschgefilterte DNG-Stills aufnehmen kann, die sich im Rauschmuster sehr deutlich von BRAW unterscheiden. Blackmagic gibt auch selbst an, dass bei BRAW temporal denoising gemacht wird.



Antwort von dienstag_01:

cantsin hat geschrieben:
Allerdings stellt sich jetzt durch Deep Learning/neuronale Netze/KI die Frage, inwieweit diese klassischen Annahmen der Informationstheorie und Grundlagen der Datenkompression noch für zukünftige Systeme Bestand haben werden.

Um das Beispiel aus dem Artikel zu nehmen: Pixelrauschen ist für die menschliche Wahrnehmung "repetitiv und redundant", für einen Kompressionsalgorithmus wegen der hohen Entropie aber maximal komplex bzw. nicht-redundant, daher mit hohem Informationsgehalt und schlecht komprimierbar. Wenn man jetzt aber Deep Learning-trainierte Kompressionsalgorithmen auf das Pixelrauschen loslässt, interpretieren die das Rauschen einfach als Rauschen und speichern es mit einem Bit weg. (Also reduziert sich dann die Kolmogorow-Komplexität des Rauschmusters von maximal auf minimal.)

Spannende Zeiten...
Wenn die Unterscheidung zwischen Rauschen und Information in einem verrauschten Bild von unserem Gehirn vorgenommen wird, kann man nicht nur die Frage nach Datenreduzierung für Kompressionsalgorithmen stellen, sondern auch, wieviel Information eigentlich auf diesem Weg durch unser Gehirn verloren geht/ausgeblendet wird. Vielleicht, wenn wir unsere Wahrnehmung und die Kompessionstechnik auf dieser Stufe wieder zusammenführen, erhalten wir im Ergebnis ein 4bit Bild mit Banding wie aus LSD-Zeiten, weil, mehr Information ist für unser Gehirn eh nicht im Ausgangsbild, sagt die KI ;)



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Ich denke nicht. Gerade bei Raw würde es Sinn machen, die Daten für die Post einfach durchzureichen, das entspricht ja auch dem eigentlichen Sinn von Raw. Ist am Anfang bei den ersten Kameras auch so gewesen. Geändert haben sich vor allem die Sensoren und damit das Processing in der Kamera, Rauschunterdrückung findet bei modernen Kameras auf dem Sensor statt, vor der Digitalisierung. Das macht Sinn für alle standardisierten Videoformate. Für Raw, wo es eigentlich weniger Sinn macht, bleibt aber gar keine andere Möglichkeit mehr, da die Sensoren nun mal so gebaut sind.
Ist aber bei Blackmagics aktuellen Kameras (wie der Pocket 4K und 6K) definitiv nicht so, weil Du da neben dem rauschgefilterten BRAW auch noch nicht-rauschgefilterte DNG-Stills aufnehmen kann, die sich im Rauschmuster sehr deutlich von BRAW unterscheiden. Blackmagic gibt auch selbst an, dass bei BRAW temporal denoising gemacht wird.
Und wie erklärst du dir dann den Unterschied zwischen RAW und DNG? Dein Argument Datenrate würde ja auch für DNG zutreffen.



Antwort von SonyTony:

Es gab ja auch ein paar mal schon Artikel zum Thema, ob man statt 10 Bit nicht einfach 8 Bit nehmen kann und am Ende einfach Film Grain drüber legt um das banding zu überdecken. Das könnte an solchen vereinzelten Stellen, wo es mal auftritt, einfacher sein. Habe das am Beispiel an Farbverläufen im Himmel gesehen, aber vielleicht hilft es auch bei Kompressionsartefakten im Schatten. Dann könnte das Hochkomprimierte intern denoisete Bild nahe an einem ohne Kompression aufgenommenen sein. Trotzdem werden mit dickerer Datenrate natürlich ein paar Details mehr aufgenommen, die Frage ist immer: ist es den Aufwand wert?



Antwort von dosaris:

cantsin hat geschrieben:
Allerdings stellt sich jetzt durch Deep Learning/neuronale Netze/KI die Frage, inwieweit diese klassischen Annahmen der Informationstheorie und Grundlagen der Datenkompression noch für zukünftige Systeme Bestand haben werden.
ja, klar,
aber bis das in die Cams einzieht wird wohl noch 1 Jahrzent vergehen.
Das braucht richtig Rechenpower.

Benutze das für die Restauration alter VHS-Aufnahmen auf dem Desktop-Rechner.
Selbst auf nem 12KernProzessor benötigt der ca 1 sec / Frame :-(



Antwort von cantsin:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Ist aber bei Blackmagics aktuellen Kameras (wie der Pocket 4K und 6K) definitiv nicht so, weil Du da neben dem rauschgefilterten BRAW auch noch nicht-rauschgefilterte DNG-Stills aufnehmen kann, die sich im Rauschmuster sehr deutlich von BRAW unterscheiden. Blackmagic gibt auch selbst an, dass bei BRAW temporal denoising gemacht wird.
Und wie erklärst du dir dann den Unterschied zwischen RAW und DNG? Dein Argument Datenrate würde ja auch für DNG zutreffen.
Sorry, irgendwie verliere ich Dich jetzt. BRAW hat eine deutlich geringere Datenrate als DNG, eben auch dank der temporalen Noisefilterung.

EDIT:
Hier ein verrauschter BRAW-Beispielframe:

zum Bild


...und hier der korrespondierende DNG-Frame, mit derselben Kamera, demselben Motiv und unter demselben Licht:

zum Bild









Antwort von cantsin:

dosaris hat geschrieben:
cantsin hat geschrieben:
Allerdings stellt sich jetzt durch Deep Learning/neuronale Netze/KI die Frage, inwieweit diese klassischen Annahmen der Informationstheorie und Grundlagen der Datenkompression noch für zukünftige Systeme Bestand haben werden.
ja, klar,
aber bis das in die Cams einzieht wird wohl noch 1 Jahrzent vergehen.
Das braucht richtig Rechenpower.
Na, auf primitivere Weise geht das ja schon - AFAIK sind in h264 und h265 Verfahren implementiert, um beim Encoding Rauschen zu filtern, um die Datenrate zu drücken, und dann beim Decoding/Abspielen wieder künstliches Rauschen hinzuzufügen.



Antwort von Darth Schneider:

Also mir persönlich soll es recht sein wenn BMD so viel Rauschen wie möglich weg putzt, gerade z.B. die Pocket 4K hat schliesslich ja einen MFT Sensor.
Das ist grundsätzlich nicht verkehrt.
Und auch bei einer Ursa mit 12K und tonnenweise Megapixel ist das doch auch nicht sooo verkehrt, die Bezeichnung raw hin oder her.
Ich sehe, oder spüre keinen massgeblichen, oder irgend in einer Form störenden Unterschied zwischen dng und BRaw. Nur ich finde BRaw macht mehr Spass und Ressourcen sparend doch durchaus Sinn beim arbeiten. ;)
Aber das sind nur meine Augen.
Gruss Boris



Antwort von pillepalle:

Ihr macht das ja auch alle falsch :P Die zwei zusätzlichen Bits müssen natürlich oben zu den Lichtern dazu kommen, dann hat man auch 100% Nutzsignal :)

VG



Antwort von SonyTony:

Alles klar! Wird gemacht! Also immer eine Lampe dazustellen und direkt in die Kamera leuchten. Dann hab ich mehr helle Bereiche. :)
pillepalle hat geschrieben:
Ihr macht das ja auch alle falsch :P Die zwei zusätzlichen Bits müssen natürlich oben zu den Lichtern dazu kommen, dann hat man auch 100% Nutzsignal :)

VG




Antwort von Jott:

" Natürlich ist im Idealfall sicher 10bit Auflösung besser als 8 bit Auflösung.
In diesem Idealfall würde die Datenrate eben ca 1/4 höher."

Höhere Mathematik?



Antwort von Whazabi:

Naja also diese 8bit vs 10bit Thematik ist doch relativ einfach zu ermitteln.
Angenommen der Sensor liefert mehr als 10 stops Dynamik, brauch ich entweder 10+ bit oder log oder beides. Wenn es weniger ist dann brauch ich auch nicht so genau auflösen.

Wie viel Dynamik der Sensor liefern kann hängt sowohl von der Kamera, als auch vom Motiv ab.
Wenn ich kaum Kontrast hab, dann kann ich mir die höhere Datenrate schenken.
Aber schlechter wird das Ergebnis dadurch nicht. Im schlimmsten Fall hab ich halt die zusätzliche Datenrate vergeudet, um mein Rauschen detaillierter zu speichern ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Linearisierung einfach erklärt - Computer Color is Broken...
Pseudo-Information in 8bit-Rec709-Superwhites?!?
Codec und Konvertierung Basics
ARRI TECH TALK Live: Commercial Lighting Basics
Konsistente Farben für Filmprojekte - ACES in Theorie und Praxis Teil 1: Die Basics
DEUTSCHLAND in highspeed erklärt
Jeromy Young erklärt ProResRaw!
A7III Funktionen toll erklärt!
Auch IMAX erklärt VR-Testlauf für gescheitert
Adobe Lumetri Panel sehr ausführlich erklärt?
Werden REDs RAW Patente für ungültig erklärt?
Sony erklärt S-Log3 und Cine EI anhand der FX30
Die HDR-Wheels in DVR 17 auch für SDR erklärt
einfach mov-Video schneiden
ProjektX ist einfach unbrauchbar...
Einfach zu bedienender Recorder gesucht
Jinni.Tech erklärt das Redcode Patent - für banal und Prior Art
Sony PXW-FX9 - Bedienung: Die wichtigsten Kamera-Menüs erklärt und im Überblick
Messevideo: Adobe Premiere Pro CC - Freeform View und Lineale + Hilfslinien erklärt // NAB 2019
DVD vom Standalone am PC (einfach) schneiden
Kapitelmarken setzen? Womit einfach machbar?
Messevideo: ARRI ALEXA LF - neue Monitoring Funktionen erklärt, neuer Viewfinder EVF-2 uvm. // IBC 2018
Neuer PC - wenn es doch nur so einfach wäre
Schnell und einfach zum eigenen 3D-Charakter
Tutorial-Clip: ARRI Signature Primes von Art Adams erklärt: Hauttöne, Film vs digitaler Look, Bokeh, Flares ...
SONY HDR-AS30V schaltet einfach komplett aus

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom