Logo Logo
/// 

Tolle Artikelserie über Rauschen, Dynamk und Bittiefe in DSLRs



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Wer sich inhaltlich mit Kamera- und insbesonders mit Sensortechnik auseinandersetzt, muss sich seine Quellen i...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Tolle Artikelserie über Rauschen, Dynamk und Bittiefe in DSLRs




Antwort von enilnacs:

Genau! Danke! Und Frohe Weihnachten! :-D Und das bestätigt dass 4K 420 8bit zu NICHT-synthetischen 2k 444 9,6bit werden :-) Genial der Artikel!



Antwort von WoWu:

Und aus welchem Teil des Artikels kann man das Deiner Meinung nach zusammen phantasieren ?





Antwort von srone:

Und aus welchem Teil des Artikels kann man das Deiner Meinung nach zusammen phantasieren ?

aus rauschen und quantisierung und dem grundlegend vorherrschenden missverständnis - ein mehr an informationsmenge, würde ein mehr an informationsgüte kreiren. ;-)

lg

srone



Antwort von WoWu:

UNd dabei alle ArtefakteArtefakte im Glossar erklärt unberücksichtigt lassen, die im Bild entstehen.
Ich dachte immer, es geht um Video.
Aber selbst das kann ich daraus nicht wirklich erkennen.



Antwort von enilnacs:

Da entsteht nichts im Bild. Wer lesen kann (und rechnen) ist klar im Vorteil. Hier:

Quantizing the signal from the sensor in steps much finer than the level of the noise is thus superfluous and wasteful; quantizing the noise in steps much coarser than the level of the noise risks posterization. As long as the noise exceeds the quantization step, the difference between the coarser and finer quantization is imperceptible. As long as noise continues to exceed the quantization step in post-processing, it doesn't matter how one edits the image after the fact, since any squeezing/stretching of the levels also does the same to the noise, which will always be larger than the level spacing no matter how it is squeezed or stretched. On the other hand, quantizing the signal in steps coarser than the noise can lead to posterization. Ideally, the noise should slightly exceed the quantization step, in order that roundoff errors introduced by quantization are negligible, and that no bits are wasted in digitizing the noise.

Raw data is never posterized. That does not mean, however, that posterization cannot arise through raw conversion and post-processing. The condition for the absence of posterization is that the noise exceed the quantization step; we have seen that compression of levels and bit truncation can reintroduce posterization (for instance, Figure 18 was generated by compressing levels more and more), and levels/curves adjustments as well as gamma correction involve compression of levels in some part of the histogram, effectively doing a levels truncation in some exposure zones. Resampling involves averaging over neighboring pixels, which can reduce the level of noise below the quantization step; noise reduction has a similar effect. Finally, 12- or 14-bit image data are displayed or output on 8-bit devices, implementing a substantial bit truncation. All these effects can introduce posterization where it didn't exist previously. When posterization does arise, one must reconsider the processing chain that led to it and try to find an alternative route that avoids it. The main point of emphasis here is that the bit depth of the raw data is never the culprit.

The median filter is almost designed to introduce posterization. In an ordered list of numbers, the median is the middle number of the list (or the average of the two middle numbers if the list is of even length). For instance, the median of the list {4,8,8,12,16} is 8. The median filter in image processing replaces a given pixel's value with the median of all the pixels within the chosen radius of that pixel. In the bit-truncated gradient plus noise (the mouseover of Figure 17), noise fluctuations trick the eye into seeing in-between tonal values by virtue of the percentage of pixels having the nearby quantized values; our perception averages over fluctuating pixel values {4,8,8,12,16} and sees the average 4+8+8+12+16/5=9.6.

One might be concerned that while smooth gradients do not suffer under bit truncation in the presence of noise, details do. Again this is not a problem. Figure 19 shows the text+gradient introduced in the discussion of dynamic range. Recall that the noise was four raw levels, so truncating the last two bits (down to 6-bit tonal depth) should have essentially no impact on the legibility of the text. To see whether it does, mouse over the image to reveal the original 8-bit image, mouse off to return to the 6-bit version. Throwing away the noisy bits has little or no effect on the ability to extract the detail in the image.



Antwort von WoWu:

Und wer versteht, was er gelesen hat ist noch mehr im Vorteil, weil sich das auf den Sensor bezieht.
Selbstverständlich hat ein Sensorsignalen entsprechend mehr Quantisationsteps, je weniger NoiseNoise im Glossar erklärt er hat und/oder je höher er gebinnt wird..
Aus einem 8 BitBit im Glossar erklärt Sensor kannst Du easy durch Binning einen 14 Bis Sensor dadurch machen, dass durch das Binning der SNR erhöht wird. (Oder man durch mehrere Ports andere Verstärkungsfaktoren benutzt.
Aber nur am Sensor.

Das hat aber nicht die Bohne damit zu tun, dass man aus einem Signal im Postprocessing auch die gef. rechnerisch entstandenen Quantisierungssteps mit Bildinhalt füllt, die gar nicht mehr vorhanden sind.

Du musst mal endlich verstehen, was am Sensor geschieht und was im Postprocessing passiert.

Lesen allein reicht nicht.



Antwort von enilnacs:

Und wer versteht, was er gelesen hat ist noch mehr im Vorteil, weil sich das auf den Sensor bezieht.

Nein, steht sogar explizit drinnen.
Lesen allein reicht nicht.
Richtig, rechnen muss man auch können. LOL Du darfst mir mal gerne den R0 Delta des SNR erläutern und den Unterschied zum ADC (CMOS für den Anfang). Oder du könntest dich mal mit dem Artikel auseinandersetzen.

In meiner SignalProcessing Karriere hab ich schon lang nicht so ein Trolling von Videoleuten gesehen (auch altes 4K>2K Slashcam Artikel). Quasierklärungen und Pseudowissen ohne Beweise. Wenn ich es nicht besser wüsste, würde ich sagen: Troll, und ich antworte nur damit nicht so ein Mist im Raum steht, auf einer Profiseite wie Slashcam. Premiere & Co und ein wenig DSLR, RAW und Codecs kennen, machen keinen Digital Signal Experten. Ich würde mal vorschlagen ein Buch zu lesen um zu verstehen was QuantisierungQuantisierung im Glossar erklärt überhaupt ist, speziell ab Seite 73 bitte:
http://www.amazon.com/Digital-Image-Pro ... tal+cinema
Nichts für Ungut.



Antwort von WoWu:

Keine Ahnung, was Du mit rechnen meinst, das ist simpelster Stoff, den jeder Klippschüler rechnen kann.



Antwort von CameraRick:

Was immer verschwiegen wird ist wie man herunter skalieren soll.
Herunter skalieren ist ja nicht gleich herunter skalieren. Ein Median ist mir als Skalierungsfilter noch nicht unter gekommen.

Ob Du mit einem Bicubic, einem Sinc oder mit nearest Neighbour skalierst ändert das Ergebnis ja ganz erheblich...

Aber ist ja egal, muss ja stimmen wenn es auf so einer Website steht, also einfach irgendwie skalieren und nicht an existierende Fehler denken - die Zweifler haben recht, und die Befürworter denken sie kriegen besseres Material.
Alle gewinnen :)



Antwort von enilnacs:

Keine Ahnung, was Du mit rechnen meinst, das ist simpelster Stoff, den jeder Klippschüler rechnen kann.

Genau, jaaaaa. Aber sicher doch. Die machen auch die Sensoren sensitiv. ;-) Viel spass noch mit dem Trollen. "Keine Ahnung" stimmt auch. ;-)



Antwort von WoWu:

Schade, dass Dir sachliche Argumente ausgehen.
Aber Du schreibst ja selbst ... lesen reicht nicht.
Vielleicht steigst Du nochmal einwenig genauer in die Materie ein und begreifst auch eines Tages, wie es funktioniert dann hast Di die Chamce, für alle die, die es auch noch nicht kapiert haben, ebenso als Troll zu erscheinen.
Stellt sich als die Frage, wer der Troll ist.
Auf jeden Fall hast Du gezeigt, dass Du weißt, in welchem Bich und auf welcher Seite Quntisierung beschrieben ist. Daraus könnte man (mit sehr viel Wohlwollen) ableiten, dass Du es gelesen hast, aber nicht, dass Du es auch verstanden hast. Das scheint ganz offensichtlich.
Dann tschüss, bis bald.

@Rick

Es steht ja nicht mal auf der WEB-Seite, denn die bezieht sich nur auf Sensor Belange, in dem Zusammenhang, in dem der Autor das Topic beschreibt, stimmt es auch.
Nur dass eben hier (mal wieder) eine Projektion auf den Prezessweg stattfindet, wo die, vom Autor beschriebenen Umstände irrelevant sind.



Antwort von Rick SSon:

Schade, dass Dir sachliche Argumente ausgehen.
Aber Du schreibst ja selbst ... lesen reicht nicht.
Vielleicht steigst Du nochmal einwenig genauer in die Materie ein und begreifst auch eines Tages, wie es funktioniert dann hast Di die Chamce, für alle die, die es auch noch nicht kapiert haben, ebenso als Troll zu erscheinen.
Stellt sich als die Frage, wer der Troll ist.
Auf jeden Fall hast Du gezeigt, dass Du weißt, in welchem Bich und auf welcher Seite Quntisierung beschrieben ist. Daraus könnte man (mit sehr viel Wohlwollen) ableiten, dass Du es gelesen hast, aber nicht, dass Du es auch verstanden hast. Das scheint ganz offensichtlich.
Dann tschüss, bis bald.

@Rick

Es steht ja nicht mal auf der WEB-Seite, denn die bezieht sich nur auf Sensor Belange, in dem Zusammenhang, in dem der Autor das Topic beschreibt, stimmt es auch.
Nur dass eben hier (mal wieder) eine Projektion auf den Prezessweg stattfindet, wo die, vom Autor beschriebenen Umstände irrelevant sind.

Kurz gesagt: Wat wech is, is wech?



Antwort von domain:

Ziemlich beeindruckend fand ich die positiven Auswirkungen von moderatem Dithering bei geringen Bittiefen. Der Fehler der Zusammenfassung von ähnlichen, aber nicht identischen Luma- und Chromawerten führt ja zu den scheußlichen Bandingeffekten, die aber durch einen anderen Fehler, nämlich über einen eingeführten Fehlerverteilungsalgorithmus (= Dithering) für die Wahrnehmung des Auges m.E. dramatisch verbessert werden können. Ist aber offenbar nicht in der Post möglich, sondern nur bei RAW oder direkt nach dem Sensor vor der quantisierenden Komprimierung.
Entspricht eigentlich dem Wunsch all jener, die den glatten Videolook nicht mögen: feinstes Korn wie in einem Analogfilm aber ohne Auflösungsverlust.



Antwort von WoWu:

Nur da beißt sich eben die Katze wieder in den Allerwerteste denn da vorne hab ich ausreichend Breite, sodass ich gar nicht erst dithern muss und da, wo das Prozessing die Banbreite reduziert geht es nicht.
Also im Grunde genommen keine neuen Erkenntnisse.



Antwort von mash_gh4:

Ist aber offenbar nicht in der Post möglich, sondern nur bei RAW oder direkt nach dem Sensor vor der quantisierenden Komprimierung.

doch, ist auch dort möglich od. sogar nötig, wenn man ein projekt nach bearbeitung mit hoher rechengenauigkeit abschließend mit geringererem tonwerteumfang/-auflösung ausgeben will. es gibt dabei verschiedene lösungen, ob das dithering dabei global erfolgt, oder recht selektiv banding-gefährdete übergänge berührt.

das größere problem ist allerdings die tatsache, dass komprimierung und dither sich nicht gut vertragen bzw. unmittelbar gegeneinander arbeiten.



Antwort von domain:

Schon klar, dass mit Korn jeder komprimierende CodecCodec im Glossar erklärt gehörig ins Schwitzen gerät. Aber wozu gibt es hohe Datenraten, zunehmend tüchtige Hard- und Firmware in den Camcordern und preiswerte Speicher dazu?



Antwort von CameraRick:


@Rick

Es steht ja nicht mal auf der WEB-Seite, denn die bezieht sich nur auf Sensor Belange, in dem Zusammenhang, in dem der Autor das Topic beschreibt, stimmt es auch.
Nur dass eben hier (mal wieder) eine Projektion auf den Prezessweg stattfindet, wo die, vom Autor beschriebenen Umstände irrelevant sind.
Wir nehmen mal an, es stünde dort. Wie es auch auf anderen Websites steht.

Ich habe noch nicht heraus gefunden auf welche Art ist skalieren müsste, damit es klappt. Auf die Frage gibt es dann oft nur einen Zwinkersmiley und die Ansage ich würde nicht recht lesen oder bin zu blöd, es zu verstehen. Ganz offensichtlich bin ich das, daher frage ich ja nach.

Skaliere ich alles mit einem Sinc kann ich ja gut und gerne auch negative Werte kriegen, gerade an starken Kontrastkanten. Dafür ists knackig. Ich will ja aber nicht knackig sondern 10bit 444... wenn ich jetzt einen Mitchell nutze wird alles schön soft, aber ist das der Preis für die Vorzüge?
Bei nearest neighbour kann es ja gar keine Vorzüge geben, das ist unlögisch.

Das mag immer sehr kleinlich klingen für die, die es ja durchschaut haben und wissen wie man die Qualität steigert. Aber die ganze Theorie, wenn sie denn stimmt, ist doch latte wenn Dir keiner sagen kann wie man es praktisch macht.
Denn nur "herunter skalieren" kann ja, de facto, nicht stimmen. Zumindest nicht per se, da kommts auf die Technik an die jeder verschweigt.



Antwort von WoWu:

@Rick
Es ist nicht weiter verwunderlich, dass auf Deine Frage keine Antwort kommt, weil die Verfechter der "konstruktiven Downscale-Theorie" die Wirkung der Unterabtastung niemals im Blick haben sondern lediglich die Mathematik, die sagt ... wenn ich bei einer zweiten Unterabtastung lediglich die Luma Werte, nicht aber die Chromawerte unterabtastet, erhalte ich die gleiche Menge Luma und Chromawerte. Sie nennen das dann 4:4:4.
Sie berücksichtigen aber niemals, dass eine Interpolation Aiswirkungen auf das Bild hat und bereits bei der ersten Interpoöation andere Farbwerte (Säume, Unschärfen, Moire usw.) entstanden sind, die im Original gar nicht vorhanden waren und berücksichtigen bei Ihrer Theorie somit auch nicht die Auswirkungen auf die Bildqualität.
Sie zählen nur die Mathematik und damit das Verhältnis der Samples zueinander.
Dass sie dann in Wirklichkeit 2:2:0 statt 4:4:44:4:4 im Glossar erklärt haben, ist ihnen eigentlich nicht klar.
Und wenn man lediglich die dann entstandenen AbtastfrequenzenAbtastfrequenzen im Glossar erklärt betrachtet, sind die auch gleich, nur das hat nichts mit Vodeo zu tun, weil es dem Anwender ziemlich egal ist, ob er ein mieses Bild bei 4:2:04:2:0 im Glossar erklärt oder ein ebenso Moses Biöd bei 4:4:44:4:4 im Glossar erklärt hat.
Du verbesserst also die Bildqualität nicht dadurch, dass Du die Abtastfrequenz für Luma halbierst, um auf dieselbe niedrige Abtastfrequenz von Chroma kommst, weil bei dieser Änderung auch die Lumawerte interpoliert werden und nicht etwa die bereits niedrige Chromafreqienz erhöht, geschweige denn die Fehler, die in der Bilddarstellung bereits in der ersten Unterabtastung entstanden sind, rückgängig gemacht werden.
Die Diskrepanz liegt also darin, dass Vodeo keine Mathematik ist und jede Mathematische Änderung eine Auswirkung im Bild hat, die destruktiv sind.
Daher klappt das auch nicht mit den Biildverbesserungen ... weil die sich im Bild nicht mehr die Anteile finden, die man zur Verbesserung benötigt (Beispiel mit der Gelben Linoe zwischen Rot und Gn, die erst durch die Interpoöation entstanden ist und überhaupt nicht zum Originalbild gehört).

Daher ist Deine Frage rethorisch ... welchen Algorithmus man zur zweiten Interpoöation (Unterabtsatung/Downscaling) benutzen muss, um das Bild zu verbessern.
Man kann mit den unterschiedlichen Interpoöationsmethoden zwar das bereits verminderte Bild verändern, aber die ursprünglichen Werte (gelbe Linie) nicht mehr in die ursprungsfarben zurück verwandeln, was aber notwendig wäre, um 4:4:44:4:4 im Glossar erklärt zu erzeugen. Du wirst es also immer mit 2:2:0 zu tun haben.
Darüber hinaus wirst Du auch die Kantenschärfumgen, die bei der ersten Filterung zur Unterabtastungen obligatorisch sind, nicht mehr rückgängig machen können und bekommst bei der zweiten Unterabtastung (Downscaling) eine weitere Lowpassfilterumg, also Kamtenschärfumg, hinzu.
Wer Kanten mag, empfindet solche angespitzten Bilder als Verbesserung, mit einer Rückführung nach 4:4:44:4:4 im Glossar erklärt hat das allerdings nichts zu tun.

Damit erklärt sich dann auch, warum Dir bisher niemand Deine Frage beantworten konnte, weil Du nach etwas fragst, dass die gar nicht im Schirm hatten, nämlich die Auswirkungen auf das Bild und selbst die Mathematik dahinter nur unzureichend beherrschen.



Antwort von enilnacs:

@Rick
Die Diskrepanz liegt also darin, dass Vodeo keine Mathematik ist und jede Mathematische Änderung eine Auswirkung im Bild hat, die destruktiv sind.
Daher klappt das auch nicht mit den Biildverbesserungen ... weil die sich im Bild nicht mehr die Anteile finden, die man zur Verbesserung benötigt (Beispiel mit der Gelben Linoe zwischen Rot und Gn, die erst durch die Interpoöation entstanden ist und überhaupt nicht zum Originalbild gehört).

Das ist purer Unfug. Supersampling, Multisampling, Sinc, etc. sind Mathematik pur und sind nur ein glänzender Beweis für konstruktive Algorithmen. Und die Behauptung dass Zwischen Rot und Grün, Gelb entsteht ist ein Unsinn im RGBRGB im Glossar erklärt (RAWPattern) Farbraum wo jede Farbe getrennt verarbeitet wird. Das is kein Malkasten, das sind Kanäle und die gehören alle zum Originalbild! Und Interpolation(klein auf gross) ist nicht Subsampling(gross auf klein). Somit fällt auch der Rest.



Antwort von WoWu:

Alles klar.
Das bestätigt meine Vermutung.



Antwort von CameraRick:

@Rick
Die Diskrepanz liegt also darin, dass Vodeo keine Mathematik ist und jede Mathematische Änderung eine Auswirkung im Bild hat, die destruktiv sind.
Daher klappt das auch nicht mit den Biildverbesserungen ... weil die sich im Bild nicht mehr die Anteile finden, die man zur Verbesserung benötigt (Beispiel mit der Gelben Linoe zwischen Rot und Gn, die erst durch die Interpoöation entstanden ist und überhaupt nicht zum Originalbild gehört).

Das ist purer Unfug. Supersampling, Multisampling, Sinc, etc. sind Mathematik pur und sind nur ein glänzender Beweis für konstruktive Algorithmen. Und die Behauptung dass Zwischen Rot und Grün, Gelb entsteht ist ein Unsinn im RGBRGB im Glossar erklärt (RAWPattern) Farbraum wo jede Farbe getrennt verarbeitet wird. Das is kein Malkasten, das sind Kanäle und die gehören alle zum Originalbild! Und Interpolation(klein auf gross) ist nicht Subsampling(gross auf klein). Somit fällt auch der Rest.
Lieber enilacs,

Du bist immer eifrig dabei den WoWu dumm zu reden und ihn falsch hin zu stellen.

Aber auf die Frage, wie man das nun skaliert, gehst Du auch nicht ein. Der WoWu erklärt hier den Sachverhalt, wie er ihn sieht - gründlich sogar.
Ich vermisse aber sehr den Input zur angewandten Praxis - wie muss ich das nun skalieren?
Mich würde das wirklich interrssieren, wie man sich das vorstellen muss.

Ich schreibe das ganz bewusst so neutral, weil ich in der Angelegenheit sehr agnostisch bin.
Ich würds gerne mal probieren, nur erfährt man ja nirgends, wie genau?




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Rauschen reduzieren bei dslr
Tolle Artikelserie über Rauschen, Dynamk und Bittiefe in DSLRs
Canon erwartet 50% schrumpfenden Weltmarkt für DSLR + Mirrorless
Suche Kamera - Camcorder oder DSLR
Canon präsentiert mit der PowerShot G1 X Mark III DSLR Qualität
Pentax KP - APS-C DSLR jetzt auch mit 4K
Suche 4K Kamera (non-DSLR)
DSLR und Raspberry Pi
Selbstständig mit DSLR? (Videografie)
Anfänger mit der DSLR Kamera
DSLR Baukasten
Externe Tally Lamp an Canon DSLR
mini Rigs von Redrock Micro für DSLMs und DSLRs
Stu Maschwitz über RAW und Log
Kostenloser Pixar Kurs über Animation, Storytelling und Color Science
Canon zeigt 2,5K Broadcast-Sensor mit Global Shutter und über 13 Blend
Ausgewählte Kickstarter-Produkte über Amazon verfügbar
Kalifornien schränkt Drohnenflüge über Privatgrund stark ein
Akira Kurosawa über das Filmemachen, das Schreiben und die Motivation
Reikan FoCal 2.0: Autofokus Kalibrierung für DSLRs per Software
Edelkrone QuickReleaseONE -- Quick Release Adapter für DSLRs uä.
AMD R9 Nano Performance über 7 TFLOPS?
Adobe: Bildbearbeitung bald auch über Sprachkommandos?
7 kostenlose Looks berühmter Filme von SmallHD
Über die Verwendung von Farbe im Filmbild
ARRI denkt über Ausbildungs-Kamera nach

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
7-10. November / Linz
Linz International Short Film Festival
alle Termine und Einreichfristen