Logo
///  >

Grundlagen : Wie deutet man die 4K-Testbilder aus der 4K-Datenbank richtig?

von Mi, 11.Mai 2016


Nachdem in unserer neuen 4K Datenbank auch die 4K-Debayering Testbilder zum direkten Vergleich aufgerufen werden können, wollen wir in einem separaten Grundlagenartikel darstellen, auf welche Stellen es in diesem Bild besonders ankommt.

Zu Beginn noch ein letztes mal etwas grundsätzliches: Für unseren 4K Schärfe/Debayering-Test filmen wir unseren virtuellen Testchart-Ausschnitt so ab, dass der orange gekennzeichnete Bereich in der Aufnahme möglichst genau 340 PixelPixel im Glossar erklärt breit ist.



In FullHDFullHD im Glossar erklärt (oben links) würden die 340 PixelPixel im Glossar erklärt des Ausschnitts erreicht, wenn man das Chart exakt bildschirmfüllend abfilmt. In 4K/UHD muss man den Kamera-Abstand zu dem virtuellen Chart jedoch vergrößern, damit der geplante Ausschnitt wieder 340 PixelPixel im Glossar erklärt breit wird. Nur so erreicht man in 4K auch kritische Frequenzbereiche in der Kreisen mit dem klassischen ISO 11223 Chart-Ausschnitt.

Aufgrund dieses neuen Abstands sind die Bildergebnisse zwischen dieser neuen 4K-Messung und den alten FullHD-Messungen NICHT vergleichbar. Wir haben unser Testbild jedoch in den letzten Jahren etwas erweitert, um noch mehr Informationen zur Sensorauslesung und zum allgemeinen Schärfeverhalten der Kamera beim Debayering zu erhalten. Doch auf welche Stellen im Bild sollte man besonders achten und was bedeuten interessante Veränderungen bzw. Bildfehler?

Zu Beginn vielleicht das bislang perfekteste 4K Debayering, das wir bislang in unserer Reaktion hatten: Die leider kaum noch erhältliche Samsung NX1 darf sich diese Krone stolz aufsetzen:



In der Mitte sehen wir den 340 Pixel-Ausschnitt aus dem ISO11223-Chart. Darum herum haben wir so genannte Sweeps gelegt. Dies sind immer feiner zusammenlaufende Linenpaare. Einmal schwarz weiß und einmal rot-grün, sowohl vertikal als auch horizontal: Im hier gezeigten Samsung-NX1-Ergebnis lässt sich auch noch in den “feinsten” Abschnitten der Sweeps ein originalgetreues Muster erkennen. Doch sehen wir uns einmal an, was beim Debayering auch so alles schief gehen kann.

Die größten Probleme hat eine Kamera, wenn für jedes PixelPixel im Glossar erklärt im Bild nur ein Sensel des Sensors zur Verfügung steht (1:1 Sensor Readout). Dann muss die Farbinformation aus benachbarten Senseln gewonnen werden. Fast alle aktuellen 4K-Kameras arbeiten mit einem sogenannten Bayer-Pattern. Um die fehlenden Farbinformationen in der Kamera zu interpolieren haben die Hersteller in der Regel drei Optionen:

Luma dominiert bevorzugen. In so einem Fall sind die Kreise im Bild nahezu perfekt. Auch viele schwarz/weiß-Kontrastkanten sehen gut aus, solange der WeißabgleichWeißabgleich im Glossar erklärt korrekt ausgeführt wurde. In den farbigen Chroma-Sweeps kommt es im Gegenzug zu starken Verpixelungen. Ein typisches Beispiel ist hierfür die erste Generation von Blackmagics 4K Kameras mit dem CMOSIS Sensor:



Eine Vergrößerung der kritischen Bereiche zeigt deutlich dass ein Zusammenlegen der Farbinformationen praktisch gar nicht stattfindet. Der Farbeffekt entsteht hier mehr durch eine Art Dithering, das visuell ähnliche Probleme machen kann wie Aliasing:



Die meist bilineare Interpolation ist das typische Verhalten großer Hersteller (so u.a. fast alle 4K-Kameras von Sony und Canon mit einem 1:1 PixelPixel im Glossar erklärt Readout). Hier wird die fehlende Farbinformation durch ihre Nachbarpixel interpoliert, also gemittelt:



Dies sorgt dann typischerweise für Falschmuster in den feinen Luma-Kreisstrukturen, dafür werden im Gegenzug die Chroma-Details nicht so stark verpixelt und besitzen weniger Aliasing-Probleme wie im ersten Fall.

Hier eine Vergrößerung des relevanten Bereiches:



Der dritte Weg ist eine Art Filterung feiner Details. Panasonic geht unter anderem bei der GH4 (aber auch anderen Kameras) diesen Weg:



Die Vergrößerung macht gut sichtbar, dass Details in einer Art Weichzeichung untergehen. Dafür kämpft man fast gar nicht mit Moire-Problemen. Für Cinema-Ästetik ist dies in der Regel ein Vorteil, der bei teureren Cine-Kameras meist durch optische Lowpass Filter (OLPs) erzielt wird.



Andere Kameras übertreiben jedoch manchmal auch stark mit ihrer Filterung oder legen etwas seltsame Pattern an den Tag, wie beispielsweise die JVC GY-LS300:



Dieses Bild ist nicht verwackelt sondern der Sensor scheint eine Art diagonale Filterung vorzunehmen. Diese lässt horizontale und vertikale Luma-Messungen relativ gut aussehen, aber diagonale Details verschwinden fast komplett. Solche Debayering-Verfahren bekommt man jedoch eher selten zu Gesicht.

Kurz gesagt:

Um ein einwandfreies Debayering bei einem Bayer Pattern Sensor hinzubekommen reicht ein 1:1-Pixel Readout nicht. Wird jedes Sensor-Sensel später ein PixelPixel im Glossar erklärt, muss der Hersteller beim Debayering einen Kompromiss eingehen. Und dieser spiegelt sich immer in den aufgeführten Fällen (oder einem Mix daraus) wieder. Das gilt übrigens auch für RAW-Aufzeichnung. Nur muss man dann die Debayering-Entscheidung (sofern überhaupt möglich) in der Postproduktion treffen.

Dass es auch besser geht zeigt(e) Samsung oder aktuell auch Sony mit der A7RII. Denn wenn man mehr Sensel des Sensors nutzen kann, kann man durch herunterrechnen der höheren Sensor-Auflösung ein nahezu perfektes 4K/UHD-Debayering erzielen. Allerdings bedeuten mehr Sensel auch kleinere Sensel und damit weniger Dynamik sowie mehr Read-Out-Zeit und damit verschlechterte Rolling ShutterShutter im Glossar erklärt Werte. Aber das ist mal wieder schon ein neues Thema für einen eigenen Artikel. An dieser Stelle wollten wir nur zeigen, worauf man bei unseren Testbildern am besten achtet, wenn man das Debayering der Kamera einschätzen will.


    

[50 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Roland Schulz    22:11 am 23.5.2016
DV ist top - auf nem 24" aus 4m völlig ausreichend für Oma's Brille!! Irgendwie vermisse ich da nur "den Blick durch's Fenster"...
leonhard dy kabrio    19:09 am 23.5.2016
Mit Weihrauch und Myhrre und mit dem Lampenfett TX 10.000, was der Rudi mal vorgeschlagen hat :)
merlinmage    19:04 am 23.5.2016
Dann ist ja alles cool ;)
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Verfahren der Bildstabilisation Teil 2: Statische und bewegte Kamera Di, 17.Juli 2018
Im ersten Teil unserer Artikelserie haben wir uns in der Theorie damit befasst, welche Arten der Bildstabilisierung es gibt. Doch nun wollen wir das ganze auch einmal aus der praktischen Sicht betrachten…
Grundlagen: Verfahren der Bildstabilisation Teil 1: Mechanische, digitale und optische Bildstabilisierung Mi, 11.Juli 2018
Bildstabilisation lässt sich heutzutage auf sehr unterschiedliche Art und Weise bewirken. Wir beleuchten die gängigsten Verfahren und diskutieren deren Vor- und Nachteile.
Grundlagen: Rigkomponenten: Hier: Basisplatte / Leichtstütze Do, 15.Januar 2015
Nach unserer Artikelserie zum Thema http://www.slashcam.de/artikel/Grundlagen/Was-unterscheidet-Cine-Optiken-von-Foto-Objektiven--Hier--Objektivanschluss-und-Blende--alles-.html (Cine-Objektive) wollen wir nun unseren Blick auf einzelne Rig-Komponenten richten. Den Auftakt bildet das Herz eines jeden Kamerarigs: Die Basisplatte / Leichtstütze auch Base Plate / LWS (Lightweight Support) genannt. Wer die Funktion einer Basisplatte verstanden hat, kann sich leicht ein eigenes Rig zusammenstellen. Die Auswahl an Basisplatten / LWS ist jedoch riesig – im Folgenden die wichtigsten Funktionen und Auswahlkriterien einer Baseplate bzw. Leichtstütze.
Grundlagen: Einfach erklärt: Warum sind Dynamic Range Angaben nicht vergleichbar? Mo, 8.Dezember 2014
Die nutzbare Dynamik ist bekanntlich der Bereich zwischen Full Well/Clipping und dem Rauschen. In der Praxis ist die Grenze zwischen dem Rauschen und dem Nutzsignal jedoch fließend. Kommt dann noch eine digitale Rauschreduzierung ins Spiel, wird die Dynamik-Angabe schnell zu einer Nonsense-Aussage...
Grundlagen: Einfach Erklärt: Sensor-Dynamik, Blendenstufen und Bits (und Kerzen) Mo, 23.Juni 2014
Grundlagen: Gute Monitorfrage - Native 24/25p und 50 Hz Do, 14.Oktober 2010
Grundlagen: Hocus Bogus - Super-Resolution Fr, 11.August 2006
News: Black Friday und Cyber Monday Deals für Videofilmer Fr, 23.November 2018
Kurztest: LaCie 2Big Dock Thunderbolt 3 mit 20 TB Do, 1.März 2018
Editorials: Kommen bald Monitore mit integrierter Grafikkarte? Do, 2.Juni 2016
News: Bemerkungen zum DXO ONE Kameramodul Do, 18.Juni 2015


[nach oben]


[nach oben]
















passende Forenbeiträge zum Thema
DVD/Blu-ray Disc:
Film aus Avid Media Composer auf DVD brennen
Kinofassung vs. Director's Cut auf DVD erkennen
Output für DVD Architect Blu-Ray erstellen
Encore CS 5.1 brennt keine DVD mit Menü, nur als *iso ohne Menü
DVD brennen - Encore CS6 ist nicht in der Cloud?!
Tonspur in DVD ersetzen
Können DVD- bzw. BluRay-Recorder auch von einem Internetrouter aufnehmen?
mehr Beiträge zum Thema DVD/Blu-ray Disc


ClipKanalschraeg

Aktuelles Video:
ΔNOMΔLY
Specialsschraeg
21. Dezember / Diverse
Kurzfilmtag 2019
31. Dezember / Berlin
Video-Wettbewerb
7-17. Februar 2019/ Berlin
Berlinale
9-14. Februar 2019/
Berlinale Talents
alle Termine und Einreichfristen


update am 18.Dezember 2018 - 12:00
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*