wolfgang
Beiträge: 6647

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von wolfgang »

Also dass man "Zwischenfarben" gegenüber einem 8bit Vergleich erzeugen kann, wenn man mehrere Pixel kombiniert - keine Frage. Das wurde oben in der Diskussion auch durchaus bejaht. Danke für den Test der genau das nochmals erhärtet.

Dass wir hier IMMER von einer Abbildung der Realität aus der Maschine sprechen, nun ich wüßte nicht wie wir das umgehen sollten. Klar wären theoretisch 12bit mit echten 4:4:4 toller - statt Pixel zu interpolieren. Darum fragte ich ja ob es nicht Sinn macht, gleich mit 10bit 4:2:2 (extern) aufzuzeichnen.
Lieben Gruß,
Wolfgang



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Absolut.
Nur hier wurde ja gerade das Gegenteil vorgeschlagen: 10 Bit aus einem Inhalt herzustellen, in dem keine echten Nuance enthalten ist sondern lediglich die grobe Struktur und dann alle Zwischenwerte künstlich hinzu zu fügen.
Das ist ja einwenig, wie Nachcolorieren von alten Filmen ... geht auch und sieht zum Teil nicht mal schlecht aus.
Wenn man also mal alle Artefacte, die dabei entstehen, ungeachtet lässt, stellt sich die Frage: "Was hat das noch mit Video zu tun" denn die abgebildete Wirklichkeit verhält sich ja nicht selten anders als die Algorithmen abbilden können und farbliche Übergänge (beispielsweise) eines grünen Blattes vor einem blauen Hintergrund und einem braunen Zweig werden von Algorithmen völlig anders aufgelöst als von einem Objektiv.
Von den Schattierungen mal ganz abgesehen.

Frank moniert schon völlig zurecht, dass es schon jetzt nicht wirklich funktioniert.
Sie sollen doch in der Tat erst einmal vernünftige HD Bilder generieren.

Ich habe auch den Test nicht so verstanden, dass durch Binning von Pixels im Sensor die höhere Farbtiefe erzeugt wird, sondern aus einem 8 Bit Signal in der Post ein 10 Bit Signal gemacht wird.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de
Zuletzt geändert von WoWu am Di 18 Feb, 2014 14:52, insgesamt 1-mal geändert.



domain
Beiträge: 11062

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von domain »

Macht bestimmt Sinn. Man braucht dann keinen Weißabgleich mehr und kann ruhig falsch belichten.
Wenn ich als Hochzeitsfilmer Aufsehen erregen wollte, dann würde ich auch mit externem Atomos Samurai und Steadycam inkl. Weste herumflitzen.
Boah.. Herr Kameramann, was hat denn ihre Ausrüstung gekostet? Müssen ja tolle Filme werden, was kostet denn so ein Hochzeitsvideo von ihnen, wenn man fragen darf ;-).



wolfgang
Beiträge: 6647

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von wolfgang »

Nur wie macht man das praktisch mit einem erträglichen Aufwand? Ich meine, ich kann mir vorstellen ein Ninja oder Blade (können beide nur HD) an eine Kamera zu hängen, diese nach besten Vermögen einzustellen - und dann als HD das 10bit 4:2:2 direkt abzugreifen. (halt nach dem was die Kamera hergibt)

Klar wird sowas auch noch korrigiert - wobei gerade die bsseren Einstellmöglichkeiten eines Samurai Blades bereits bei der Aufnahme nochmals diese aufwerten helfen, was Luminanz und Farbjustierung angeht. Das sollten wir nicht vergessen, dass dies - bei aller Künstlichkeit - noch immer eine dominante Rolle spielt.
Lieben Gruß,
Wolfgang



otaku
Beiträge: 1180

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von otaku »

@wowu - ich würde gerne nochmal etwas mehr zu den objektiven hören, denn der sachverhalt ist mir nicht ganz klar.

im bereich billige objektive mag ich die alten nikon ai-s objektive sehr, die sind jetzt gut 30 jahre alt, und von ihrer vergütung her natürlich nicht mehr im ansatz up to date, verglichen mit selbst billigen aspherischen linsen z.b. von lumix sind die sogar von ihrer linsen geometrie schrott, das ist mir alles klar. aber die frage ist, diese objektive waren in der lage einen 35mm film anständig scharf zu belichten, so ein 35mm negativ ist um ein vielfaches grösser als 35mm film negativ, weil quer und nicht hochkant belichtet.

ich habe auch damals mit dem aufkommen der trommelscanner schon kb negative scannen lassen mit datenmengen von 40-80mb/frame. das war alles zuppi, kein problem. wieso sprechen viele davon, das so eine optik für digitales gammel 4:2:0 8bit schrotti video nicht mehr ausreicht?

ich bekomme den zusammenhang in meinem kopf nicht erklärt.


eine zweite frage zur interpolation von 8bit zu 10bit. quantel hatte im henry/editbox ein verfahren das sich dynamic rounding nannte, das war eine art interpolation von 8 zu 10 bit. das hat in der praxis super funktioniert, auch wenn man nie wusste wie es dann auf dem band aussah, aber in der kiste war es klasse. hast du ne idee was die da gemacht haben? weil bänder haben wir ja nicht mehr, damit währe das verfahre heute ja durchaus empfehlenswert.



mediavideo
Beiträge: 212

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von mediavideo »

@rudi
Ja das ist für mich keine Überraschung, das habe ich ja genau so geschrieben:
Wenn Du 4R/4G/4B Pixel in 8 bit hast, dann kannst Du die 3 Zwischenwerte für 10 bit beim 50%-skalieren mathematisch erzeugen (also von UHD -> HD).

Und mein vorangestellter Satz im letzten Post mit der Rundungsproblematik bleibt aber, das hast Du ja auch genau so erwähnt - Zitat:
"Ich kann mir selber Grenzfälle vorstellen, in denen das nicht ganz einer echten 10 Bit-Aufnahme entsprechen kann (wenn alle 2 Pixelkanten genau auf 8Bit-Grenzen fallen würden). Aber in der Realität dürfte man hier schon sehr nahe an einer echten 10 Bit Aufzeichnung landen (wenn der Sensor vorher die >10 Bit Dynamik entsprechend auf 8 Bit gestreckt hat."

Also Vorsicht: Das Ergebnis ist eben nicht das Originale 10 bit HD-Signal, es ist ein ähnliches mit einem gewissen Fehleranteil zum Original.

Aber Du verkennst vielleicht das Problem bei einem Camcorder:
Beim Einchip-Camcorder (z.B. 4 MPixel) hast Du die 4R/4G/4B pro HD-Pixel nicht - das ist das Problem !!!

Du hast pro HD-Pixel nur 2R/1G/1B und da geht das mathematisch nicht mehr. Sobald Du Demosaicen machst sind die restlichen Werte nur geschätzt, da kannst Du auch "gezielt würfeln" - klar?

Deswegen brauchst Du, wie von mir vorgerechnent, eine ca. 32 MPixel Single-Chip (7680x4320) und den gibt es ja so nicht. Oder nimm mal einen micro4/3 Sensor mit 17.3 mm Breite, da hast Du dann bei 7680 Pixel in der Breite noch 2.25µm Pixelkantenlänge - das rauscht dann schon gewaltig ...

Und nochmal zu der Rauschproblematik:
Wowu macht da eine ganz falsche Betrachtung, denn er sagt einfach dass mehr Pixel statistisch eine Rauschreduktion sind (stimmt ja auch, allerdings nur bedingt) und deswegen wäre es keine Rauschzunahme in der Summe. Das ist falsch, denn er tut so als ob der Sensor beim Verkleinern der Pixel nicht deutlich mehr rauschen würde.

Die richtige Sichtweise wählen und der Zusammenhang wird klar:
Man muß die statistische Rauschreduktion durch die mehr Pixel dem Rauschzuwachs der sinkenden Pixelkantenlänge gegenüberstellen und schauen ob sich das aufhebt oder ein Faktor überwiegt. Und da überwiegt der Faktor der Rauschzunahme der kleineren Pixelkantenlänge. Warum? - Ganz einfach: Wenn man eine Grenzbetrachtung in Richtung sehr kleine Pixelkantenlängen macht, dann bekommt man nur noch Schneegestöber im dann sehr hoch aufgelösten Bild. Aber man kann aus dem "Schnee" durch Skalierung das Originalbild nicht mehr erzeugen. Damit sieht man, dass die Rauschzunahme durch die kleiner Pixelkantenlänge bei der Qualität deutlich überwiegt.

Etwas ganz wichtiges betrachtet Wowu schon mal gleich gar nicht:
Die Addition der einzelnen Maximalfehler, die bei z.B. 4 Pixeln dann auch mehr als 4 mal so groß werden (mehr: wegen der Sensorrauschenzunahme), allerdings dann statistisch viel seltener als die Maximalwerte vorher. Da aber der Mensch dieses "harte" Rauschen der höheren Maximalwerte sehr viel mehr wahrnimmt, ist dies ein deutlicher optischer Qualitätsverlust als ein kleineres und öfteres Pixelrauschen um den Mittelwert.

Aus den Gründen halte ich das in der Praxis für nicht sehr sinnvoll, auch wenn es in der Theorie bei idealen Bedingungen (siehe Bildbeispiel von SlashCam) recht gut klappt. Aber jeder darf dazu natürlich eine andere Meinung haben. Und ich wünsche ab jetzt viel Spaß dabei.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Das ist falsch, denn er tut so als ob der Sensor beim Verkleinern der Pixel nicht deutlich mehr rauschen würde.
Nee, nee, nee. Deswegen hab ich die Ratio angegeben. das ist immer eine Verhältniszahl und Pixelbinning ist ja nun kein Zauberwerk und wird von diversen Firmen mit grossem Erfolg betrieben und es werden Ergebnisse bis 7:1 damit erzielt. Also erst sehr viel später flacht die Kurve ab.
Es stimmt also nicht, was Du sagst, sonst wäre Pixelbinning nur mit so grossen Pixels möglich, dass man es eigentlich schon gar nicht mehr braucht.
Die Addition der einzelnen Maximalfehler, die bei z.B. 4 Pixeln dann auch mehr als 4 mal so groß werden
Eben nicht, sonst gäbe es kein Pixelbinning.
Rauschen addiert sich nicht linear sondern nimmt nur, wie geschrieben zu.
allerdings dann statistisch viel seltener als die Maximalwerte vorher.
Was immer das heissen soll. ??
"harte" Rauschen
Was ist hartes Rauschen ? Von welchem Rauschanteil sprichst Du ?
kleineres und öfteres Pixelrauschen um den Mittelwert.
Was ist ein "kleineres und öfteres Pixelrauschen?
Von welchem Rauschen sprichst Du hier.
Schliesslich kann man jeden der sieben relevanten Rauschanteile exakt in ihrer Entstehung und der Grössenordung bestimmen.
Es wäre also hilfreich, hier konkret zu sagen, welcher Rauschanteil das sein soll.

Nee, nee ... Das sind wohlklingende Worte, ohne Substanz.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

@ otaku

Bei einem Objektiv muss man ja sehr grundsätzliche Sachen unterscheiden:
Bei welcher Ortsfrequenz wir noch mit welcher MTF aufgelöst.
(Lassen wir also mal optische Verzerrungen und dergleichen zunächst beiseite).
Betrachten wir einmal die Anforderungen, die an Objektive gestellt werden, um ein Gefühl für die Grössenordnug zu erhalten, um die es hier geht.
Bleiben wir daher bei der Videoanwendung.
Die EBU schreibt für Objektive eine Modulationstiefe im Grenzortsfrequenzbereich von mehr als 80% (Bildmitte) vor.
Die Grenzortsfrequenz eines 2/3“ HD Systems mit 1280 aktiven horizontalen und 720 aktiven vertikalen Pixels liegt bei 66 LP/mm.
Bei einem 1080-Zeilen-System benötigt man bei 30 MHz bereits. 81 Lp/mm.

Auf der andern Seite schauen wir uns zum vergleich einmal Hochleistungsobjektive für Film und Video Anwendung an, um auch ein preisliches Gefühl zu bekommen.
Zeiss bietet ein Spitzenprodukt an, das rd 180 Lp/mm liefert und so um die 70.000 $ gekostet hat.

Nun haben wir den Rahmen abgesteckt.

Jetzt kannst Du Dir jeden beliebigen Sensor raussuchen und z.B. ein horizontales Mass (z.B. beim 4/3 Sensor, von 17,3 mm) ausrechnen.
Bei 4K (4000 gerundet) sind das dann rd. 117 Lp/mm die das Objektiv leisten müsste. Wird der Sensor bei gleicher Auflösung grösser, werden die Pixel grösser und die Anforderung entsprechend geringer.
Wird der Sensor kleiner, beispielsweise dieser 1/2.3 für 4k von Sony, dann landet man schon bei (5,7 mm) bei 350 Lp/mm. (350 LP/mm weil die Pixels nur noch 1,4 µ haben. Schau Dir mal die Wellenlänge von Grün bei einer mittleren Blende an :-))
Du siehst, wenn man nur die Objektivleistung der Broadcastanforderung erfüllen will, muss man entweder ziemlich gross mit dem Sensor werden, super spitzen Priems haben oder eben mit der Auflösung runter gehen.

Und noch ein Umstand. Schau Dir von den Objektiven mal die Punktbilder an. Dann wirst Du so etwas erleben, wie auf dem Bild.
(Das Musterpixel ganz links hat zum Vergleich 8 µ)
Du deckt also mit den Informationen des Objektivs immer gleich mehrere Pixels ab und je kleiner die Pixels werden umso heftiger ist das ... gleichwohl auch, je schlechter das Objektiv wird.

Wir sprechen also von guten Objektiven und einer guten Qualitätsanforderung. Wenn Camcorder ihren Schwerpunkt auf "kontrastreich" bei 20 Lp/mm legen, dann tun das auch einfache Objektive, aber sie unterscheiden sich dann eben nicht sonderlich von Handyqualitäten.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



mediavideo
Beiträge: 212

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von mediavideo »

Wowu, was soll das ???

Nimm einen Chip mit 1 Pixel und 6µm x 6µm Kantenlänge, das Signal von dem Pixel gilt als "rauschfrei".

Jetzt mach daraus 4 Pixel mit je 3µm x 3µm und jedes der 4 Pixel rauscht nun (also wesentlich mehr wie das rauschfreie 6x6µm Pixel Signal).

Das Rauschen der 4 Einzelpixel wird durch das Zusammenfassen der 4 Pixelwerte zum Summensignal zwar durch statistische Effekte besser, aber der Rauschabstand bleibt immer schlechter als bei einem 6x6µm.

Und wenn wir jetzt weiter auf 9 Pixel mit 2µm gehen, dann wird der Rauschabstand des Summensignals zum 6x6µm immer schlechter und zwar je mehr wir aufsplitten ...

Ist das Dein Ernst: Seit wann kann man ein verrauschtes Siganal durch getrennte noch viel rauschbehaftetere Signalübertragung verbessen ???

Und nun ist es auch wirklich genug zu dem Thema.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Du musst differenzieren zwischen Rauschen (als effektiver Wert) und dem Störabstand, als Verhältnis von Ladungskapazität zum effektiven Rauschanteil.
Hier geht es um Störabstand und der verändert sich bei Addition von Ladungspotential um Quadratwurzel aus der Anzahl der benutzten Ladungselemente.
Sowas ist Basiswissen und offenbar haben es alle Hersteller begriffen, die Pixelbinning betreiben, also fast alle.
Und das Pixelbinning funktioniert, wird hier ja sicher nicht bestritten. -oder etwa doch-?
Ich schlage vor, Du liest mal über Mengeneffizienz bei Sensoren nach.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



otaku
Beiträge: 1180

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von otaku »

@wowu - danke für die antwort - jetzt hab ich zumindest ne idee womit ich mich mal auseinandersetzen kann.



domain
Beiträge: 11062

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von domain »

Dieser Grauverlauf mit der stark verbogenen Gammakurve und der abnormal starken Spreizung der Lichter ist ein gutes Beispiel dafür, was selbst mit 8 Bit noch möglich ist. Also ein ausgewachsener Teal Orange Effekt ist immer realisierbar.
Hier ist ein Banding ja kaum erkennbar, höchstens ganz zart.

Bild

Wisst ihr, wie Banding wirklich aussieht? ;-)



Cam1234
Beiträge: 62

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von Cam1234 »

@wowu gibt es zu Deinem Buch irgendwo ein Update (4K). Habe die Version 9.0.5 Edition 1 von 2008?


Danke.
VG



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Selbstverständlich.
Kontaktier mich mal über
http://provideome.de
Ich schick Dir dann den Update-Link
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



prophet
Beiträge: 23

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von prophet »

Ich glaube, es werden in dieser Diskussion (und überall im Internet, wo es Raw und bits geht) zu viele Begriffe in einen Topf geworfen, die auseinander gehören:
  1. Quantisierung bzw. Wertediskretisierung eines Signals (und die Auflösung des Quantisierers)
  2. Auflösung des Signals selbst (also unterscheidbare Tonwerte in unserem Fall)
IMO, behandelt der Slahcam-Artikel nichts anderes, als den ersten Begriff. Deren Behauptung ist mathematisch vollkommen in Ordnung: für eine rundungsfehlerfreie "Mischfarbe" von 4 Pixeln müsste man die Quantisierungsauflösung um ld(4)=2 bits erweitern (analog zu Fixpunktarithmetik, wo man die letzten 2 bits als Nachkommastellen betrachten kann).

Zur Diskussion über 2: ob diese Pixel nun sinnvolle Tonwerte beinhalten oder verrauscht sind, steht auf einem anderen Blatt, ändert aber nichts an der Behauptung von oben. Im Gegensatz zum (gewollten) Verlust der spatialen Auflösung, findet kein Verlust der Tonwerteauflösung durch Re-Quantisierung von 8->10bit statt.

Dies wurde von Slashcam im (zugegebenermaßen viel zu) idealem Fall beispielhaft vorgeführt.

Das Probelm an ihrem Beispiel ist allerdings, dass es dort nur der Liminanzkanal (oder 4:4:4 gesampltes Bild mit Graustufen) gezeigt wurde.

Beim Downsampling eines 4:2:0 4K-Singal auf FullHD, würde nur die Luminanzauflösung 10bit "erhalten". Die Chroma-Werte "bleiben" nach dem Downsampling weiterhin bei 8 bit, da es hier nur einen Wert pro Farbkomponente und pro 2x2 Region gibt.

Daher ist die Behauptung im Artikel nur halb richtig. Das Ergebnis nach dem Downsampling ist so eine Art 1080p 4:4:4 10:8:8 bit ;-)

Edit: angepasst für bessere Textverständlichkeit
Zuletzt geändert von prophet am Do 20 Feb, 2014 07:30, insgesamt 1-mal geändert.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Das stimmt nicht so ganz, weil die Farben bereits indiziert sind.
Nehmen wir einen 12 Bit Sensor, der 4098 Helligkeitswerte abgibt und mappen den in ein 709 Datenkanal in 219 Werte; dann werden jeweils 18 individuelle Lumawerte zu einem einzigen Wert gefasst.
17 dieser 18 unterschiedlichen Originalwerte sind unwiderruflich verloren und zu keinem Zeitpunkt mehr bekannt .
Sie können bestenfalls mathematisch durch irgendwelche Wahrscheinlichkeiten aufgefüllt werden, was allerdings nicht mit den realen Werten am Sensor übereinstimmen muss.
Eine Reproduktion ist damit nicht erfüllt.
Die Werte werden bei einer solchen Interpolation gedithert, also nach einem -mehr oder (meist) weniger guten Algorithmus mit einer Pixelstruktur aufgefüllt.
Ausserdem hat das mit dem De-bayering bzw. der Abtastung nun gar nichts zu tun, denn es ist völlig Wurscht, an welcher Stelle man das Mapping ändert.
Ausserdem haben wir es sowieso nur mit Helligkeitssignalen zu tun, ob das nun das Luma von Grün oder einer andern Farbe ist, das ist gehupft wie gesprungen.
Verlust der spatialen Auflösung, findet kein Verlust der Tonwerteauflösung statt.

Dies wurde im (zugegebenermaßen viel zu) idealem Fall beispielhaft vorgeführt.
Mal ganz abgesehen davon, dass es gar nicht um den Tonwertverlust geht sondern darum, dass eine Tonwerterweiterung nicht stattfindet.
Das ist ein kleiner, aber feiner Unterschied. -Nämlich genau das Gegenteil-.

Würde das so prima funktionieren, gäbe es keine teuren Kameras, die 10,12 oder mehr Bit an Tonwerten durchreichen. RAW könnte man sich auch schenken und damit auch alle teuren Aufzeichnungsverfahren und Schnittstellen und Monitorhersteller könnten auf schnelle Hardware verzichten.
- Funktioniert leider in nichts weiter, als in einer Theorie - bzw. einer Phantasie.

Komisch, warum werde ich den Eindruck nicht los, Mediavideo hat sich nur einen andern Nick gegeben und versucht es jetzt nochmal.
Denn an der Substanz hat sich nichts geändert.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Kabe
Beiträge: 53

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von Kabe »

Hier werden ja munter verschiedene Sachen durcheinander geworfen ;-)

Fangen wir erstmal mit der Luminanz an: Selbstverständlich lassen sich dort 4 8-bit Pixel zu einem echten 10-Bit Pixel verrechnen. Das passiert ohne jeden Rechenfehler durch Runden! Dafür muss man die 4 Pixelwerte einfach nur addieren. Da die 4 Pixel i.d.R. nicht die gleichen Werte haben, wird dabei selbstverständlich auch die Abstufung verbessert.

4* 256 geben max genau die 1024 von 10 Bit, weil die 2 zusätzlichen Bits genau 2^2=4 codieren…

Das ist auch in etwa das, was Slashdot mit seinem Gradienten gezeigt hat.

ABER:

Für die Chrominanzsignale gilt das so aber nicht: Auch dort kann man 4-Pixel zu einem zusammenfassen, und so das 4:2:0 auf 4:4:4 bringen. Neben der Problematik der Verschiebung der Farbebenen durch das Bayer-Pattern ist dieses Signal dann aber trotzdem nur 8-Bit, weil es pro 4 Pixel ja nur einen 8-Bit Quellwert gibt.

Das erzeugte Signal ist als0 4:4:4 mit echten 10 Bit Luminanz.



prophet
Beiträge: 23

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von prophet »

@Kabe: das ist ja 1zu1, was ich oben geschrieben habe... vielleicht etwas verständlicher :-)

@WoWu: die unglücklich gewählten Formulierungen im Text oben nachgebessert.



TheBubble
Beiträge: 1910

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von TheBubble »

Langsam wird es hier abenteuerlich.
Kabe hat geschrieben: Fangen wir erstmal mit der Luminanz an: Selbstverständlich lassen sich dort 4 8-bit Pixel zu einem echten 10-Bit Pixel verrechnen. Das passiert ohne jeden Rechenfehler durch Runden! Dafür muss man die 4 Pixelwerte einfach nur addieren. Da die 4 Pixel i.d.R. nicht die gleichen Werte haben, wird dabei selbstverständlich auch die Abstufung verbessert.
Du verrechnest die Werte aber nicht zu "einem echten 10-Bit Pixel", sondern bildest nur einen Mittelwert, der mit Nachkommastellen eben gegebenefalls 10 Bit für seine exakte Darstellung benötigt.

Wenn Du mehr rausholen willst, müsstest Du Annhamen über vorhandenes Dithering machen, die in vielen Fällen wohl nicht zutreffen dürften.

Da könnte man auch anders auf mehr Bits kommen: Zwischen zwei Werten interpolieren wir linear einen dritten Wert. Nach dem obgen Schema wäre das ein "9-Bit Pixel".

All dies bringt aber gar nichts, wenn sauber schattierte großflächige Bereiche ohne Farbränder und echter verwertbarer Dynamikumfang benötigt wird, der Spielraum in der Nachbearbeitung erlaubt. Hier machen nur echte Abstufungen einen Sinn, mit obiger Methode ist da leider nichts rauszuholen.



Kabe
Beiträge: 53

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von Kabe »

TheBubble hat geschrieben:Langsam wird es hier abenteuerlich.

Du verrechnest die Werte aber nicht zu "einem echten 10-Bit Pixel", sondern bildest nur einen Mittelwert, der mit Nachkommastellen eben gegebenefalls 10 Bit für seine exakte Darstellung benötigt.
Unsinn, was soll denn ein „echtes Pixel“ sein?

Der Mittelwert entsteht einfach durch Addition, weil der Werteraum größer ist. Da braucht und wird man keinen Mittelwert mit Komma für konstruieren!

Es ist ja nun auch keineswegs so, dass das betreffende Verfahren neu wäre.

„Tausche 2D-Auflösung gegen Tonwertauflösung“ ist in der Bildverarbeitung ein alter Hut.



TheBubble
Beiträge: 1910

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von TheBubble »

Kabe hat geschrieben:Der Mittelwert entsteht einfach durch Addition, weil der Werteraum größer ist. Da braucht und wird man keinen Mittelwert mit Komma für konstruieren!
?!?
Kabe hat geschrieben: „Tausche 2D-Auflösung gegen Tonwertauflösung“ ist in der Bildverarbeitung ein alter Hut.
Dann leg mal los, wie Du aus einer Bitmap, die keinerlei Dithering enthält, sondern nur an festen Schwellen quantisierte Werte, einen sauberen Gradienten rekonstruieren willst (allerdings ohne sonstige harte Kanten zu sehr weichzuzeichnen), so wie er ursprünglich vor der Kamera vorhanden war.

Damit Dein Verfahren deutlich wird, gehe bitte von einer binären Bitmap (1 Bit pro Pixel) ohne Dithering als Eingabe aus.



Kabe
Beiträge: 53

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von Kabe »

TheBubble hat geschrieben:
Kabe hat geschrieben:Der Mittelwert entsteht einfach durch Addition, weil der Werteraum größer ist. Da braucht und wird man keinen Mittelwert mit Komma für konstruieren!
?!?
Wenn man 4 8-Bit Werte einfach addiert, erhält man maximal einen 10-Bit Wert. Es braucht keine Mittelwertbildung, weil die Addition dieser 4 Werte genau den Mittelwert ergibt.

TheBubble hat geschrieben:
Kabe hat geschrieben: „Tausche 2D-Auflösung gegen Tonwertauflösung“ ist in der Bildverarbeitung ein alter Hut.
Dann leg mal los, wie Du aus einer Bitmap, die keinerlei Dithering enthält, sondern nur an festen Schwellen quantisierte Werte, einen sauberen Gradienten rekonstruieren willst (allerdings ohne sonstige harte Kanten zu sehr weichzuzeichnen), so wie er ursprünglich vor der Kamera vorhanden war.

Damit Dein Verfahren deutlich wird, gehe bitte von einer binären Bitmap (1 Bit pro Pixel) ohne Dithering als Eingabe aus.
Kommen wir zu Deinem binären Input:

Da haben wir also an einer Kante in einem 2x2 Quadrat zwei schwarze und zwei weiße Pixel. Wenn wir diese 4 Einzel-bits in einen 3-bit-Wert überführen, bekommen wir 010 oder eben „Mittelgrau“ in 3 Bit. Das ist für den betrachteten Bereich trotz Binärpixeln die „richtige“ Antwort

In der Praxis funktionieren diese Verfahren seit Jahren (nennt sich Pixel-Binning), und die Annahme statischer Sensoren ist auch reichlich theoretisch.

Dithering gibt es keines, aber wir haben hier grundsätzlich ein verrauschtes Signal – am Ende zählen wir hier sowie Photonen…

Selbst wenn Du einen absolut homogenen Input hast, zeigt ein Pixel weder selbst über die Zeit noch bezogen auf seine Nachbarpixel den selben Wert an, sondern einen, der statistisch um den „wahren Wert“ schwankt. Dein Quantisierungsproblem ist in der Praxis keines, weil so gut sind die Sensoren noch lange nicht ;-)

Klaus



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Ich hatte das oben schon einmal angemerkt:
Es geht gar nicht darum, ein 10 Bit Pixel aus einem 8 Bit Pixel (auf dem Sensor) zu binnen.

So wir ich das Problem verstanden habe, geht es darum, aus einem bestehenden 8 Bit Videosignal in der Post (Wiedergabe) ein 10 Bit Videosignal zu generieren.

Es geht also gar nicht um Sensortechnik.

Oder habe ich die Problemstellung völlig falsch verstanden ?
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



CCD08
Beiträge: 27

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von CCD08 »

Vielleicht mal wieder zurück zur Praxis, da die Deteils sicher von so vielen Rabdbedingungen (Sensor, Rauschen, Auflösung, Motiv...) abhängen, dass eine allgemeine Aussage sicher nicht möglich ist.

Was habe ich gelernt:

1. aus einem 4 k Video kann man wegen der höheren Farb-Auflösung ein 4:4:4 1080p Video berechnen (also volle Farbauflösung)

2. will ich ein Video manipulieren ( z.B. Fabrgrading, was dann ja auch mit der "Wirklichkeit" gar nichts mehr zu tun hat), empfiehlt es sich das Video in einen höheren Bitraum abzubilden z.B. von 8 Bit auf 16 Bit, und dort die Manipulationen durchzuführen, um Rundungsfehler möglichst klein zu halten, und kann damit dann auch "Banding" reduzieren oder ganz vermeiden. Dies gilt allgemein für "alle" Auflösungen und hat direkt nichts mit 4k zu tun.

3. Bei Verzicht auf die höhere Farbauflösung kann man tonale Zwischenwerte in einem höheren Bitarum gewinnen, die im Idealfall (Sensor, Rauschen, Motiv...) auch etwas mit der "Wirklichkeit" zu tun haben.

1. und 2. gilt aber immer.
Sehe ich das richtig ?



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Das magst Du so sehen, aber ich schliesse mich dieser Sichtweise keineswegs an.
Keinem der Punkte.
Was Punkt 2 angeht muss man das auch differenzieren, weil eine andere DCT zur Anwendung in neuen Codierverfahren kommt. Für ältere Codecs mag das für eine begrenzet Wortbreite noch zutreffen.

Differenzieren muss man auch Punkt 3 zwischen Ditherwerten und reale abgebildeten Details, die vom Objektiv aufgenommen wurden.
Reproduktion also: nein, künstliche Pixelstrukturen: ja
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Kabe
Beiträge: 53

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von Kabe »

WoWu hat geschrieben:So wir ich das Problem verstanden habe, geht es darum, aus einem bestehenden 8 Bit Videosignal in der Post (Wiedergabe) ein 10 Bit Videosignal zu generieren.
Das kommt aber aufs Gleiche hinaus, ob ich nun auf dem Sensor zusammenfasse oder in der Post ist letztlich egal.

Der entscheidende Punkt ist einfach, dass man örtliche Auflösung aufgibt und dafür Intensitätsauflösung gewinnt.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Nee, ist nicht egal, weil die original Schattierungen (Tonwerte), die vom Objektiv aufgenommen werden, im Mapping indiziert werden und damit nicht mehr bekannt sind.
Es kommt bei Video, anders als in einer theoretischen Betrachtung leider darauf an, was vom original reproduzierbar ist und nicht, ob da irgendwelche Werte eingerechnet wurden.
Insofern besteht ein ganz erheblicher Unterschied, ob ich die Werte im Binning gewinne oder aus einem indizierten Feld.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



prophet
Beiträge: 23

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von prophet »

WoWu hat geschrieben:Ich hatte das oben schon einmal angemerkt:
Es geht gar nicht darum, ein 10 Bit Pixel aus einem 8 Bit Pixel (auf dem Sensor) zu binnen.
Jain...
WoWu hat geschrieben:So wir ich das Problem verstanden habe, geht es darum, aus einem bestehenden 8 Bit Videosignal in der Post (Wiedergabe) ein 10 Bit Videosignal zu generieren.
... 10bit Signal aus dem herunterskalierten Videosignal zu bekommen.
Beides sind identische Probleme. Das erste passiert in der analogen Welt, das 2. in der digitalen. Der Unterschied ist die Signalabtastung durch den Quantisierer im 2. Fall. (Dass die Anzahl der Elektronen auch "digital" ist, lassen wir an dieser Stelle außen vor).



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Nur dass bei der Zweiten Abtastung unterschiedliche Werte genommen werden als bei der Gewinnung aus dem analogen Signal.
Das zweite mal wird gedithert, weil weder die fehlenden Originalwerte noch deren spatiale Verteilung bekannt sind.

Dass man Werte einrechnen kann steht ganz ausser Frage.
Die einzige Frage, die sich stellt ist die, wie unterscheiden sie sich und welche Auswirkungen haben sie im Hinblick auf die Artefaktbildung des Endproduktes.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



CCD08
Beiträge: 27

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von CCD08 »

Zu der Frage 8 Bit /10 Bit muss ich (leider, wäre ja schön gewesen) WoWu recht geben.

Es gibt sicher Sonderfälle wie lineare Farbverläufe, bei denen man so annähernd "richtige" Zwischenwerte berechnen kann, ist aber eher Glücksache.

Nimmt man als 4 k Bild ein 8 Megapixel Bild mit vollkommen zufälligen farblichen Pixelstrukturen wird keine Abbildung der Welt "genauere" Zwischenwerte für das gesamte Bild berechnen können, weil es die überhaupt nicht gibt.

Man kann jetzt sicher auch die Diskussion beginnen, ob die normalen Bilder/Vdeos eher Farbverläufen oder Zufall entspricht, fände diese Diskussion dann aber eher als abgehoben.

Aber wie schon oben gesagt, Manipulationen wie Grading sollten aus meiner Sicht in einem höheren Bitraum, am besten ganzzahlige Vielfache wie 8 Bit zu 16 Bit durchgeführt werden, um Rundungsfehler möglichst klein zu halten.

@WoWu: gehe davon aus, dass Editprogramm beim Berechnen die Berechnung auf jedes Einzelbild anwendet, also unabhängig von Codec auch jedes einzelne Zwischenbild aufklappt, das heisst berechnet.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Davon gehe ich wohl aus, nur wenn ich in der Post mit einem Codec arbeite, der lediglich mit Additionen und Shift funktioniert, dann setzte ich da kein Floatingpoint Verfahren drauf, der mir meine Rundungsfehler erst fabriziert.

Und mit dem "real-World" kann man das ja mal an einem kleinen Beispiel festmachen, um auch die mitzunehmen, denen mathematische Funktionen nicht so viel sagen:

Jeder kann sich eine weisse Wand vor,stellen auf der ein geringer Schatten liegt, der tonal dicht an weiss liegt, aber sichtbar ist.
Und einen Boden vor der Wand, auf den die Weisse Wand ganz leicht abstrahlt, sodass ein Teil des Bodens nicht völlig Schwarz ist, sondern ebenso sehr dicht an schwarz.

Das sind ja Scenarien, aus deren Grund man überhaupt zu mehr als 8 Bit greift, also durchaus nicht abgehoben.


Ein 12 Bit Sensor, vermag das mit seinen 4096 Werten noch zu differenzieren und stellt alle vier Werte da.
Indiziert man die 12 Bit nach 8 Bit, werden jeweils 18 Werte zu einem Wert zusammen gefasst.
Der Schatten bei Weiss wird (mit 17 andern Werten) zum Weisswert und ist damit verschwunden und der Schatten bei Schwarz entsprechend wird (ebenfalls mit 17 andern Werten) zum Schwarzwert zusammen gefasst und mit dem Rest der Indizierungen in 219 Werten in einem 8 Bit Stream übertragen.

Will man nun die beiden Schatten mathematisch reproduzieren, wird in diesem Fall ein 50% Dither aufgetragen, dessen Lage dadurch aber ebensowenig reproduziert werden kann.

Die Werte der ehemaligen Schatten sind weder in Stärke, noch in der Lage reproduzierbar.
Das ist ja einer der Gründe, warum 8 Bit überhaupt so "hart" wirkt. Weil es die echten Zwischentöne nicht gibt und rechnerisch an solchen Stellen dann Kanten entstehen.

Schlimmstenfalls entsteht eine Graufllaeche aus irgendeiner Struktur.

Es funktioniert also nicht.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



prophet
Beiträge: 23

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von prophet »

TheBubble hat geschrieben:Dann leg mal los, wie Du aus einer Bitmap, die keinerlei Dithering enthält, sondern nur an festen Schwellen quantisierte Werte, einen sauberen Gradienten rekonstruieren willst (allerdings ohne sonstige harte Kanten zu sehr weichzuzeichnen), so wie er ursprünglich vor der Kamera vorhanden war..
Die Forderung geht an der Fragestellung vorbei: wir reden hier vom Downsampling eines 4K auf FullHD. Natürlich gehen die hochfrequente Teile des Bildes verloren! Downsampling ist ein Tiefpassfiler.
TheBubble hat geschrieben:Damit Dein Verfahren deutlich wird, gehe bitte von einer binären Bitmap (1 Bit pro Pixel) ohne Dithering als Eingabe aus.
Ich weiß nicht, was ihr alle mit dem Dithering habt :-) Das ist ein additives Qaantisierungsrauschen (QR), um eine Annährung an die ursprüngliche (analoge) Singalamplitude statistisch zu erreichen, mit Genauigkeit welche die Quantisierungsauflösung übersteigt. Funktioniert spatial (Farbverläufe) wie temporal (z.B. LCDs).

Ein Bild sagt bekanntlich mehr als tausend Worte. Ich hoffe, das bringt mehr Licht in die Diskussion.

Demonstrieren möchte ich das mit einem 1bit Bild mit Dithering =):

Bild
Wie man sieht, sind die Tonwerte nach dem Downsampling alles andere als zufällig oder Dithering. Je nach verwendetem Filter kann man das zugrunde liegende Signal besser oder schlechter rekonstruieren.

Ich hoffe, das ist mehr als ein Beweis, dass man "verlorene" Halbtonwerte wieder rekonstruieren kann. Es ist keine Magie, kein Zufall, und keine Statistik ;-) Und vor allem kein Dithering!

Disclaimer: es gilt natürlich "Garbage in garbage out".

Edit: Tippfehler.



WoWu
Beiträge: 14819

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von WoWu »

Ihr bewegt Euch mittlerweile nicht mehr im Videobereich sondern in Bereich künstlicher Bilder.

Es geht hier aber um Video !
Und darum, dass es kein identisches Ergebnis bringt, ob eine Aufnahme in 10/12 Bit am Sensor aufgelöst wird oder aus einem 8Bit Signal hergestellt wird.
Es geht darum, eine detailgenaue Reproduktion zu erzielen, die vom Original nicht unterschieden werden kann.
Es geht nicht, darum ob ich Pixelstrukturen nach einer ungefähren Genauigkeit erzeugen kann.

Danach könnte man dann übrigens noch die Frage beantworten, warum es eigentlich noch 10/12 Bit Kameras gibt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



rudi
Administrator
Administrator
Beiträge: 1478

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von rudi »

@prophet: Danke für deine Mühen und die sehr informative Grafik. Mir fehlt leider grade die Zeit für sowas.

WoWu hat geschrieben:
Es geht hier aber um Video !
Und darum, dass es kein identisches Ergebnis bringt, ob eine Aufnahme in 10/12 Bit am Sensor aufgelöst wird oder aus einem 8Bit Signal hergestellt wird.

...

Danach könnte man dann übrigens noch die Frage beantworten, warum es eigentlich noch 10/12 Bit Kameras gibt.
Ja, es geht aber auch darum, ob man durch Pixelzusammenlegung mehr Farbtiefe erzielen kann. Man opfert Orts-Auflösung zugunsten einer höheren Farbauflösung.
Irgendwie ignoriert Wowu immer, dass man nachher nur noch ein Viertel der Pixel übrig hat. Natürlich ist eine 10 Bit 4K immer besser als eine 8 Bit 4K-Aufnhame und eine Interpolation von 8 Bit 4K auf 10 Bit 4K macht nix besser. Das ist hier glaube ich allen klar.

Aber es ist doch kaum zu leugnen, dass eine Reduktion von 4K auf 2K mehr Farbtiefen-Information generiert, wenn man die Farbinformationen aus 4 Sensorpixeln zusammenfasst.

P.S. am Rande erwähnt: Die Panasonic kann 4:2:0 auch alternativ im vollen Wertebereich von 0...255 schreiben, nicht nur 16.235 wie in der Rec 709. Das bringt zwar nicht viel, aber wenn man schon die Pixel in 8 Bit quetschen muss....



srone
Beiträge: 10474

Re: Grundlagen: 4K - Von RAW bis 4:2:0

Beitrag von srone »

irgendwie habe ich den eindruck, reine spekulation, daß dieses erzeugte 10bit, wahrscheinlich in den meisten fällen (video), nach "neat video"-extrem aussieht. wächserne gesichter vor harmonischen weichen unschärfen, welch graus :-(

das digitale bildverständnis schreitet voran, leider.:-/

lg

srone
ten thousand posts later...



 Aktuelle Beiträge [alle Foren]
 
» RED versucht User nach Übernahme durch Nikon zu beruhigen
von Darth Schneider - Sa 8:53
» Sondergagen - Wer aufmuckt, wird nicht mehr besetzt
von Mantas - Sa 8:49
» Problem mit Farben bei Premiere und AE
von Alex - Sa 8:21
» Was hast Du zuletzt gekauft?
von Darth Schneider - Sa 7:53
» Was schaust Du gerade?
von ruessel - Sa 7:50
» Spielereien mit Breitbild und Nahlinse +3
von Phil999 - Sa 6:49
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Darth Schneider - Sa 6:38
» FCPX/Motion, DaVinci/Fusion... Tipps&Tricks
von roki100 - Sa 3:29
» Was hörst Du gerade?
von klusterdegenerierung - Sa 0:52
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von mikroguenni - Fr 22:04
» Was schaust Du gerade?
von klusterdegenerierung - Fr 21:47
» Hocker für Kameramänner und Frauen?
von Mantas - Fr 21:09
» Camera Update 8.6: Viele neue Funktionen für Blackmagic Kameras
von roki100 - Fr 20:41
» Linsen (Vintage, Anamorphic & Co.)
von Phil999 - Fr 20:23
» Micro Mirrorless Kamera - Actioncam ohne Action, aber mit Wechseloptik
von Darth Schneider - Fr 18:08
» Adobe führt die neue Funktion "Structure Reference" in Firefly ein
von medienonkel - Fr 17:32
» Uwe Boll: Wie man Filme produziert ohne pleite zu gehen!
von stip - Fr 17:28
» Interessante Firmware-Updates für Sony Alpha 1, 7S III und 7 IV
von rush - Fr 13:12
» Neues SIGMA 50mm F1,2 DG DN | Art Objektiv wiegt 745g
von GaToR-BN - Fr 12:47
» >Der LED Licht Thread<
von pillepalle - Fr 8:51
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Frank Glencairn - Fr 6:22
» Venice 2 Bildqualität zum halben Preis? Sony Burano Sensortest
von cantsin - Fr 0:52
» Nikon stellt NIKKOR Z 28-400mm f/4-8 VR Superzoom-Objektiv vor
von iasi - Do 22:45
» Panasonic AG-UX90 Phantomspeisung defekt?
von Fabi283 - Do 22:03
» Mac SSD Speed Messung?
von TomStg - Do 21:43
» Deity Sidius TC Sync Software
von pillepalle - Do 19:58
» Red Komodo 6K + Gimbal, Advanced Ring Grip und viel Zubehör
von Sevenz - Do 19:01
» 4 Gründe hartes Licht zu nutzen
von ruessel - Do 15:45
» [gelöst] 3.5mm Klinkenstecker Überwurfmutter
von Skeptiker - Do 14:42
» -SONY FX- Erfahrungsaustausch
von rush - Do 13:40
» AOC bringt 44.5" OLED-Riesenmonitor mit 98.5% DCI-P3
von MK - Do 12:07
» Exhuma - die Südkoreaner können erfolgreiche Filme drehen
von -paleface- - Do 8:46
» Sony A9 III im Praxistest - ein echter Überraschungscoup auch für Filmer
von Mantas - Mi 23:27
» Video Pro X stürzt beim Multi Cam Schnitt ab
von MisterX - Mi 21:47
» Verschachtelte Timeline im richtigen Seitenformat
von Clemens Schiesko - Mi 18:43