Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Wie deutet man die 4K-Testbilder aus der 4K-Datenbank richtig?



Newsmeldung von slashCAM:





Nachdem in unserer neuen 4K Datenbank auch die 4K-Debayering Testbilder zum direkten Vergleich aufgerufen werden können, wollen wir in einem separaten Grundlagenartikel darstellen, auf welche Stellen es in diesem Bild besonders ankommt.



Hier geht es zum slashCAM Artikel:
Grundlagen: Wie deutet man die 4K-Testbilder aus der 4K-Datenbank richtig?


Space


Antwort von Peppermintpost:

hey Rudi, wieso könnt ihr nicht die testbilder einfach in voller auflösung ablegen? wir erzeugen hier im forum so viel datenmüll, da kommt es doch auf ein einzelnes bild auch nicht mehr an, zumal so viele kameras gibts ja auch nicht, selbst wenn da mal 100 bilder mit 40mb rumliegen. oder habt ihr das schon und ich bin nur zu blöd das zu finden. alles was ich sehe ist ein crop, damit kann ich nichts anfangen.

Space


Antwort von mash_gh4:

was mir bei diesen tests leider fast immer abgeht, sind saubere RAW referenzbilder.
natürlich kann man die aus manchen viseo-kameras nicht einfach herauskitzeln, aber bei den ganzen systemkameras sind sie normalerweise in der foto-betriebsart jederzeit zugänglich. derartige RAW quellen erlauben erst eine vernünftige abschätzung des tatsächlichen sensor-OLPF- objektiv-systems, ohne gleich all die anderen verzerrungen durch die internen videoverarbeitung als verfälschung in die ergebnisse einfließen zu lassen. das ist auch in etwa die vorgehensweise, die bspw, imatest empfieht bzw. bei anderen seriösen (foto-)kamera tests üblich sind, also bei testübergreifenden vergleichen herangezogen werden müssen.

natürlich macht es auch sinn, das fertig prozessierte signal zu untersuchen! das ist ja immerhin am nächsten an dem dran, was in der praxis wirklich zählt! das problem ist nur, dass es leider tlw. oft auch den blick auf die eigentlichen ursachen und zu grunde liegenden mängel verstellt, wenn nicht auch die darunter liegenden stufen (RAW...) sauber mitdokumentiert werden.

eure erklärungen zu den debayering-methoden bzw. -fehlern, erscheinen mir in diesem zusammenhang leider auch geradezu symptomatisch für einen diesbezüglich eingeengten blick. ich trau mich wetten, dass sie z.t. die tatsächlich benutzten interpolations-algorithmen nicht wirklich treffen, sondern nur eine der möglichen interpretation betreffender begleiterscheinungen -- eine einigermaßen plausible, aber trotzdem spekulative deutung der entsprechenden black box -- liefern. ich will das nicht völlig in frage stellen -- es hat sicher seine berechtigung bzw. brauchbarkeit für viele leser --, aber mich schreckt es trotzdem immer wieder, weil es den tatsächlichen wert sauberer messungen und damit verbundener objektivität und komplexität oft geradezu konterkariert.

Space


Antwort von WoWu:

Die SMPTE diskutiert derzeit in Gremien veränderte Testmethoden für Videokameras sowohl mit Still, als auch mit Bewegbild, um (auch) eine Transparenz der Regenerationsalgorithmen zu erreichen, die mittlerweile zuwenig Rückschluss, in den bestehenden Testmethoden, auf die effektive Bildleistung zulassen denn kantenortbestimmte Berechnungen (auch Rundungen) haben keinen Bezug mehr zur Wirklichkeit und präsentieren keine Bilddetails, es sei denn, man filmt nur Testbilder.
Insofern seid Ihr da mit den Tests nicht allein im Dilemma.

Space


Antwort von motiongroup:

Das ist aber interessant das Smpte neue Verfahren einsetzen will oder muss ..
Heißt das dann, dass die bisherigen Verfahren für die Fische sind quasi nicht aussagekräftig genug und oder Felhinformationen liefernd..
Stellt sich natürlich die Frage wie sich dieser Erkenntnisgewinn auf die Bewertungsmaßstäbe der Ebu Whitepapers auswirken könnte oder wird...

Space


Antwort von rudi:

hey Rudi, wieso könnt ihr nicht die testbilder einfach in voller auflösung ablegen? wir erzeugen hier im forum so viel datenmüll, da kommt es doch auf ein einzelnes bild auch nicht mehr an, zumal so viele kameras gibts ja auch nicht, selbst wenn da mal 100 bilder mit 40mb rumliegen. oder habt ihr das schon und ich bin nur zu blöd das zu finden. alles was ich sehe ist ein crop, damit kann ich nichts anfangen. Meinst Du volle Auflösung oder natives Dateiformat?
Der Witz ist, dass die gezeigte Auflösung pixelnativ ist, alles darum ist nur rauschendes Schwarz...
Der Ausschnitt dient unter anderem dazu, dass man auch auf kleinen Displays einen Vergleich sehen kann und auf die Bilder ohne Skalierung in den Artikeln Bezug nehmen kann.

Space


Antwort von rudi:

was mir bei diesen tests leider fast immer abgeht, sind saubere RAW referenzbilder.
natürlich kann man die aus manchen viseo-kameras nicht einfach herauskitzeln, aber bei den ganzen systemkameras sind sie normalerweise in der foto-betriebsart jederzeit zugänglich. derartige RAW quellen erlauben erst eine vernünftige abschätzung des tatsächlichen sensor-OLPF- objektiv-systems, ohne gleich all die anderen verzerrungen durch die internen videoverarbeitung als verfälschung in die ergebnisse einfließen zu lassen. das ist auch in etwa die vorgehensweise, die bspw, imatest empfieht bzw. bei anderen seriösen (foto-)kamera tests üblich sind, also bei testübergreifenden vergleichen herangezogen werden müssen.

natürlich macht es auch sinn, das fertig prozessierte signal zu untersuchen! das ist ja immerhin am nächsten an dem dran, was in der praxis wirklich zählt! das problem ist nur, dass es leider tlw. oft auch den blick auf die eigentlichen ursachen und zu grunde liegenden mängel verstellt, wenn nicht auch die darunter liegenden stufen (RAW...) sauber mitdokumentiert werden.

eure erklärungen zu den debayering-methoden bzw. -fehlern, erscheinen mir in diesem zusammenhang leider auch geradezu symptomatisch für einen diesbezüglich eingeengten blick. ich trau mich wetten, dass sie z.t. die tatsächlich benutzten interpolations-algorithmen nicht wirklich treffen, sondern nur eine der möglichen interpretation betreffender begleiterscheinungen -- eine einigermaßen plausible, aber trotzdem spekulative deutung der entsprechenden black box -- liefern. ich will das nicht völlig in frage stellen -- es hat sicher seine berechtigung bzw. brauchbarkeit für viele leser --, aber mich schreckt es trotzdem immer wieder, weil es den tatsächlichen wert sauberer messungen und damit verbundener objektivität und komplexität oft geradezu konterkariert. Grundsätzlich können wir auch noch RAW Files hinterlegen und ich habe auch schon diesmal schwer drüber nachgedacht. Bislang waren RAW-Kameras bei slashCAM eher die Ausnahme, jedoch werden sie in letzter Zeit immer häufiger. Wird also schon intern diskutiert, allerdings müssen wir dann halt auch immer aufpassen dass um den Testkasten herum alles aufgeräumt ist, was gerade nie der Fall ist ;)

Space


Antwort von rudi:

Insofern seid Ihr da mit den Tests nicht allein im Dilemma. Danke für die stärkenden Worte. Du weißt sicher selber, dass wenn man sowas hunderprozentig angehen will, es wahrscheinlich mehrere Vollzeit-Ingenieure bräuchte.
Nachdem ich früher oft schlecht geschlafen habe, wenn ich mir bei manchen Sachen einer gewissen wissenschaftlichen Ungenauigkeit durchaus bewusst war, denke ich heute: lieber eine vielleicht leicht unscharfe Tendenz spekuliert, als gar nichts gemacht ;)

Space


Antwort von Peppermintpost:

hey rudi, mit crop meinst du, da ist kein scaling mehr drin? nur aussen herum abgeschnitten? ich hab mal ein 1 pixel checker board drauf gelegt, das ist das test bild der 4k ursa. also wenn das stimmt, dann kommt aus der 4k ursa nicht einmal sauberes hd raus. ist das so?

Space



Space


Antwort von rudi:

Ich muss für heute los, aber gehe morgen drauf ein...
Ich denke da ist ein Missverständnis...

Space


Antwort von rudi:

Aber noch kurz:. An den Choma-Pixeln siehst du ja gut, dass es wirklich 1:1 ist...Die sind genau so groß, wie auch dein Checkerboard...

Space


Antwort von Peppermintpost:

ja klaro, ein pixel ist ein pixel, da geht kein weg dran vorbei, nur in dem pixel findet ja keine echte auflösung statt, daher die frage. genau um diese irritationen zu vermeiden finde ich originalgrössen gut, weil es dann einfach eindeutig ist ;-) aber lass uns das gerne morgen mal näher betrachten. schönen feierabend.

Space


Antwort von WoWu:

Thorsten

die Frage ist ja gerade. ... ist ein Pixel wirklich ein Pixel oder ein Conglumerat aus umliegenden Informationen.
Daher wirst Du mit einer Vollauflösung auch nichts Genaueres hinbekommen. Ganz im Gegenteil.
Daher auch seinerzeit mal der Ansatz, nur einen Pixel darzustellen. Sowas ähnliches, nur dann in einer zunehmenden Flächenkette wird auch für neue Testverfahren diskutiert.

@Motiongroup
Ja genau das heißt das, weil die Verfahren noch aus analogen Zeiten stammen, in denen eine 1:1 Bildübertragung noch gewährleistet war.
Das ist aber heute nicht mehr der Fall, weil Bildelemente künstlich errechnet werden.
Beispielsweise auch auf veränderte Abtastmethpden.
Intention ist es, die Hochwertigkeit der Bildübertragung festzustellen und nicht auf nachgerechnete Kreise und Linien zu stoßen, die im Testbild zwar perfekt aussehen, aber nicht durchs Objektiv gekommen sind.
Es geht also um die Transparenz der Inhalte.

Space


Antwort von motiongroup:

Na das perlt aber so richtig zumal viele Hersteller ihr Prospektmaterial in den Kübel befördern können..

Besonders Strange das die Ebu Zertifizierung für Aufzeichnungsgeräte im Sendeanstaltenbetrieb während dem man sich darauf berufen, quasi überholt ist..

Passt schon ... Das erinnert mich irgendwie ans Dieselgate welches nun nicht nur VW betrifft sondern die komplette Autobranche.. Ich finde das voll geil zu,al ich selbst zwei in der Garage stehen habe und keiner weis wies weiter geht :-)))))

Space


Antwort von Peppermintpost:

Thorsten

die Frage ist ja gerade. ... ist ein Pixel wirklich ein Pixel oder ein Conglumerat aus umliegenden Informationen.
Daher wirst Du mit einer Vollauflösung auch nichts Genaueres hinbekommen. Ganz im Gegenteil.
Daher auch seinerzeit mal der Ansatz, nur einen Pixel darzustellen. Sowas ähnliches, nur dann in einer zunehmenden Flächenkette wird auch für neue Testverfahren diskutiert.
keine frage, aber ich bin es einfach nicht gewohnt nur auf einen bild ausschnitt zu schauen, von daher finde ich es noch etwas schwieriger ein bild zu beurteilen. dazu kommt halt das ich bei einem bildauschnitt keine chance habe zu sehen was da in der post passiert ist.

Space


Antwort von klusterdegenerierung:

Thorsten, meinst Du es so wie die es bei dpreview machen?
http://www.dpreview.com/reviews/sony-al ... lpha-7r-ii

Space


Antwort von rudi:

ja klaro, ein pixel ist ein pixel, da geht kein weg dran vorbei, nur in dem pixel findet ja keine echte auflösung statt, daher die frage. genau um diese irritationen zu vermeiden finde ich originalgrössen gut, weil es dann einfach eindeutig ist ;-) aber lass uns das gerne morgen mal näher betrachten. schönen feierabend. so ganz kapiere ich - auch nach reichlich Schlaf- nicht, was du meinst.
Hier mal ein Link auf einen DNG-4,6K RAW-Frame einer Testaufnahme.
https://drive.google.com/file/d/0B7nCzx ... sp=sharing
Inwieweit wäre sowas hilfreich?

Space


Antwort von Peppermintpost:

oh ok, verstehe. ne das ist nicht wirklich hilfreich. und was ihr in die datenbank packt ist tatsächlich nur die mitte heraus gecropt? ihr scaliert das nicht auf irgend ein ziel format und cropt dann das center, sondern ihr cropt das sofort. wie ist da euer workflow? davinci - render original size - und dann photoshop crop, oder wie? für mich ist wichtig zu wissen welche schritte das bild durchlaufen hat, und dabei sind ja details u.U. wichtig. hab ich das original,
dann muss ich darüber ja nicht nachdenken, weil es halt keine bearbeitung erhalten hat. ich verstehe aber das ihr die bilder so nicht veröffentlichen wollt. keine ahnung, evtl solltest du meine anmerkung vergessen, ich hab da kein patent rezept. ich hätte gerne sowas gesehen wie euer stillleben mit einem testcart in der mitte. dann habe ich einen kompletten bild eindruck und kann zusätzlich pixel zählen. aber wir sind hier ja nicht bei "wünsch dir was". danke dir rudi das du dir die mühe gemacht hast.

Space



Space


Antwort von mash_gh4:

Inwieweit wäre sowas hilfreich? irgendwie habe ich mit dem konkreten beispiel iprobleme, kann's jedenfalls nicht vernünftig auswerten...

trotzdem: prinzipiell würde ich es fein finden, wenn diese zugrundeliegenden daten verfügbar wären, um manche tests ggf. auch mit anderen mitteln nachzuholen bzw. weiter zu vergleichen. es muss nicht immer ein DNG sein. bei normalen video-kameras wäre ein möglich unkomprimiertes bzw. in der unterabtastung und farbrepräsentation nicht wesentlich verändertes standbild ausreichend, und bei jenen produkten, die auch raw (und sei es auch nur im foto modus) beherrschen, zusätzlich noch die daten direkt vom sensor.

Space


Antwort von rudi:

wie ist da euer workflow? davinci - render original size - und dann photoshop crop, oder wie? für mich ist wichtig zu wissen welche schritte das bild durchlaufen hat, und dabei sind ja details u.U. wichtig. hab ich das original.
. Workflow ist natürlich für jede Kamera etwas unterschiedlich. In diesem Fall aber DaVinci->Galery Still->Photoshop->crop.
Wobei das meiste auch hier schon vor dem ersten Schritt passiert, nämlich beim Default-Debayering in DaVinci. Hier entsteht natürlich schon u.a. die Schärfe. Und auch das Chroma-Debayering (das in ProRes in der Kamera recht ähnlich ist).
Aber jetzt auch mal Hand aufs Auge: Was wir hier im Laufe der Zeit tendenziell gesehen haben, ist eben vor allem, ob der Hersteller eher Luma oder Chroma "opfert", stark oder eher kaum filtert, ob evtl. ein OLPF in den richtigen Frequenzen anpackt und ob ein Downsampling sauber oder nur billig zustande kommt (zB.. Line Skipping).
Das ist ja schon ne Menge relevante Info und was darüber hinaus geht wird selbst für PPPs (Profi Pixel Peeper) schwer zu deuten ;)

Space


Antwort von rudi:

Inwieweit wäre sowas hilfreich? irgendwie habe ich mit dem konkreten beispiel iprobleme, kann's jedenfalls nicht vernünftig auswerten... Ist ein komprimiertes 4:1 BM-DNG, geht IMHO aktuell nur im Resolve auf.

trotzdem: prinzipiell würde ich es fein finden, wenn diese zugrundeliegenden daten verfügbar wären, um manche tests ggf. auch mit anderen mitteln nachzuholen bzw. weiter zu vergleichen. es muss nicht immer ein DNG sein. bei normalen video-kameras wäre ein möglich unkomprimiertes bzw. in der unterabtastung und farbrepräsentation nicht wesentlich verändertes standbild ausreichend, und bei jenen produkten, die auch raw (und sei es auch nur im foto modus) beherrschen, zusätzlich noch die daten direkt vom sensor. Prinzipiell könnte man natürlich noch viel mehr machen, aber irgendwann steht der Aufwand nicht mehr im Verhältnis zum Leser-Interesse. Falls du Bedenken hast, dass die JPEGs hier gegenüber Tiffs nochmal Fehler hinzufügen: Wir testen immer mal visuell dagegen und sehen keinen Unterschied, was auch in der Regel logisch ist. Was vorher schon von H.265 eingestampft wurde verliert hier meistens nicht mehr viel, wenn die JPG Qualität "near lossless" ist. Wie gesagt, bei unserem Motiv und niedriger JPG-Kompression bleibt das Meiste erhalten, der Rest ist selbst im AB-Sichtvergleich nicht zu sehen sondern erst bei einer Daten-Analyse. Und die meisten Leser sehen das Ding dann auf einem normalen 8 Bit Computer-Monitor.
Dennoch: Wenn 10 Bit mal auch auf der Display-Seite mehr verbreitet ist und die Kameras auch tatsächlich solche Nuancen produzieren, werden wir sicher mal alles bei uns in Frage stellen ;)

Space


Antwort von Peppermintpost:

wie ist da euer workflow? davinci - render original size - und dann photoshop crop, oder wie? für mich ist wichtig zu wissen welche schritte das bild durchlaufen hat, und dabei sind ja details u.U. wichtig. hab ich das original.
. Workflow ist natürlich für jede Kamera etwas unterschiedlich. In diesem Fall aber DaVinci->Galery Still->Photoshop->crop.
Wobei das meiste auch hier schon vor dem ersten Schritt passiert, nämlich beim Default-Debayering in DaVinci. Hier entsteht natürlich schon u.a. die Schärfe. Und auch das Chroma-Debayering (das in ProRes in der Kamera recht ähnlich ist).
Aber jetzt auch mal Hand aufs Auge: Was wir hier im Laufe der Zeit tendenziell gesehen haben, ist eben vor allem, ob der Hersteller eher Luma oder Chroma "opfert", stark oder eher kaum filtert, ob evtl. ein OLPF in den richtigen Frequenzen anpackt und ob ein Downsampling sauber oder nur billig zustande kommt (zB.. Line Skipping).
Das ist ja schon ne Menge relevante Info und was darüber hinaus geht wird selbst für PPPs (Profi Pixel Peeper) schwer zu deuten ;) grundsätzlich hast du recht. und um es ganz klar zu sagen. ich schätze eure arbeit sehr, und auch den versuch so neutral wie möglich zu sein. du hast auch recht, ihr könnt keinen test durchführen der jedem einzelnen slashcam user gerecht wird. das ist vollkommen ok.

ich selbst kann mit testcharts leider nur bedingt was anfangen, weil die sehr oft zu missverständlichen ergebnissen führen. ich gebe ein beispiel mit zwei extremen. teste eine sony fs7 gegen eine canon 5d und mach das mit testcharts, dann stellst du sehr schnell fest, die canon ist ein klumpen kernschrott. die ist unscharf, die farben stimmen nicht, die kompremiert wie die sau, alles das kannst du sehr schnell mit einem testchart sehen und die sony ist in allen bereichen lichtjahre vorraus. ja und dann schaust du dir mal ein einfaches video an, wie z.b. das was klusterdegenerierung in einem anderen beitrag gepostet hat:

und dann stellst du fest, scheisse, das ding kann evtl technisch garnix, aber es sieht einfach gut aus.
das ist genau der effekt der mir wichtig ist. ich möchte schon wissen was passiert da unter der haube. also ein testchart zu sehen finde ich schon wichtig. aber ich möchte halt auch sehen wie ist der gesammte bildeindruck.
eine ursa mini und eine gh4 unterscheiden sich bei testcharts kaum, aber der look der beiden kameras ist grundsätzlich anders (ohne jetzt besser/schlechter zu bewerten). ich finde halt beides wichtig. wer das gesammtbild nicht einschätzen kann, fein, der soll halt nach moire suchen. wem das testchart egal ist der soll sich das bild ansehen. eine schachtel voll pralinen für jeden was dabei ;-)
aber ihr könnt natürlich auch keine unendliche zeit investieren, das ist mir klar, daher nehme ich was ich bekommen kann, auch wenn es zartbitter ist ;-)

Space


Antwort von WoWu:

Na ja, Thorsten, aber genau da hast Du es wieder ... große gebinnte Pixels, gute opto-elektrisches transfere, weil die Objektive das, was der Sensor erwartet auch packen und daher auch einen hohen optischen Anteil im Bild.
Kanten haben noch natürliche Schatten und einen weichen Übergang, im Gegensatz zu nachgerechneten Teilen, die gar nicht mehr vom Objektiv stammen.
Dazu kommt noch, dass das RAW Footage auch keine nennenswerte Kompression gesehen hat.
Optische Umsetzungen kannst Du einfach nicht schlagen.
Nur gibt es dafür eben leider keine Bemessungsgrundlage, die man in Werte fassen kann.

Ich denke auch, dass der Weg, bevor man in höhere spatiale Auflösung geht, lieber in bessere Bildqualitäten zu gehen, der vernünftige Ansatz ist.
Aber die Fraktion ist hier nicht allzu groß.

Space


Antwort von Peppermintpost:

ich hab mal ein paar jahre nicht im film/foto bereich gearbeitet sondern high end hifi zeugs verkauft (ist fast 30 jahre her, fragt mich nicht welcher cd player heute der beste ist, ich hab keine ahnung, ich hab noch nicht mal einen cd player ;-). jedenfalls hat damals ein händler mit dem ich befreundet bin und sehr schätze zu mir gesagt, die menschen sind durch die testberichte derartig verunsichert, das die sich noch nicht einmal mehr trauen zu sagen was ihnen besser gefällt, selbst wenn fast alle instinktiv zum richtigen ergebniss kommen würden. aber in der zeitung steht ja ggf was anderes also gibt man die entscheidung lieber ab.
ergänzend hat er noch gesagt, frauen haben viel bessere ohren als männer, nicht weil die wirklich das bessere gehör haben, sondern weil sie keine testberichte lesen.

beides stimmt, und ich finde, was er vor 30 jahren gesagt hat, das kann man heute auch gut auf bilder übertragen.

einfach mal blindtests machen und entscheiden was gefällt, und wenn man zufällig zu dem schluss kommt das einem ne olle gh2 gefällt, na und? dann ist man in der gleichen liga wie francis ford coppola, es gibt schlimmere beleidigungen.

Space


Antwort von WoWu:

Jau ...

Space


Antwort von glnf:

Ich vermute, viele offene Fragen hier sind darauf zurückzuführen, dass man sich nicht wirklich im klaren ist, was ein Pixel ist. Aussagen wie "unscharfe Pixel" und das Verhalten vieler Programme helfen dem Verständnis auch nicht besonders.

Also: 1 Pixel ist die kleinste Bildeinheit (bei einem gerasterten Bild – es gibt auch andere Wege um ein Bild zu digitalisieren, also in Zahlen umzuwandeln). Der Pixel basiert somit erst mal auf einer abstrakten Definition. Er hat weder eine Ausdehnung oder Form und kann je nach Bittiefe eine mehr oder weniger grosse Auswahl von Farben einnehmen. Hier kommt zum Beispiel die 8Bit vs. 10Bit Frage (normalerweise pro Farbkanal zu verstehen) ins Spiel. Mit 10 Bits pro Pixel & Farbkanal lassen sich schlicht mehr Farbabstufungen festhalten als mit 8.

Die Pixel sind in einem Bild normalerweise schachbrettförmig angeordnet, die Anzahl Pixel in der Breite und Länge geben die Auflösung des Bildes an. Im Falle von HD sind das 1920 x 1080 Pixel. Von einer Pixelgrösse kann man noch nicht sprechen, solange das Bild nicht auf einem Bildschirm wiedergegeben wird. Auf einem Laptop sind die Pixel viel kleiner als auf einem Fernseher. Die Auflösung bleibt sich jedoch gleich (solange nicht skaliert wird).

Um die Pixel quasi einzeln zu betrachten ist zum Beispiel Photoshop gut geeignet. Zoome ich stark in ein Bild hinein, werden die Pixel als (scharfe) Quadrate abgebildet. Viele andere Programme (inklusive der typischen Schnittprogramme) zeigen die Pixel nicht korrekt als Quadrate an, sondern interpolieren sie zu einer mehr oder weniger ansehnlichen Masse. Dies dient natürlich dazu, ein besseres Ergebnis beim Skalieren zu erzeugen. Beim Pixelpeeping führt das jedoch zu viel Konfusion. Die meisten Ausschnittvergrösserungen welche in Foren oder auf den Videoplattformen hochgeladen werden, zeigen ein interpoliertes unscharfes Bild an Stelle von scharfen Pixel. Das Selbe gilt für Webbrowser: Wenn ich bei mir in Safari das Slashcam Testbild vergrössert anschaue, interpoliert Safari eine höhere Auflösung und verunmöglicht mir die einzelnen Pixel als solche zu erkennen. Vergrössert man das selbe Bild in Photoshop wird sofort ersichtlich, wie das reale Testbild von der Kamera digitalisiert, also in Pixel umgewandelt wird. Dabei zeigt sich auch, wie nahe die Kameras an das heran kommen, was überhaupt möglich ist.

Ich füge mal zwei Bilder an, welche das Problem illustrieren. Einerseits den korrekt vergrösserten Ausschnitt vom Slashcam NX1 4K Testbild (2000%) bei welchem die Pixel als solche sichtbar werden. Andererseits eine typische interpolierte Vergrösserung vom selben Bild. Die sieht zwar besser aus, sie lässt aber keine Rückschlüsse auf die Auflösung & Qualität der Kameras zu. Es ist vergleichbar damit, eine Aufnahme auf einem Consumerfernseher zu betrachten bei dem sämtlich Bildoptimierungsoptionen an sind. Kein Wunder entsteht dann fälschlicherweise der Eindruck "die Pixel sind unscharf". Sie sind es tatsächlich, aber natürlich nicht in der Aufnahme (das ist ja unmöglich) sondern in der Darstellung auf dem Bildschirm.

Space


Antwort von dienstag_01:

Das erste Bild ist natürlich auch interpoliert, nur mit einem anderen Algorithmus. Oder kannst du Pixel an deinem Bildschirm *vergrößern* ;)

Space



Space


Antwort von glnf:

Das erste Bild ist natürlich auch interpoliert, nur mit einem anderen Algorithmus. Oder kannst du Pixel an deinem Bildschirm *vergrößern* ;) Zum Darstellen der Pixel brauche ich halt auch Pixel, so gesehen hast du natürlich recht. Jedoch zeigt nur diese Darstellung das Verhältnis zwischen den tatsächlichen Pixel (im mathematischen Sinne) und dem Bild welches sie abbilden.

Space


Antwort von Peppermintpost:

die scalierung eines bildes führt IMMER und ZWANGSLÄUFIG zur veränderung der pixel. wenn ich aber die schärfe/details eines bildes beurteilen möchte, dann ist es unerlässlich um überhaupt eine einschätzung zu treffen zu wissen wie das bild nach der aufnahme behandelt wurde. wenn ich zum beispiel 4k aufnehme, das bild dann aber in eine UHD timeline ziehe und von da aus in uhd exportiere und dann einen teil heraus crop, dann brauchen wir uns über die pixel ebene nicht mehr unterhalten, weil an der stelle schon einige berechnungen stattgefunden haben die die pixel verändern.

gebe ich ein bild in 1:1 weiter, dann ist an der stelle jede diskussion vom tisch, weil es unbehandelt ist.

als verschöhrungstheoretiker würde ich sagen, ein crop bild ist mir egal, weil da schon alles manipuliert sein kann und ich keine chance habe das noch nachvollziehen zu können.
als mensch aus der praxis sage ich, selbst wenn keiner die absicht hat ein bild zu manipulieren, ein einfacher menschlicher fehler, wie er tag täglich passiert kann die testergebnisse ruinieren.

ist bei einem 1:1 bild nicht der fall, da sind die fehler dann nur meine eigenen.

Space


Antwort von mash_gh4:

Zum Darstellen der Pixel brauche ich halt auch Pixel, ... ein glück, dass diese erklärungen bisher noch nicht das wunder der farben berührt haben -- speziell in jener weise, wie sie uns im video-alltag begegnet, wo ja quasi die 'pixel-größe' der fabinfomation und der helligkeit 'scheinbar' nicht deckungsgleich ist. ;)

Space


Antwort von WoWu:

Also wirklich ... sich ein Pixel als übertragenes Quadrat mit physikalischen Ausmaßen vorzustellen ist ja wirklich lustig.
Ein Pixel ist lediglich ein Helligkeitswert innerhalb einer Matrix und der überträgt auch keine Farbe sondern repräsentiert nur den Messwert hinter einem Farbfilter.

Space


Antwort von glnf:

Also wirklich ... sich ein Pixel als übertragenes Quadrat mit physikalischen Ausmaßen vorzustellen ist ja wirklich lustig.
Ein Pixel ist lediglich ein Helligkeitswert innerhalb einer Matrix und der überträgt auch keine Farbe sondern repräsentiert nur den Messwert hinter einem Farbfilter. Ach Wowu, erst kommst du so klar, mathematisch rüber. Und dann sowas: "... Messwert hinter einem Farbfilter." Was nun? Eine Zahl welche etwas repräsentiert, nämlich einen Farbwert. Oder doch so was konkret profanes wie einen Messwert hinter einem, würg, Farbfilter? Dem Pixel ist es wohl wurst wie der Wert entsteht. Kann ja auch gerendert oder sonst wie festgelegt worden sein. Kommst du mit Farbfilter, musst du ja auch mit den Sensoren auf einem Chip, deren Form, Anordnung, physikalische Eigenschaften, etc. kommen. Das hat dann aber mit erfassten und aufgezeichneten Pixel herzlich wenig zu tun.

Space


Antwort von mash_gh4:

Also wirklich ... sich ein Pixel als übertragenes Quadrat mit physikalischen Ausmaßen vorzustellen ist ja wirklich lustig.
Ein Pixel ist lediglich ein Helligkeitswert innerhalb einer Matrix und der überträgt auch keine Farbe sondern repräsentiert nur den Messwert hinter einem Farbfilter. Ach Wowu, erst kommst du so klar, mathematisch rüber. Und dann sowas: "... Messwert hinter einem Farbfilter." ja -- früher haben sich gebildete leute noch darüber gestritten, wie viele engel auf einer nadelspitze platz finden, heute dagegen zählen wohl nur mehr die ontologischen mysterien und spekulationen rund um eine welt aus pixeln...

trotzdem: vielleicht bringt es was, wenn man hier zwischen pixel und sensel unterscheidet.

am kamera-sensor gibt's nämlich tatsächlich noch diskrete einzelne sensoren (auch wenn uns der WoWu immer klar zu machen versucht, dass uns die hersteller betrügen, und höchstens halb so viele wie angegeben davon zu finden sind, wenn man wirklich nachzählt ;)), während ausgabenseitig bzw. in der bildbeschreibung pixel oft wirklich etwas reichlich abstraktes sein können. so kommen z.b. in den meisten grafikbeschreibungstechniken die eigentlich sichtbaren punkte nicht an den gitterlinen mit ganzzahligen koordinatenangaben zu liegen, sondern genau dazwischen...


zum Bild


Space


Antwort von WoWu:

Ach mash, das müsste je nun kommen, dass Du auf der Semantik rumreitest, obwohl Der Begriff Sensel schon wesentlich läng in der Physik für "Sensitive Element" belegt ist.
Auch behauptest Du von mir, ich würde die Menge der Pixel eines Sensors bestreiten .... Du behauptest da dummes Zeug und zeigst, dass Du den Punkt überhaupt nicht verstanden hast.
Ich behaupte lediglich, dass bei kleinen Pixels, durch Beugung oder ein mangelhaftes Punktbilder mehrere Pixels gleichzeitig überstrichen werden und so in der optischen Summe weniger Bildpunkte entstehen, als Pixels auf dem Sensor vorhanden sind.
Du solltest also, wenn Du meine Postings schon kommentierst, vorher genau nachlesen.
Und was Du da mit Deiner Grafikbeschreibung anführst hat mit dem Grundelement "Pixel" überhaupt nicht zu tun sondern ist bereits ein Anwendumgsfall.
Thema verfehlt.

@ginf
Ich glaube, Du hast noch nicht wirklich begriffen, dass pro Sensorpixel lediglich ein einziger Wert entsteht und das der auch nichts mit Farbe zu tun hat sondern dass diese Bezeihung erst aus der Matrixposition ... und auch nur theoretisch angenommen bzw. Errechnet wird und dass in der gesamten Videoübertragungstechnik nur relativ zur Matrixposition mit "Farbe" umgegangen wird, weil erst an deinem Monitor wieder eine analoge Wellenlänge entsteht, die Du als Farbe erkennst.
Dazwischen haben wir es ausschließlich mit Luminanzwerten zu tun.

Du solltest, bevor Du uns hier (auch noch falsch) erklärst, was ein Pixel ist, vielleicht nochmal nachlesen, wie so ein System überhaupt funktioniert.

Space


Antwort von glnf:

@ginf
Ich glaube, Du hast noch nicht wirklich begriffen, dass pro Sensorpixel lediglich ein einziger Wert entsteht und das... Ich habe nie von Sensorpixel oder Sensel geredet. Ich gehe einzig und alleine auf die Aufnahmen der Slashcam Testcharts ein und dabei handelt es sich RGB Farbwerte in einer Matrix (wie du es selber bezeichnest), also um Pixel. Genau das, was ich von einer Kamera erhalte und benötige, völlig unabhängig davon, wie die Kamera zu diesen Werten kommt. Dass es da sehr unterschiedliche Wege gibt ist uns ja klar. Die Frage ob und wie gut eine Kamera auflöst, kann ich aber ganz unabhängig davon betrachten. Ich habe ein Testchart und ich habe eine Abbildung davon, that's it.

Space


Antwort von WoWu:

Tja, schöne, einfache, bunte Welt.
Deswegen werden oben auch die Schwierigkeiten angesprochen .... kann doch gar nicht sein...

Space



Space


Antwort von mash_gh4:

Ich gehe einzig und alleine auf die Aufnahmen der Slashcam Testcharts ein und dabei handelt es sich RGB Farbwerte in einer Matrix (wie du es selber bezeichnest), also um Pixel. Genau das, was ich von einer Kamera erhalte... naja -- wenn man sich die JPEGs genauer ansieht, die hier mit den tests verlinkt waren, dann enthalten sie alle:
File Type : JPEG Color Transform : YCbCr Bits Per Sample : 8 Color Components : 3 Y Cb Cr Sub Sampling : YCbCr4:4:4 (1 1) das ist zwar ohnehin näher an dem dran, was die kamera wirklich liefert, als das angesprochene RGB (auch wenn es sich sehr leicht dorthin umrechnen lässt), entfaltet aber erst im zusammenspiel mit der entsprechenden unterabtastung seinen sinn. und in dem punkt unterscheidet es sich dann doch wieder recht entscheidend vom simplen dreifarbigen klecks.

es ist gar nicht so einfach, einzelne frames aus einem videostrom herauszulösen, und dabei all diese ganze wesentlichen eigenschaften zu bewahren bzw. nicht zu verfälschen.

Space


Antwort von glnf:

... das ist zwar ohnehin näher an dem dran, was die kamera wirklich liefert, als das angesprochene RGB (auch wenn es sich sehr leicht dorthin umrechnen lässt), entfaltet aber erst im zusammenspiel mit der entsprechenden unterabtastung seinen sinn. Man betrachtet Testbilder unabhängig davon, was in der Kamera passiert. Es kann mir als Anwender völlig gleich sein, ob und wie der Sensor oder die Sensoren zum Bild kommen, wie die Kamera das Bild verarbeitet und wie der Videostrom abgetastet und komprimiert wird. Ich erhalte am Schluss der Kette unkomprimierte RGB Werte. Etwas anderes kann ein Beamer oder ein Display gar nicht darstellen. Schon klar, die Slashcam Testbilder sind wiederum als JPG komprimiert, auf dem Bildschirm siehst du aber das dekomprimierte Bild.

Dass die Unterabtastung (Farbsampling) einen Einfluss auf das Ergebnis hat stimmt natürlich. Aber genau das sehe ich ja dann im Testbild (in dem zum Beispiel Farben schlechter auflösen als Helligkeitswerte). Wenn ich einen Bericht über ein Restaurant lese, interessiert mich wie gut das Essen schmeckt. Mich interessiert weder die Temperatur des Kühlraums noch die Pfannenbeschichtung, auch wenn das ev. einen Einfluss auf die Speisen hat.

Space


Antwort von mash_gh4:

Schon klar, die Slashcam Testbilder sind wiederum als JPG komprimiert, auf dem Bildschirm siehst du aber das dekomprimierte Bild. naja -- ich würde es vernünftiog finden, wenn die bilder zumindest tatsächlich von i-frames stammen und möglichst wenig veränderung durch komprimierung od skalierung enthalten, sonst kann man sie wirklich kaum sinnvoll verglelichen. ich würd sie also bspw. mit folgender befehlszeile generieren:
ffmpeg -ss 10 -i TESTVIDEO -vf select="eq(pict_type\,I)" -vframes 1 OUTPUT.png Dass die Unterabtastung (Farbsampling) einen Einfluss auf das Ergebnis haben stimmt natürlich. Aber genau das sehe ich ja dann im Testbild (in dem zum Beispiel Farben schlechter auflösen als Helligkeitswerte). ja -- im idealfall ist das natürlich so. es gibt allerdings immer wieder zeitgenossen, die in 4:2:0 4K material, tatsächlich jede einzelne bunte kachel in den straßen von lissabon, auch wenn sie nur ein viertausendstel der bildbreite auszufüllen vermag, isoliert aufgelöst und in unverfälschten farben wiedergegeben sehen wollen. ;)
Wenn ich einen Bericht über ein Restaurant lese, interessiert mich wie gut das Essen schmeckt. Mich interessiert weder die Temperatur des Kühlraums oder noch die Pfannenbeschichtung, auch wenn das ev. einen Einfluss auf die Speisen hat. also mich kümmert es eigentlich weniger, ob es den betreffenden vorkoster dort wirklich geschmeckt hat, sondern ich bin eher daran interessiert, aus den kommunizierten fakten zu entnehmen, ob es sich tatsächlich auszahlen könnte, dort selbst einen besuch abzustatten, seine eigenen sinne zu verwöhnen und ggf. dabei auch die persönlichen maßstäbe und kritikfähigkeit zu erweitern.

Space


Antwort von Roland Schulz:

Die Crops der Tests hier finde ich eigentlich schon ziemlich ok.
Wenn ich teste habe ich allerdings immer noch einen ISO Ring in rot/blau daneben, da kommen dann meistens ganz flaue Sachen durch Begrenzung auf 4:2:0 oder halt die Minderzahl an blauen und roten Pixeln bzw. nativer Auflösung statt Oversampling bei raus.
Wenn man da jetzt ne echte Dreichip Kamera prüft erlebt man sein blaues Wunder. Da bläst ne olle FullHD Panny X909 eigentlich jede UHD Kamera weg!!
Zum Testen eignet sich, wenn's nicht auf die Farbe ankommt (tut's hier häufig ja auch nicht ;-) ), auch wunderbar ein iPad mit entsprechend dargestelltem Testchart, welches dann mit entsprechendem Maßstab nur einen Teil des aufgenommenen Bildes einnimmt. Da braucht man sich dann um Belechtung keine Gedanken machen und der Farbraum ist i.d.R. größer bzw. intensiver als von einem Druck.

...und loooos, viele warten hier auf Charts der a6300, damit dann auch die "Refernz" der NX1 fällt... ;-)!

Space


Antwort von Darth Schneider:

Ich finde das Slashcamteam macht die Testerei mehr als gut genug. Ich lese über Kameras die mich interessieren immer verschiedene Tests von verschiedenen Ländern und muss festselllen das die Ergebnisse bei den seriösen Testern und dazu zähle ich Söashcam mehr oder weniger übereinstimmen. Ich finde diese Pixelhascherei eher witzig als nützlich, da am Schluss bei einer Kamera doch alleine der visuelle Gesammteindruck am meisten zählt, der Zuschauer interessiert sich nicht dafür wie scharf ein Pixel ist sondern wie gut der Film ist.

Space


Antwort von Roland Schulz:

Ich finde das Slashcamteam macht die Testerei mehr als gut genug. Ich lese über Kameras die mich interessieren immer verschiedene Tests von verschiedenen Ländern und muss festselllen das die Ergebnisse bei den seriösen Testern und dazu zähle ich Söashcam mehr oder weniger übereinstimmen. Ich finde diese Pixelhascherei eher witzig als nützlich, da am Schluss bei einer Kamera doch alleine der visuelle Gesammteindruck am meisten zählt, der Zuschauer interessiert sich nicht dafür wie scharf ein Pixel ist sondern wie gut der Film ist. Ok, es gibt aber Grenzen: beim Matsch-Tatort gestern abend war ich kurz vorm Abschalten, das grenzte an Körperverletzung bzgl. Bildqualität!!

Space


Antwort von domain:

Ich finde diese Pixelhascherei eher witzig als nützlich, da am Schluss bei einer Kamera doch alleine der visuelle Gesammteindruck am meisten zählt, der Zuschauer interessiert sich nicht dafür wie scharf ein Pixel ist sondern wie gut der Film ist. Bin genauso wie meine Tochter freiwillig von HD auf die gleichzeitig verfügbaren SD-Sender im Kabel zurückgegangen.
Die gewiss bessere Auflösung lenkt nur vom eigentlichen Geschehen ab und man beginnt mit dem völlig unnötigen Pixelpeepen.

SD ist wunderbar und verschleiert gnädig so manche Unreinheiten.

Space


Antwort von merlinmage:

Sind jetzt in der Firma auch back auf miniDV Workflows zurück. Schont die Praktikanten immer mit diesen neuartigen Formaten jonglieren zu müssen und wir können unsere gesamten FW 400 Kabel weiterbenutzen UND brauchen keine HighEnd HW mehr kaufen. Da kann sich der Cutter auch vollkommen auf den Content konzentrieren, denn beim Bild bleibt meist nichts mehr übrig. Win-Win für alle.

Space


Antwort von Skeptiker:

(Kabel-TV) ... SD ist wunderbar und verschleiert gnädig so manche Unreinheiten. Und frisst deutlich weniger Speicherplatz, wenn man mal was aufnimmt - rein zur zeitverschobenen Information.
Für Spielfilme kann man ja immer noch HD (720 oder 1080) wählen.

Space



Space


Antwort von domain:

Unschärfe kann schon störend sein, so wie z.B. bei schlechtem Super-8 Material.
Solange sie aber nicht auffällig wird, ist die geringstmögliche Auflösung immer noch eine künstlerische Verfremdung ersten Grades, genauso wie 24 Fps und also hochgeschätzt bei Filmlookfreaks.
Mehr braucht der Mensch aber nicht, um glücklich und nicht mit unnötigen und u.U. beleidigenden Details außerhalb des wesentlichen Geschehens belästigt zu werden.

Space


Antwort von merlinmage:

Mehr braucht der Mensch aber nicht Gut, dass du die Referenz für alle bist. Schon süß ;)

Space


Antwort von domain:

Ist nur eine und wahrscheinlich ziemlich außenstehende Meinung, keinerlei Referenz und Meinungsmache ;-)

Space


Antwort von merlinmage:

Dann ist ja alles cool ;)

Space


Antwort von leonhard dy kabrio:

Mit Weihrauch und Myhrre und mit dem Lampenfett TX 10.000, was der Rudi mal
vorgeschlagen hat :)

Space


Antwort von Roland Schulz:

DV ist top - auf nem 24" aus 4m völlig ausreichend für Oma's Brille!!
Irgendwie vermisse ich da nur "den Blick durch's Fenster"...

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


ImpulZ LUTs ohne Artefakte/wie richtig einsetzen?
Wie befestige ich den Stabilisator richtig?
Shure Akku Guide: Wie lange hält ein Akku? Und wie lagert man ihn am besten?
Neue Nikon-Kamera sieht aus wie ein Filmklassiker aus den 80ern
Auf der Suche nach dem richtigen beruflichen Weg - wie leicht kommt man in einem Synchronstudio unter?
Wie führt man Regie - mit AKIZ (Regisseur von "der Nachtmahr")
reflektor streifen richtig filmen Bei Nacht .
LUTs in Lumetri unter Premiere Pro CC richtig anwenden
BM Pocket 4k funktioniert nicht mehr richtig nach Update
Pinnacle Studio 23 arbeitet auf einmal nicht mehr richtig
Premiere Pro Skalierung wird in Videovorschau nicht richtig angezeigt
Schnell richtig belichten, ich bin verwirrt
Monitore richtig kalibrieren
Mein Heimkino (falls ich mal richtig reich wäre...)
Zeiss steigt aus der Fotoindustrie aus
Die Top 20 Filme für die VFX-Oscars: Napoleon, Spider-Man, The Creator aber kein Oppenheimer
Wim Wenders: "Bei der Restaurierung besteht die Gefahr, dass man den Film verfälscht"




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash