Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Test: Panasonic GH4, Sony AX100 und Blackmagic 4K - Debayering, Schärfe un



Newsmeldung von slashCAM:


Test: Test: Panasonic GH4, Sony AX100 und Blackmagic 4K - Debayering, Schärfe und Moires von rudi - 6 May 2014 12:17:00
>Alle 4K-Kameras die wir in der letzten Zeit in unserem Testlabor hatten, verfolgen beim Debayering unterschiedliche Ansätze. Auch hinsichtlich unseren zukünftigen 4K-Messungen, wollten wir uns das noch einmal genauer angesehen haben.
zum ganzen Artikel

Space


Antwort von VideoUndFotoFan:

Danke für den sehr intersssanten Test !

Schön wäre es aber, wenn ihr bei der AX100 auch dazuschreiben würdet, ob das Messbild bei deaktiviertem Active Steady-Shot, oder eben bei aktiviertem, gemacht wurde.

Die Sensorfläche, die ausgelesen wird, ist nämlich unterschiedlich bei Active Steady ON, oder OFF.

Noch besser wäre es deshalb natürlich, wenn ihr im Falle der AX100 zwei Messbilder liefern könntet: Das eine mit aktiviertem Active Steady-Shot und das zweite ohne.

Space


Antwort von Bruno Peter:

Mit der nicht zu deaktivierenden Nachschärfung, dürfte Sony dagegen ein weiteres Mal die Liebhaber eines natürlichen Bildeindrucks vergraulen. Hmm..., würde mir sowas nie kaufen!
In sofern bin ich dankbar dafür, dass Slashcam das was ich auf den allerersten Blick auf Originalclips empfunden habe, nun zweifelsfrei belegt und bestätigt hat.

Diese übertriebenen Lichthöfe wie man Sie im Testchart sieht, habe ich noch nirgendwo sonst gesehen. Der Bildprozessor der Sony-Kamera legt wohl so etwas wie eine Unschärfemaske darüber mit völlig übertriebenen Einstellparametern.

Es gibt hier leider Leute die glauben, dass sowas was Sony da "zaubert" mit den Lichthöfen, etwas mit der Video-Auflösung zu tun hätte.

Space


Antwort von axl*:

Schade dass nicht alle so denken. Dann würden sie nämlich ihrem Kram nicht loswerden und endlich mit der Gängelei aufhören. Bis dahin "lecko mio" Sony.

Space


Antwort von Tiefflieger:

Die Nettopixelzahl der Sony AX100 reicht über 5K, insofern bleibt viel Spielraum für Luma- und Chromadetails in 4K.
Die Konturen werden nicht generell nachgezeichnet und viele verwechseln Bilddetailauflösung mit Schärfe.
Zum anderen wer vergleicht eine 2'000 EUR Kamera mit einer die 40'000 EUR kostet?
Ich :-), weil ich out of the Box in 4K und in 8 bit Farbtiefe nichts besseres bekommen kann. Egal ob elektronisch und im Feddback aller Camcorderkomponenten kompensiert wird.

*** Ironie und Schönredemodus ein ****
Systemkameras haben den menschlichen und handwerklichen Feedback und können nicht am Original kompensieren. Das folgende meine ich nicht beleidigend, aber 99 Prozent der Filmer sind Systemkameraschrauber ohne doppelten Boden (Systemfeedback)
Genau so sieht auch das Filmisch geredete Produkt aus, am besten in SD oder pseudo HD weiterfilmen.
*** Ironie und Schönredemodus aus ****

Gruss Tiefflieger

Space


Antwort von VideoUndFotoFan:

Ich bitte nochmal um einen Nachtrag beim Messbild der AX100, ob dieses mit Active Steady ON oder OFF gemacht worden ist.

Space


Antwort von WoWu:

Ich bin nach wie vor der Meinung, dass es sich bereits um Bildrekonstruktion handelt und die ursprüngliche Auflösung entweder bereits im Unschärfebereich ist und sie erst danach rekonstruiert wird oder generell mit einer deutlich geringeren Datenmenge abgetastet und erst anschliessend Reproduziert wird.
Das würde auch das abweichende De-bayering erklären.
Und auch, dass das Teil für die Sensoprgrösse fast keine Unschärfe in der Tiefe zeigt.
Das deutet auf Rekonstruktion hin, weil Rekonstruktionsketten alles schärfen, was unscharf ist und keine Ahnung von einer Z-Achse haben.

Space


Antwort von VideoUndFotoFan:

Interessiert mich aber nicht wirklich, denn als Filmer möchte ich ein möglichst gutes Endergebnis mit möglichst guter Bildqalität.
Ob da SONY und Konsorten zaubern, oder sogar Wunder vollbringen, ist mir dabei ziemlich gleichgültig.
Genauso wenig interessiert's mich, daß ein gewisser Herr Peter die AX100 nie kaufen wird.

Für mich ist ein sauberes und möglichst detailreiches UHD-Bild wichtig. Auch, um in der Übergangszeit auch noch FullHD mit möglichst guter Bildqualität daraus machen zu können.

Wie die Firmen das in UHD schaffen ist für mich nicht wichtig - nur die Bildqualität, das auf der Speicherkarte landet.

Deshalb wär's für mich auch sehr interessant zu erfahren, wie dieses saubere Messbild entstanden ist - mit Active Steady On, oder OFF. Damit ich weiß, wie ich filmen sollte, um dieses saubere Bild zu erhalten.

Space


Antwort von WoWu:

Interessiert Dich dann wahrscheinlich auch nicht, dass es kein DoF mehr gibt und dass 30% des Nutzsignals aus Filterflanken besteht, statt aus Bilddynamik und dass bei hohen Feinheitsgraden eine Flächenstruktur entsteht und dass um die Filterobjekte schwarze und weisse "Höfe", wie Bruno es nennt, entstehen.
Stört Dich dann vermutlich auch nicht, dass es hinterher nur noch fertige Videoformate gibt und der Eingriff in RAW-Formate, z.B. ins De Bayerin mit den allgemein unterstützten verfahren nicht mehr geht.

Und es stört Dich dann vermutlich auch nicht, dass solche verfahren der Rekonstruktion derzeit bereits in kommerziellen Upscalern eingesetzt werden und bei Anwendung auf HD dann auch solche Bilder generieren, d.h. dass in naher Zukunft das Alleinstellungsmerkmal Deiner Kamera für die Katz ist.

Wenn Dich das alles nicht stört ... nur zu.

Aber es ist ja gut zu wissen, dass Du so schmerzfrei bist, wenn Dich das alles nicht kratzt.

Space



Space


Antwort von Tiefflieger:

Hallo WoWu,

Mal ehrlich eine FullHD Kamera mit single Sensor und Debayering, selbst eine 4K Kinokamera erreicht keine 1/2 oder gar 1/4 Pixel Farbnuancen-Genauigkeit in FullHD.
Alles was bei FullHD an diesen Details fehlt kann auch nicht zu 4K rekonstruiert werden (nur Näherungsweise).
FullHD zu QFHD hat nun mal 4x mehr Pixel.

Das man am 55" bei 1.6m Sicht-Abstand in Upscaling bis auf die bessere Farben in echtem OFHD (und 8 bit) keinen Unterschied sieht ist für mich logisch.

Gruss Tiefflieger

Space


Antwort von Angry_C:

Interessiert Dich dann wahrscheinlich auch nicht, dass es kein DoF mehr gibt Lol, hast du in deinem Wahlland kein anständiges Internet, sodaß du dir im Internet auch mal was anderes als Text und Formeln anschauen kannst?

Es gibt genügend Beispielvideos mit einer DOF Tiefe, wie es für Super 16 üblich ist.

Space


Antwort von Bruno Peter:

Ich habe hier ein Video der AX100 aus dem ich einen 1:1 Frameausschnitt herausgenommen habe:


zum Bild


So sieht doch kein fließendes Wasser aus, das ist eine Strichzeichnung...?

Space


Antwort von WoWu:

@Angry_C

Dann schau Dir mal das Testvideo von Slashcam an, bevor Du wieder so einen unqualifizierten Mist absonderst.
Nur Sprechblasen anstatt sich mit der Thematik mal einwenig zu beschäftigen.

@Tiefflieger
Die "Farbnuancen Genauigkeit", wie Du es nennst häng gänzlich von der Dynamik der Übertragung ab.
Der Sensor sondert lediglich einen Luminanzwert pro Pixel ab und der kann nur so geartet sein, wie die Lichtbeugung es zulässt und daraus ergibt sich auch automatisch ein Beugungslimit, was letztlich die Auflösung definiert.
Das können Dir Generationen von Fotografen erklären, es ist also keine neue Erkenntnis, der das Licht plötzlich unterliegt. -(Das ist Basiswissen und überall nachlesbar).
Das solche Gesetze des Lichtes auch für Camcorder gelten, dürfte hier, bis auf Angry_C, ja keiner bestreiten.

Umgangen werden kann so etwas nur, wenn man aus unscharfem Material die Schärfe durch unterschiedliche Methoden, eine davon ist z.B. mit Markov Ketten. (Es gibt aber noch diverse andere), wieder herausrechnet.
Dabei entstehen aber die besagten Nebeneffekte, die man in einigen der 4K Darstellungen mittlerweile wiederfinden kann.
Das sind dieselben charakteristischen Effekte, die auch bei hochwertigen Hochskalierungen entstehen denn Broadcast-Upskaler arbeiten genau mit solchen Algorithmen.

Space


Antwort von Tiefflieger:

Bezüglich Beugung und kleine Pixel, habe ich im folgenden Thread ein Beispiel gezeigt.
viewtopic.php?p=714341#714341

Die zulaufende Turmspitze ist bis auf 1/4 Pixel im Kontrast dargestellt.
Ein schwarz/weiss Nummernschild kann ggf. rekonstruiert werden, aber nicht farbige Oberflächenstrukturen.

Space


Antwort von WoWu:

Du solltest Dich mal mit Bildrekonstruktion beschäftigen, dann werden Dir die Augen aufgehen.

Space


Antwort von cetaro:

Ich habe hier ein Video der AX100 aus dem ich einen 1:1 Frameausschnitt herausgenommen habe:


zum Bild


So sieht doch kein fließendes Wasser aus, das ist eine Strichzeichnung...?
Das ist auch der einzig wahre Sinn von Video:

1:1 Frame-Ausschnitte als Poster darzustellen:-)

Ähnliches gelingt normalerweise nur Tiefflieger,Respekt!

Space


Antwort von WoWu:

Nun wissen wir ja schon mal, was nicht der Sinn ist : hineinzoomen also offensichtlich nicht.
Was ist denn der Sinn einer solchen spatialen Auflösung ?
Vielleicht die feine Auflösung eines Felles als Textur darzustellen, weil die Kamera keine Kanten zu fassen bekommt und nicht so richtig weiss, was das eigentlich ist ?

Space


Antwort von cetaro:

vielleicht wären ja mal die Belichtungsdaten (Zeit) interessant an dem Enten-Beispiel.

Space



Space


Antwort von cantsin:

Sehen wir mal die positive Seite der Dinge. Vor wenigen Jahren hatte man als DIY-Filmer noch keine andere Wahl als diese Camcorder-Sch*sse. Heute sind die Alternativen nicht mal teurer.

Space


Antwort von Tiefflieger:

Du solltest Dich mal mit Bildrekonstruktion beschäftigen, dann werden Dir die Augen aufgehen. Im Beispiel oben nehme ich an, dass künstliche Texturen aufgebracht wurden die eigentlich nichts mit dem Original zu tun haben.
Sony soll für 4K BluRays ähnliches machen um Platz zu sparen.

Aber ich kann mir nicht vorstellen, dass dieses YT Video in low light nur aus Pattern besteht.


Gruss Tiefflieger

Space


Antwort von WoWu:

Stimmt und sie werden immer billiger.
Wenn wir diesen Algorithmussatz dann über unsere VHS ziehen, haben wir bald identische 4 oder 8K Upscalings, weil das Ausgangsmaterial ebenso unscharf ist, wie das Basismaterial der neuen Kameras.

Stimmt .. es ist alles eine Frage der Zeit.

Space


Antwort von Tiefflieger:

Stimmt und sie werden immer billiger.
Wenn wir diesen Algorithmussatz dann über unsere VHS ziehen, haben wir bald identische 4 oder 8K Upscalings, weil das Ausgangsmaterial ebenso unscharf ist, wie das Basismaterial der neuen Kameras.

Stimmt .. es ist alles eine Frage der Zeit. So ein Bild wie oben, ist relativ simpel da es ggf. ein animiertes Standbild mit Mustervervielfachung ist.
Sogar Helligkeitsverläufe in Pattern (mit Stempeln) lassen sich als Variation drauflegen.

Aber so etwas wie das YT Video oben kann nicht aus solchen Pattern bestehen.
Dazu reicht die Rechenzeit nicht, sobald sich die Kamera bewegt und dazu viele Akteure (für 4K Computergrafik sind sogar Spielecomputer gefordert).

Gruss Tiefflieger

Space


Antwort von Angry_C:

Du solltest Dich mal mit Bildrekonstruktion beschäftigen, dann werden Dir die Augen aufgehen. Und was willst du uns damit sagen? Dass jemand auf das rechte Bild einen Unschärfefilter gelegt und das linke Bild dabei herausgekommen ist?

Willst du uns wirklich glaubhaft machen, dass eine Kamera aus einem cremigen Bokeh scharfe Texturen zaubern kann?

Space


Antwort von WoWu:

@Tiefflieger

Für die Darstellung im Monitor reicht ein niedrig aufgelöster Auszug und wer sagt denn, dass die Kamera nicht weiterrechnen kann, wenn sie auf Stop oder Pause steht, ja sogar wenn sie abgeschaltet ist ?
Die 4K kannst Du in der Kamera sowieso nicht sehen.

Und der Auszug ist aus einem 720 upscaling auf 1080 (leider ist der Screenshot dann wieder 1280) sorry.
Und die Rechenzeit ist fast Realtime mit einer Hardware von S&W.

Space


Antwort von WoWu:

Und was willst du uns damit sagen? Dir gar nichts, das ist eh vertane Zeit.
Ignorier einfach, was ich schreibe, Du würdest es sowieso nicht verstehen.

Space


Antwort von Tiefflieger:

Nun wissen wir ja schon mal, was nicht der Sinn ist : hineinzoomen also offensichtlich nicht.
Was ist denn der Sinn einer solchen spatialen Auflösung ?
Vielleicht die feine Auflösung eines Felles als Textur darzustellen, weil die Kamera keine Kanten zu fassen bekommt und nicht so richtig weiss, was das eigentlich ist ? Das ist übelste Kompression in YouTube. :-)

Space


Antwort von WoWu:

Schwer zu sagen..
Oder Texturgenerierung im Algorithmus denn die Hundekette ist gleichwohl noch scharf an der Stelle.
Und solche Texturbildung ist typisch für Rekonstruktionen, wo nicht genügend Kontrastdifferenzen sind.

Space



Space


Antwort von Angry_C:

@Angry_C

Dann schau Dir mal das Testvideo von Slashcam an, bevor Du wieder so einen unqualifizierten Mist absonderst.
Nur Sprechblasen anstatt sich mit der Thematik mal einwenig zu beschäftigen.
. Ja welche Testvideos denn? Die mit Sonne lacht, Blende acht? Wo soll da ein kleines DOF entstehen? Beschäftige du dich mal erstmal mit der Thematik, bevor DU DEIN unqualifiziertes Geblubber hier kundtust.

Legst seit Wochen zu diesem Thema die gleiche Platte auf, behauptest die abendteuerlichsten Dinge und stellst irgendwelche Wowuschen Beweisbilder ohne Quellenangabe ein.

Das Rekonstruktionsbild mit dem Häusle ist der Hammer, wer soll dir das abnehmen, dass es so eine Rekonstuktion jemals geben könnte?

Space


Antwort von Tiefflieger:

@Tiefflieger

Für die Darstellung im Monitor reicht ein niedrig aufgelöster Auszug und wer sagt denn, dass die Kamera nicht weiterrechnen kann, wenn sie auf Stop oder Pause steht, ja sogar wenn sie abgeschaltet ist ?
Die 4K kannst Du in der Kamera sowieso nicht sehen.

Und der Auszug ist aus einem 720 upscaling auf 1080 (leider ist der Screenshot dann wieder 1280) sorry.
Und die Rechenzeit ist fast Realtime mit einer Hardware von S&W. Ich habe mir das Bild mal genauer angeschaut.
Die Blatt und Baumzeichnung ist sehr gut, aber bei einer "echten" FullHD Kamera wären die Stromleitungen durchgehend differenziert (und nicht weiss)

200% Crop


Hier habe ich ein Beispiel einer 3-Chip Modell 2011 die schon etwas Linien "begradigt", aber es zeigt echte und durchgezeichnete Strukturen.
(click)

Gruss Tiefflieger

Space


Antwort von Tiefflieger:

Appropos Upscaling und 800% Crops, hier aus einer Belichtungserie in Rot.
Original / 800% Crop (Camcorder AVCHD 1080p Modell 2012)
zum Bild http://img5.fotos-hochladen.net/thumbnail/iastandarda3zt7kvj5n_thumb.jpg / zum Bild http://img5.fotos-hochladen.net/thumbnail/iastandard8007ufszmhbpn_thumb.jpg (click)

Gruss Tiefflieger

Space


Antwort von WoWu:

Da bin ich ja völlig bei Dir, dass optische Projektionen um Meilen besser sind als jeder Algorithmus.
Darum geht es hier ja. Und das ist in der Summe ja auch das, was Bruno reklamiert ... es ist heutzutage kein Problem mehr, aus wenig aufgelösten Bildern hohe Auflösungen zu machen.
Die Frage ist eben nur, zu welchem optischen Preis.
Denn rechne Dir die Wellenoptik für 4K mal aus.
Dann wirst Du sehen, ab wann es nicht mehr ohne Rekonstruktion geht.
Und es geht hier auch nicht mehr um "schlichtes" Up-scaling sondern um die Rekonstruktion, optisch nicht vorhandener Bildinhalte.

Space


Antwort von Tiefflieger:

Ich weiss nicht genau welche optischen Eigenschaften ein Objektiv alle erfüllen muss.
An einer Systemkamera mit Wechselobjektiv sind in Summe alle Bildgebenden Eigenschaften ein Kompromiss. Einiges ist billig zu haben anderes muss teuer erkauft werden (Gewicht und gegenseitige Beeinflussung der Linsengruppierungen, Filter und Strahlengängen).
Dann sind die optischen Eigenschaften (Detailauflösung) im WW oft besser. Ein Zoom Objektiv ist praktisch, aber reduziert die Bildqualität deutlich.

An einem Camcorder sind alle optischen Eigenschaften bekannt und die Brennweite, Blende, Fokus wie auch andere Parameter (OIS, Giro) werden laufend ermittelt und nachgeregelt.
Oft ist ein 10x Zoom oder optisch hochwertig bis 20x je nach Preis realisiert.
Nun kann man optisch bestimmen welche Eigenschaften "günstig" herzustellen sind und insgesamt das Bild detailliert zeichnen.
Andere "teure" optische Eigenschaften die vielleicht das Bild als Kompromiss herabsetzen könnten, werden im Linsenaufbau und der Glaszusammensetzung zugunsten einer günstigeren (besseren?) "elektronischen" Kompensation weggelassen.

Am Ende zählt für mich als Amateur das Ergebnis, der für sich filmt und fertige Bilder aus der Kamera bekommt, natürlich nur bei korrekter Kameraeinstellung :-)
Die AX100 ist ideal, wer sich eine GH4 oder BMC kauft muss sie auch jederzeit im Griff haben (zusätzlicher Aufwand und die Kompromisse sind von slashCAM eingangs aufgeführt).
Auf eine unhandlich grosse Produktionskamera mit grosser Zubehörauswahl und grossem Akku bei schwerem Aufbau kann ich verzichten.
Ebenso muss die Zuverlässigkeit keine MIL Standards erfüllen, da ich nicht auf die Kamera angewiesen bin.

Gruss Tiefflieger

Space


Antwort von glnf:

Ach Wowu, immer wieder die selbe Platte.

Du bist sicher einverstanden, dass es bei einem Fotoapparat einen Unterschied macht, ob ich mit 2 Megapixel oder 8 Megapixel fotografiere. Ja? Die Kamera muss nicht Bildinhalt erfinden, weil die Optik, die Sensoren und letztlich die Physik dagegen sind? Eine Fotokamera und ein Fotoobjektiv schaffen locker die 8 Megapixel Auflösung, was letztlich nichts anderes als 4K ist. Also warum soll das nicht 25 mal pro Sekunde gehen? OK, OK, früher war es mal ein Problem der Sensoren welche nicht so schnell ausgelesen werden konnten. Aber heute? Da liefert doch eine GH4 im Videomodus das Selbe wie im Photomodus. (Natürlich nicht bezüglich Dateiformaten, aber das ist hier nicht die Diskussion.)

Es gibt gute Gründe nicht mit 4K zu arbeiten. Aber technologisch oder gar physikalisch steht dem gar nichts im Weg. Eher die Datenmengen und so. Aber das Problem erledigt sich erfahrungsgemäss von alleine.

Schöne Grüsse
glnf

Space


Antwort von WoWu:

Wenn Du den Zusammenhang zwischen Beugungslimit und den Marketingpixels verstanden hast, meld' Dich wieder.

Space


Antwort von Tiefflieger:

@glnf
Wieviel MP hat die GH4 im Fotomodus?
16MP im Fotomodus und in 4K Video wären es ca. 8MP und beides sieht gleich aus?

Ich habe diverse Video Downloads aus Vimeo angeschaut und die Bandbreite an Auflösungsunterschieden ist gross.
Geschätzt reicht sie von 2K+ bis zu knapp 3K.
Die Unterschiede sind vermutlich wegen der Optik, Festbrennweite oder Zoom.

Früher in KB oder APS-C sprach man von 10MP Bildauflösung (4:3) bei sehr guten Objektiven.
Im Fotomodus nutzt man meist Downscaling aus 16MP-24MP mit entsprechend guten Farben.

Meiner Meinung nach kann man mit der GH4 und BMC gute und hochauflösende Videos machen, aber nicht mit jedem Objektiv.
Beim Camcorder keine Frage, das ist alles fixiert ;-) (und somit konstanter)

Gruss Tiefflieger

Space


Antwort von Angry_C:

Ach Wowu, immer wieder die selbe Platte.

Du bist sicher einverstanden, dass es bei einem Fotoapparat einen Unterschied macht, ob ich mit 2 Megapixel oder 8 Megapixel fotografiere. Ja? Die Kamera muss nicht Bildinhalt erfinden, weil die Optik, die Sensoren und letztlich die Physik dagegen sind? Eine Fotokamera und ein Fotoobjektiv schaffen locker die 8 Megapixel Auflösung, was letztlich nichts anderes als 4K ist. Also warum soll das nicht 25 mal pro Sekunde gehen? OK, OK, früher war es mal ein Problem der Sensoren welche nicht so schnell ausgelesen werden konnten. Aber heute? Da liefert doch eine GH4 im Videomodus das Selbe wie im Photomodus. (Natürlich nicht bezüglich Dateiformaten, aber das ist hier nicht die Diskussion.)

Es gibt gute Gründe nicht mit 4K zu arbeiten. Aber technologisch oder gar physikalisch steht dem gar nichts im Weg. Eher die Datenmengen und so. Aber das Problem erledigt sich erfahrungsgemäss von alleine.

Schöne Grüsse
glnf Lass gut sein, wowu hat hier seine 3-4 Leute, die ihm den ganzen Kram a la "alle Kameras über 2 Megapixel besäßen nur Marketingpixel, oder Rekonstruktionsalgorithmen könnten die filigransten Objekte aus dem Nichts entstehen lassen", führt er nur Monologe mit immer der gleichen Platte.

Space



Space


Antwort von glnf:

Hallo ihr Beiden. Mir ist schon klar dass viel geschummelt und von Herstellern behauptet wird. Mein ganz simpler Punkt ist der, dass typische Videoauflösungen im Vergleich zu dem was Fotokameras leisten weit unterhalb liegen. Sie können somit schlicht nicht so schwer zu erreichen sein. 2K bzw. HD entspricht gerade mal einem 2 Megapixel Foto. Ich bin sicher, auch du Wowu schraubst dein Fotoapparat nicht auf 2MP runter, weil alles darüber sowieso nur Marketingpixel mit Scheindetails sind. Oda?

Space


Antwort von Bruno Peter:


Lass gut sein, wowu hat hier seine 3-4 Leute, die ihm den ganzen Kram a la "alle Kameras über 2 Megapixel besäßen nur Marketingpixel, oder Rekonstruktionsalgorithmen könnten die filigransten Objekte aus dem Nichts entstehen lassen", führt er nur Monologe mit immer der gleichen Platte. Bist Du so naiv oder tust Du nur so lieber Angry?

Schon im Falle der Sony HDR-HC3 hat der auch hier bekannte "Rüssel" im Jahre 2006 in seinem Test nachgewiesen, das schon damals der dort verwendete Sony-Bildprozessor mit Rekonstruktionsalgorithmen arbeitete. Er hat das damals mit Aufnahmen vom Marktplatz in Bremen belegt und zwar mit einem verschnörkelten Fassadenausschnitt. Ich wollte das selbst auch nicht glauben, die Bilddokumentation sprach aber für sich und ich habe später solche unnatürlichen Ergebnisse von dieser Kamera ebenfalls manchmal in bestimmten Situationen bekommen.

Hier das gesamte "rekonstruierte" Frame aus dem Entenclip : Klick!

Space


Antwort von cetaro:

Und der einzige Hersteller der nicht "schwindelt" ist Canon:-)

Space


Antwort von Bruno Peter:

Da schwindelt keiner, wie kommst Du nur darauf, niemand behauptet das hier?
Man verwendet halt eine bestimmte Technologie für die Generierung von Videos aus den Signalen die der Aufnahmechip erkennt, kann ja jeder machen, mehr oder weniger gut halt.
Wolltest nur etwas sagen gell?

Sagt bloß es schmerz Euch sehr, dass Ihr kein Nativ-Video aus dem Objektiv auf der Speicherkarte bekommt?

Das wäre dann doppelt naiv!

Space


Antwort von Angry_C:


Lass gut sein, wowu hat hier seine 3-4 Leute, die ihm den ganzen Kram a la "alle Kameras über 2 Megapixel besäßen nur Marketingpixel, oder Rekonstruktionsalgorithmen könnten die filigransten Objekte aus dem Nichts entstehen lassen", führt er nur Monologe mit immer der gleichen Platte. Bist Du so naiv oder tust Du nur so lieber Angry?

Schon im Falle der Sony HDR-HC3 hat der auch hier bekannte "Rüssel" im Jahre 2006 in seinem Test nachgewiesen, das schon damals der dort verwendete Sony-Bildprozessor mit Rekonstruktionsalgorithmen arbeitete. Er hat das damals mit Aufnahmen vom Marktplatz in Bremen belegt und zwar mit einem verschnörkelten Fassadenausschnitt. Ich wollte das selbst auch nicht glauben, die Bilddokumentation sprach aber für sich und ich habe später solche unnatürlichen Ergebnisse von dieser Kamera ebenfalls manchmal in bestimmten Situationen bekommen.

Hier das gesamte "rekonstruierte" Frame aus dem Entenclip : Klick! Dass in gewissen Rahmen eine Rekonstruierung möglich ist, streitet niemand ab, aber wer glaubt, dass bei Wowus obigen Hausbeispiel eine Rekonstruktion und kein Unschärfefilter eingesetzt wurde, ist noch reichlich naiver.

Wer glaubt, dass Sony aus seinem Bokeh scharfe Texturen und Objekte kreiert, die nichtmal mehr zu erahnen sind, muss schon sehr kreative Vostellungen haben. Das glaubst doch auch du nicht guter Bruno, oder etwa doch?

Space


Antwort von Angry_C:

Und der einzige Hersteller der nicht "schwindelt" ist Canon:-) Und weil Canon mit seinen DSLRs nicht schwindelt, wären auf einem vergleichbaren Entenbildausschnitt nur ein undefinierbarer graugrüner Fleck auf blauem Hintergrund zu sehen.

Da möchte ich doch lieber, dass der Hersteller schwindelt:-)

Space


Antwort von Jott:

Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist.

Space


Antwort von Bruno Peter:

Natürlich lieber Angry kann man Bilder/Frames heutzutage mit bestimmten Filtertechniken manipulieren/rekonstruieren. Hast Du noch nie mit einem Bildbearbeitungsprogramm gearbeitet und selbst mal damit "gespielt"?

Einfach mal ein KOMPENDIUM über Bildnachbearbeitung kaufen, man kommt aus dem Staunen nicht raus was da alles machbar ist! Solche Filter kann man auf einen Chip(Bildprozessor) brennen und dann wird das halt in der Kamera schon wirksam.

Jetzt sage bloß nicht Du warst bis jetzt ahnungslos!

Space


Antwort von Angry_C:

Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist. Ja, selbst wenn sogar der Akku entnommen wurde. Diese ganze Technologie in einem Konsumercamcorder, kein Wunder, dass Sony finanziell so schlecht dasteht.

Space



Space


Antwort von Bruno Peter:

@Jotti,
das spannende für mich ist natürlich, wie wird das umgesetzt. Das es gemacht wird ist doch klar, spätestens als wir alle bemerkt haben, dass es eine Nachschärfung in der Kamera gibt die nicht von der verwendeten Optik stammt!

Space


Antwort von Angry_C:

Natürlich lieber Angry kann man Bilder/Frames heutzutage mit bestimmten Filtertechniken manipulieren/rekonstruieren. Hast Du noch nie mit einem Bildbearbeitungsprogramm gearbeitet und selbst mal damit "gespielt"?

Einfach mal ein KOMPENDIUM über Bildnachbearbeitung kaufen, man kommt aus dem Staunen nicht raus was da alles machbar ist! Solche Filter kann man auf einen Chip(Bildprozessor) brennen und dann wird das halt in der Kamera schon wirksam.

Jetzt sage bloß nicht Du warst bis jetzt ahnungslos! Ich kann nur etwas rekonstruieren, was zumindest in einem gewissen Umfang vorhanden ist.

Space


Antwort von Bruno Peter:

Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist. Dieser Beitrag unterstreicht doch gerade die Hilflosigkeit einzelner Personen hier sehr deutlich.

Gegenmittel: das Forum hier mit Erfahrungsaustausch, solange Meinungen anderer nicht diskreditiert sondern respektiert werden von dem vermeintlich besonders "Schlauen". Ich bin eigentlich recht froh, dass jemand wie der WoWu trotz aller Angriffe auf ihn hier bleibt und sich bemüht fundierte Informationen beizutragen.

Die ganzen Ahnungslosen mit ihren Diskreditierungen gehen an mir vorbei!

Space


Antwort von Jott:

Diskreditierung? Wenn Kameras via YouTube oder Hörensagen beurteilt werden? Niemals.

Space


Antwort von Angry_C:

[Ich bin eigentlich recht froh, dass jemand wie der WoWu trotz aller Angriffe auf ihn hier bleibt und sich bemüht fundierte Informationen beizutragen. Jaja, er war stets bemüht.......

und zu den Angriffen: Das hat er sich selbst zuzuschreiben, wo er doch in 90% seiner Beiträge versucht, die anderen User (nicht nur mich) als Volldeppen dastehen zu lassen. Wenn er wenigstens selbst unfehlbar wäre.....

Space


Antwort von cetaro:

Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist. Doch,da arbeiten kleine grüne Männchen auf Sonderschicht,unbezahlt natürlich,wie heute allgemein üblich:-))

Space


Antwort von Bruno Peter:

@Jott,
zu entkräften gibt es da in dem präsentierten Beispiel von mir garnichts.
Hier geht es zum Download des Original-Entenmaterials:

Solche Aufnahmen können vorkommen und man muß das zu Kenntnis nehmen.
Ob man die Kamera trotzdem kauft ist eine andere Sache, es kann ja jemand sagen, unter diesen Umständen filme ich nie...

Für mich, u.a. als "Landschaftsfilmer", wäre das nichts. Die Videos der GH4 gefallen mir da schon besser. Zum Glück sind wir in der Geräteauswahl frei, leider ist die Wahlmöglichkeit derzeit auf nur zwei Geräte beschränkt.

Space


Antwort von domain:

Was diese fast unglaubliche Rekonstruktion betrifft, wünsche ich mir die Quellenangabe dieser Bilder bzw. des betreffenden Artikels von WoWu, damit wir uns mal näher damit befassen können.



Space


Antwort von camworks:

Was diese fast unglaubliche Rekonstruktion betrifft, wünsche ich mir die Quellenangabe dieser Bilder bzw. des betreffenden Artikels von WoWu, damit wir uns mal näher damit befassen können.

Geb mal in der Google Bildersuche "Deconvolution" ein und dann kommen hunderte Beispiele wie das von WoWu.

Hier auch mal ein ebenso "unglaubliches" Foto:

zum Bild

Quelle: http://math.nist.gov/mcsd/highlights/bl ... ution.html

Das heißt nicht, dass das in der Stärke in der Kamera gemacht WIRD, aber es KÖNNTE mal dazu kommen, wenn die Rechenleistung der Bildprozessoren besser wird! Vielleicht reicht die Rechenleistung aktueller Bildprozessoren aber schon für eine Rekonstruktion geringerer Unschärfen aus!?

Space



Space


Antwort von Angry_C:

@Jotti,
das spannende für mich ist natürlich, wie wird das umgesetzt. Das es gemacht wird ist doch klar, spätestens als wir alle bemerkt haben, dass es eine Nachschärfung in der Kamera gibt die nicht von der verwendeten Optik stammt! Ach so, und eine Nachschärfung ist also gleichzusetzen mit einem Kreieren von völlig neuem Bildinhalt? Plötzlich stehen Blümchen im Fenster, wo man vorher noch nicht einmal das Fenster als solches identifizieren konnte?

Schau dir wowus Haus-Beispiel bitte noch einmal genau an und sag dann nochmal, dass du dir diese "Rekonstruktion" durch eine Kamera vorstellen kannst.

Space


Antwort von Angry_C:

Was diese fast unglaubliche Rekonstruktion betrifft, wünsche ich mir die Quellenangabe dieser Bilder bzw. des betreffenden Artikels von WoWu, damit wir uns mal näher damit befassen können.

Geb mal in der Google Bildersuche "Deconvolution" ein und dann kommen hunderte Beispiele wie das von WoWu.

Hier auch mal ein ebenso "unglaubliches" Foto:

zum Bild

Quelle: http://math.nist.gov/mcsd/highlights/bl ... ution.html Die Ergebnisse der Google-Suche und dein Beispiel finde ich weniger unglaublich. Also warten wir weiter auf die Quelle.

Space


Antwort von camworks:

Die Ergebnisse der Google-Suche und dein Beispiel finde ich weniger unglaublich. Also warten wir weiter auf die Quelle. Ich finde mein Beispiel sogar unglaublicher als WoWus Beispiel, weil noch weniger Strukturen in dem linken Foto zu erkennen sind. Zum Beispiel die vielen kleinen Rechtecke (Gräber?) links und rechts von der untersten Pyramide. Und Du schreibst doch, wo man nichts sieht, kann auch nichts rekonstruiert werden...

Space


Antwort von Bruno Peter:

Über Dir steht die Antwort!

Hört auch mal endlich mit dem Schmarn auf zu behaupten der Codec mache solche Bilder, der Codec kodiert lediglich die Daten auf die Speicherkarte oder Festplatte!

Im Bildprozess(or) steckt die ganze "Verschlimmbesserung"!

Space


Antwort von glnf:

Und diese ganzen Bildzaubereien erledigt der Bildprozessor so nebenbei in realtime? Hahaha. Wo doch Wowu wohl nicht ganz zu unrecht vor kurzem noch erklärt hat, dass ein Bildprozessor schon mit einem halbwegs brauchbaren Binning überlastet oder zumindest schwer ausgelastet ist.

Space


Antwort von cantsin:

Hier noch mehr zu Deconvolution, mit einem beeindruckenden Bildbeispiel:
http://www.ee.cuhk.edu.hk/~tblu/monsite ... deconv.php

Space


Antwort von camworks:

Hier noch mehr zu Deconvolution, mit einem beeindruckenden Bildbeispiel:
http://www.ee.cuhk.edu.hk/~tblu/monsite ... deconv.php Gerade dazu gibt es aber deutlich bessere (weil ohne Artefakte) Ergebnisse:
http://videoprocessing.ucsd.edu/~stanle ... image.html

Space


Antwort von ennui:

Aber wenn es nicht der Bildprozessor war, wer sonst hat dann das Bild so "kreativ" verschärft? Und was macht dann der Bildprozessor, irgendwas muss er ja "prozessieren", sagt ja schon der Name! Und warum eigentlich die große Aufregung, nachvollziehbare Argumente überzeugen meistens mehr als Gestänkere.

Space


Antwort von Angry_C:

Die Ergebnisse der Google-Suche und dein Beispiel finde ich weniger unglaublich. Also warten wir weiter auf die Quelle. Ich finde mein Beispiel sogar unglaublicher als WoWus Beispiel, weil noch weniger Strukturen in dem linken Foto zu erkennen sind. Zum Beispiel die vielen kleinen Rechtecke (Gräber?) links und rechts von der untersten Pyramide. Und Du schreibst doch, wo man nichts sieht, kann auch nichts rekonstruiert werden... Ich glaube es erst, wenn ich es mit eigenen Augen gesehen habe, dass sowas möglich ist, zumal in Echtzeit und im Falle der AX100 120 mal in der Sekunde.

Warum gibt es eigentlich nicht so ein derartiges, unglaubliches Deconvolution-Plugin für Photoshop? Die Entwickler wären mit einem Schlag doch stinkreich.

Sollte doch ein leichtes sein, wenn die Algorithmen laut einiger Aussagen hier doch mittlerweile in jedem 100€ Smartphone werkeln.

Space



Space


Antwort von Bruno Peter:

Jedenfalls stehst Du jetzt ganz schön "Naß" da!
Man muß WoWu nur genau "zuhören" wollen...

Ruessel hat das wie schon von mir erwähnt in 2006 an einem Beispiel mit der Sony HC3 demonstriert. Das Bild auf dem HDV-Band damals hatte mit der Realität überhaupt nicht übereingestimmt.

Kann mir schon vorstellen, dass man auch Rosen in ein gefilmtes Fenster während des filmens einstemmpeln kann wenn man eine solche Kamerafunktion dem Anwender zur Auswahl anbieten würde.

Schöne Aussichten nicht wahr, man könnte einen Platz von Leuten frei machen während des filmens schon!

Space


Antwort von camworks:

Warum gibt es eigentlich nicht so ein derartiges, unglaubliches Deconvolution-Plugin für Photoshop? Die Entwickler wären mit einem Schlag doch stinkreich.Junge, Du bist aber echt ahnungslos. Deconvolution-Plugins für Photoshop gibt es mehrere:
Topaz Infocus
Focus Magic
Picurre
... und einige andere.

Space


Antwort von Angry_C:

Hier noch mehr zu Deconvolution, mit einem beeindruckenden Bildbeispiel:
http://www.ee.cuhk.edu.hk/~tblu/monsite ... deconv.php Gerade dazu gibt es aber deutlich bessere (weil ohne Artefakte) Ergebnisse:
http://videoprocessing.ucsd.edu/~stanle ... image.html Überzeugt mich nicht. Bei den Beispielen gibt es aber die Originale und man weiß, was zuvor der gaussche Filter damit angestellt hat.

Die AX100 soll laut Wowu aber das cremigste Bokeh verschwinden lassen - in Echtzeit.

Space


Antwort von iasi:

Heute hätte eigentlich das neue Firmware der BM-4k der Raw-Kamera auch Raw beibringen sollen - leider gab"s nur wieder eine kurze Meldung, dass man daran abeiten würde.

Mit der neuen Firmware würde sich die Debayering-Frage dann wieder ganz neu stellen.

Ich finde es übrigens immer wieder bemerkenswert, wie sehr doch Theorie und Praxis manchmal auseinander liegen.
Gerade was die Auflösung betrifft, referieren die Theoretiker, dass man nichts davon sieht oder sie schlicht nicht sieht, während diejenigen, die sie sehen und nutzen beeindruckt sind von den Unterschieden zu z.B. HD oder 2k.

Inrteressant auch diese Objektiv-Argument: 4k wäre eh unnütz, da bezahlbare Objektive zu wenig Auflösung bringen würden. Doch eben die gescholtenen, "billigen" Fotoobjektive genügen für Kameras mit fast 40 Mpxl.

Space


Antwort von domain:

@ Cantsin
Interessanter Demo-snapshot. Nur eines verstehe ich nicht ganz. Hier werden doch drei Bilder gezeigt, von denen eines das scharfe Original und ein zweites geblurrt wurde. Also dass der Algorithmus des Blurrens im dritten Bild zumindest teilweise reversibel ist, wundert mich nicht.
Aber naiv gefragt, ist die Rekonstruktion auch mit von Haus derart unscharfen Bildern möglich?

Space


Antwort von camworks:

Aber naiv gefragt, ist die Rekonstruktion auch mit von Haus derart unscharfen Bildern möglich? ja. Siehe meine Links zu den Photoshop-Plugins, dort sind einige Beispielbilder, die nicht künstlich geblurrt wurden. Ich habe solche Plugins auch schon mehrmal benutzt und sie tun, was sie versprechen.

Space


Antwort von Angry_C:

Warum gibt es eigentlich nicht so ein derartiges, unglaubliches Deconvolution-Plugin für Photoshop? Die Entwickler wären mit einem Schlag doch stinkreich.Junge, Du bist aber echt ahnungslos. Deconvolution-Plugins für Photoshop gibt es mehrere:
Topaz Infocus
Focus Magic
Picurre
... und einige andere. Wird mal nicht frech, ich habe nicht nach Nachschärfetools gefragt, sondern nach einem Rekonstruktions-Plugin mit einer Güte wie die von Wowus Beispiel.

Space


Antwort von camworks:

Warum gibt es eigentlich nicht so ein derartiges, unglaubliches Deconvolution-Plugin für Photoshop? Die Entwickler wären mit einem Schlag doch stinkreich.Junge, Du bist aber echt ahnungslos. Deconvolution-Plugins für Photoshop gibt es mehrere:
Topaz Infocus
Focus Magic
Picurre
... und einige andere. Wird mal nicht frech, ich habe nicht nach Nachschärfetools gefragt, sondern nach einem Rekonstruktions-Plugin mit einer Güte wie die von Wowus Beispiel. Wie man oben unschwer nachlesen kann, hast Du genau nach einem Deconvolution-Plugin für Photoshop gefragt. Das hat mit einer normalen Nachschärfung überhaupt nichts zu tun, da ganz andere Algorithmen verwendet werden.

Space


Antwort von Angry_C:

Aber naiv gefragt, ist die Rekonstruktion auch mit von Haus derart unscharfen Bildern möglich? ja. Siehe meine Links zu den Photoshop-Plugins, dort sind einige Beispielbilder, die nicht künstlich geblurrt wurden. Ich habe solche Plugins auch schon mehrmal benutzt und sie tun, was sie versprechen. Jo und allesamt zeigen kein so unglaubliches Ergebnis wie das weiter oben vom Haus.

Space



Space


Antwort von Angry_C:

Warum gibt es eigentlich nicht so ein derartiges, unglaubliches Deconvolution-Plugin für Photoshop? Die Entwickler wären mit einem Schlag doch stinkreich.Junge, Du bist aber echt ahnungslos. Deconvolution-Plugins für Photoshop gibt es mehrere:
Topaz Infocus
Focus Magic
Picurre
... und einige andere. Wird mal nicht frech, ich habe nicht nach Nachschärfetools gefragt, sondern nach einem Rekonstruktions-Plugin mit einer Güte wie die von Wowus Beispiel. Wie man oben unschwer nachlesen kann, hast Du genau nach einem Deconvolution-Plugin für Photoshop gefragt. Das hat mit einer normalen Nachschärfung überhaupt nichts zu tun, da ganz andere Algorithmen verwendet werden. Focus Magic - The World's Most Accurate Sharpening Software

Space


Antwort von camworks:

Focus Magic - The World's Most Accurate Sharpening Softwareja, damit Leute wie Du verstehn, was das Plugin bewirkt. Auch wenn es keine Nachschärfung im üblichen Sinn ist, wird das Bild faktisch schärfer.

Space


Antwort von Angry_C:

Focus Magic - The World's Most Accurate Sharpening Softwareja, damit Leute wie Du verstehn, was das Plugin bewirkt. Auch wenn es keine Nachschärfung im üblichen Sinn ist, wird das Bild faktisch schärfer. Da weiß man nicht weiter und wird beleidigend. Ich weiß selbstverständlich, was solche 50€ Tools bewirken. Jedenfalls nicht das, was wowu und du uns hier weismachen wollen.

Kommen wir wieder auf die Kameras zurück. Hat die AX100 nun Stempel im Speicher, die sie nach Bedarf setzen kann, sollte mal etwas unscharf werden;-) ?

Space


Antwort von camworks:

Außer Dir und WoWu wurde bisher in diesem Thread keiner beleidigend ("unqualifiziertes Geblubber" etc.). "Ahnungslos" ist keine Beleidigung sondern ein Zustand. Jeder des Lesens mächtige kann genau nachlesen, was DU hier geschrieben und ICH geantwortet habe. Und wenn man das unvoreingenommen tut wird man erkennen, dass ich Deine Fragen GENAU beantwortet habe.

Weil alle Beweise und Argumente bei Dir jedoch offensichtlich nichts nützen, klinke ich mich hier vorläufig aus.

Space


Antwort von domain:

Der Beweis für perfekte Rekonstruktionen wäre doch ganz einfach zu erbringen. Wer kann dieses Bild mit irgendeinem Tool in seiner originalen Auflösung und Schärfe wieder annähernd herstellen?


zum Bild


Space


Antwort von Angry_C:

Außer Dir und WoWu wurde bisher in diesem Thread keiner beleidigend ("unqualifiziertes Geblubber" etc.). "Ahnungslos" ist keine Beleidigung sondern ein Zustand. Jeder des Lesens mächtige kann genau nachlesen, was DU hier geschrieben und ICH geantwortet habe. Und wenn man das unvoreingenommen tut wird man erkennen, dass ich Deine Fragen GENAU beantwortet habe.

Weil alle Beweise und Argumente bei Dir jedoch offensichtlich nichts nützen, klinke ich mich hier vorläufig aus. Ist dein gutes Recht, aber ich und offensichtlich einige andere auch hatten gehofft, du würdest richtige Beweise liefern und nicht ein paar Beispielbilder in Briefmarkengröße auf der Plugin Herstellerseite. Wie schön es auf den Werbeseiten immer funktioniert und wie es in Wirklichkeit aussieht, sind 2 Paar Schuhe.

Space


Antwort von Borke:

...Ihr wisst schon, das eure Lebenszeit begrenzt ist?

Space


Antwort von VideoUndFotoFan:

Nachdem das Gedöhns hier in diesem Thema anscheinend etwas nachgelassen hat versuche ich es nochmal:

Frage an rudi: Wurde das Messbild der AX100 mit Active Steady ON oder OFF gemacht ?

( Die Sensorfläche, die bei AX100 ausgelesen wird, ist bei Active Steady ON oder OFF unterschiedlich, und das Messbild kann eigentlich nur bei einer der beiden Einstellungen so sauber sein ! )

Space


Antwort von Bruno Peter:

Vermutlich vom Stativ aus ohne Steady(also OFF)...

Space



Space


Antwort von VideoUndFotoFan:

Heißt du rudi ?

Space


Antwort von WoWu:

Ich hab den Thread jetzt nicht mehr so aufmerksam verfolgt aber eben kurz (diagonal) überflogen und ein paar Fragen entdeckt, deren Antwort ich nicht schuldig bleiben möchte.



@ domain

Du hattest nach dem Artikel gefragt:
http://yuzhikov.com/index.html

Das ist aber nur einer von vielen, die die unterschiedlichen Methoden beschreiben.
Das Internet ist da wirklich voll und auch die FU-Berlin lehrt den Stoff.
Und wenn die Algorithmen in Hardware gegossen sind, funktionieren sie in fast echtzeit.
In unsern S&W Upscalern werkeln solche Algorithmen. Wir haben nur keinen für 4K aber das Ergebnis von 720 zu 1080 ist identisch, vor allen Dingen an der fehlenden Schärfe zu erkennen, denn die Geräte machen einfach alles scharf, incl. DoF.

@Camworks
Es tut mir leid, dass Du den Eindruck bekommen hast, ich würde Leute beleidigen; nur manchmal platzt einem natürlich auch der Kragen, wenn sich Leute so dämlich anstellen und derart bar jeglicher Kenntnis sind, die von sich behaupten, Sie seien Mitglieder in Entwicklungsteams von Kameraherstellern, in Wahrheit aber noch nicht mal Ahnung vom Beugunglimit haben. Hi Wowu,

Ja, ich gehöre zum Entwicklerteam von Gert Kappes.
Posting vom: Fr 13 Jan, 2012 12:52
viewtopic.php?p=540120?highlight=#540120

@glnf
Dinge verstehen wollen oder können und dann falsch wiedergeben sind zwei paar Schuhe.
Ganz sicher habe ich nicht behauptet. Prozessoren seien mit Binning überfordert, weil Binnings genau das Gegenteil von Prozessorbelastung darstellen.
Ich bitte darum, diese Behauptung zu belegen oder sie als falsch zurück zu nehmen.

@Jott Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist. Es ist nicht wichtig, ob Du etwas glaubst -oder nicht-, solange Du nicht plausibel oder belegt darstellen kannst, dass die Kameras keine Algorithmen abarbeiten kann, wenn sie nicht aktiv zur Aufnahme benutzt wird.

Falsifizier doch einfach meine Annahme und beleg, warum das gar nicht möglich sein kann.
Das wäre dann der erste nützliche und konstruktive Beitrag an den ich mich von Dir erinnern kann.
Also, nur zu.

--------------------
Und was die Meinung eines Einzelnen betrifft, der sagt, ich würde die meisten im Forum für "dämlich" halten, dem kann ich nur sagen .. die meisten nicht, ganz im Gegenteil.
Es gibt eine ganze Menge, deren Beiträge ich mit grossem Interesse verfolge.
Es ist nur ein Handvoll, deren Gelabere ich mir jetzt einfach nicht mehr antun werde.
--------------------------
(Sorry Camworks- "Gelabere" ist wahrscheinlich jetzt wieder eine Beleidigung, aber die gönne ich mir jetzt mal.
Ich könnte auch "Ahnungslos" schreiben und hoffen, dass jeder "Gelabere" daraus versteht- wäre ich dann aus dem Schneider ? ;-)

Space


Antwort von Bruno Peter:

Heißt du rudi ? Der hätte nicht das Wort "vermutlich" benutzt!

Space


Antwort von domain:

Wie vermutet geht es in dem Artikel http://yuzhikov.com/articles/BlurredIma ... ation1.htm um das Rückgängigmachen eines zuvor erfolgten synthetischen Blurs ( Zitat:.. syntetic blur on the left side ..). Als Ausgangsmaterial war also bereits ein scharfes Bild vom Haus vorhanden, das dem rekonstruierten ziemlich ähnlich war.
Damit ist dieses Verfahren, so wie hier dargestellt, meiner Meinung nach aber in der Praxis ziemlich irrelevant, denn wer braucht schon einen Entblurrer, wenn das scharfe Bild ohnehin vorhanden ist. Kann höchstens als Reparaturalgorithmus für ein Bild angesehen werden, das von irgend jemand anderem absichtlich zur Unkenntlichmachung geblurrt wurde. Ein von vorneherein unscharfes Bild würde allerdings auch ganz anders aussehen als dieses synthetisch unscharf gemachte.

Space


Antwort von Jott:

"
@Jott
Sehr hübsch auch die These, dass die Kamera an ihren Rekonstruktionen weiter rechnet, wenn sie auf Pause steht oder aus ist.

Es ist nicht wichtig, ob Du etwas glaubst -oder nicht-, solange Du nicht plausibel oder belegt darstellen kannst, dass die Kameras keine Algorithmen abarbeiten kann, wenn sie nicht aktiv zur Aufnahme benutzt wird.

Falsifizier doch einfach meine Annahme und beleg, warum das gar nicht möglich sein kann."




Mach ich gerne. Du meinst, in der Kamera werkelt ein kleiner Fluxkompensator, der sogar DoF gegen den Willen des Filmers scharf macht, aber nicht in Real Time hinterher kommt und daher in Aufnahmepausen weiter rechnet. Müsste man daran merken, dass nach einem Take noch eine Weile auf die Karte geschrieben wird. Insbesondere nach einem langen, sagen wir einem 10- oder 20-Minuten-Clip. Da gäbe es noch ordentlich was zu rechnen nach deiner These, da würde jeder die Kamera zurückgeben wegen der minutenlangen Wartezeit.

Ansonsten: etwas aufnehmen, offene Blende, vorne scharf, hinten unscharf. Sieht wiedergegeben nicht anders aus.

Die Kamera schärft doch in Wirklichkeit nur mit dem uralten billigen Trick nach (aufgesteilte Kanten), und das war's.

Space


Antwort von Angry_C:

Das ist aber nur einer von vielen, die die unterschiedlichen Methoden beschreiben.
Das Internet ist da wirklich voll und auch die FU-Berlin lehrt den Stoff.
Und wenn die Algorithmen in Hardware gegossen sind, funktionieren sie in fast echtzeit.
Fast in Echtzeit also? Deiner Meinung nach werkeln diese Algorithmen doch schon in der AX100.
@Camworks
Es tut mir leid, dass Du den Eindruck bekommen hast, ich würde Leute beleidigen; nur manchmal platzt einem natürlich auch der Kragen, wenn sich Leute so dämlich anstellen und derart bar jeglicher Kenntnis sind, die von sich behaupten, Sie seien Mitglieder in Entwicklungsteams von Kameraherstellern, in Wahrheit aber noch nicht mal Ahnung vom Beugunglimit haben.
Muss nun jeder Techniker auch gleichzeitig Optiker sein? Wir waren hier auch nicht beim Thema "Optik" sondern bei deinen völlig aus der Luft gegriffenen Behauptung, die Kamera würde nicht vorhandene Details Rekonstruieren.
Es ist nicht wichtig, ob Du etwas glaubst -oder nicht-, solange Du nicht plausibel oder belegt darstellen kannst, dass die Kameras keine Algorithmen abarbeiten kann, wenn sie nicht aktiv zur Aufnahme benutzt wird.

Falsifizier doch einfach meine Annahme und beleg, warum das gar nicht möglich sein kann.
Das wäre dann der erste nützliche und konstruktive Beitrag an den ich mich von Dir erinnern kann.
Also, nur zu.
Naja, wie immer also. Du stellst irgendwelche Behauptungen auf und andere müssen beweisen, dass sie nicht stimmen. Wie wäre es denn mal damit, Beweise, die deine These stützen, gleich mit zu liefern?


Mir war es so klar, dass du nochmal zum Rundumschlag ausholst. Kannst auch nicht einmal einsehen, dass du zu viel Phantasie an den Tag gelegt hast, oder?

Die Fassade bröckelt trotzdem weiter wowu...

Space


Antwort von Bruno Peter:

Könnt Ihr nicht Eure Hasstiraden woanders austragen.
Das bringt doch hier nichts für die Leser!

Space


Antwort von Angry_C:

Könnt Ihr nicht Eure Hasstiraden woanders austragen.
Das bringt doch hier nichts für die Leser!
Sehe keine Hasstiraden, und es geht außerdem noch um"s Thema.

Space


Antwort von domain:

Ein „WoWu-Missverständnis“ aber scheint mir doch hinsichtlich der Unzahl der im Internet kursierenden Rekonstruktionsalgorithmen zu bestehen. In meinen Augen sind das nur reverse Blur-Algorithmen. Würden m.E. niemals bei wirklich unscharfen Bildern in der Art funktionieren.
Gegenbeweiserbringung weiter oben schon vorgeschlagen (Bild mit unscharfer Frau, die sich über einen Mann beugt).
Was bleibt sind mehr oder weniger gefinkelte Schärfungsfilter.

Space


Antwort von Bruno Peter:

Wir waren hier auch nicht beim Thema "Optik" sondern bei deinen völlig aus der Luft gegriffenen Behauptung, die Kamera würde nicht vorhandene Details Rekonstruieren. Hier mal ein Beleg dafür, daß es sowas doch gibt, schon im Jahre 2006:


zum Bild


Space


Antwort von Angry_C:

Wir waren hier auch nicht beim Thema "Optik" sondern bei deinen völlig aus der Luft gegriffenen Behauptung, die Kamera würde nicht vorhandene Details Rekonstruieren. Hier mal ein Beleg dafür, daß es sowas doch gibt, schon im Jahre 2006:


zum Bild
Das ist doch kein Beleg. Wo ist denn das aufwändige Originalmuster zu sehen? So würde ich dafür plädieren, dass die HC3 das richtig dargestellt hat, was die HC1 aus irgendeinem Grund nicht konnte. Würde mehr Sinn ergeben als dass das verkrüppelte HC1 Bild dem Originalmuster entspricht.

Außerdem hat dieses Beispiel nunmal gar nichts mit der angeblichen Rekonstruktion von Wowus Hausbeispiel gemein. Da liegen Welten zwischen.

Space


Antwort von Bruno Peter:

Du bist stark auf Deine Sichtweise konditioniert und möchtest andere Leute kolonisieren damit.
Wärest Du zugänglicher, würde ich Dir weiter helfen, so aber nicht!

Space


Antwort von rudi:

Nachdem das Gedöhns hier in diesem Thema anscheinend etwas nachgelassen hat versuche ich es nochmal:

Frage an rudi: Wurde das Messbild der AX100 mit Active Steady ON oder OFF gemacht ?

( Die Sensorfläche, die bei AX100 ausgelesen wird, ist bei Active Steady ON oder OFF unterschiedlich, und das Messbild kann eigentlich nur bei einer der beiden Einstellungen so sauber sein ! ) Hallo, ich musste in den letzten Tagen nach einem Festplattencrash einiges manuell wiederherstellen, was etwas gedauert hat.
Zur Frage: Active Steady Shot war OFF.
Ich glaube aber nicht, dass ON etwas verändert hätte. Wir hatten die Kamera leider nur ganz kurz, weshalb wir bei weitem nicht alles testen konnten, was wir damit vorhatten.

Space


Antwort von VideoUndFotoFan:

DANKE für diese Information !

Und JA - da bei Active Steady = ON eine kleinere Sensorfläche ausgelesen wird (um auch eine Drehbewegung um die Kameraachse stablieren zu können, was bei der AX100 auch richtig gut und schön weich funktioniert) müßte ein Unterschied sichtbar sein.

Auf alle Fälle weiß ich nun, daß ich, wenn ich mit der AX100 in UHD filme, ein sehr sauberes UHD-Bild erhalte, wenn Active Steady auf OFF geschaltet ist (also der optische Stabilisator eingeschaltet, oder die Stabilisierung ganz abgeschaltet ist).

Ob es bei Active Steady = ON nennenswert schlechter ausfällt werde ich selbst testen müssen. Vermutlich aber nicht, denn mein bisheriger Bildeindruck für das UHD-Material aus der AX100 ist auch dann hervorragend.

Space


Antwort von rudi:

Ach und noch meine Erfahrung zur Dekonvolution. Je besser das Ergebnis bei einem Standbild aussieht, desto ungeeigneter ist es in der Regel für Bewegtlbilder. Weil die neu errechneten Muster dann anfangen ein bewegtes Eigenleben zu führen, wenn sich die Basis-Pixel verändern.

Allerdings hat Sony einmal einer PK am Rande erwähnt, dass bei einigen neuen Kameras Objekte im Codec schärfer ergänzt werden, wenn sie erkannt wurden. Sie hatten dafür ein Beispiel im Superzoom-Bereich, in dem man noch ein Gesicht erkennen konnte. Das dürfte jedoch etwas anders funktionieren. Da werden zuerst Objektdaten via Superresolution gesammelt und dieses Objekt kann dann nach der Bewegungsschätzung sozusagen schärfer "überstempelt" werden.

Ich staune selbst immer wieder, was man heute schon in einen Camcorder-SoC packen kann.

Space


Antwort von Angry_C:

Du bist stark auf Deine Sichtweise konditioniert und möchtest andere Leute kolonisieren damit.
Wärest Du zugänglicher, würde ich Dir weiter helfen, so aber nicht! Lol, das sagt der Richtige. Du weißt doch gar nicht, wovon du sprichst, wie sollst du da irgendeinem weiterhelfen?

Space


Antwort von VideoUndFotoFan:

Ja, er ist einer von denen, die die Kamera(s) selbst nicht haben, ja noch nicht mal haben möchten (oder vielleicht auch nur nicht haben können oder dürfen), aber trotzdem immer und überall ihre Meinung dazu zum Besten geben. Natürlich immer ungefragt und natürlich auch dann, wenn die eigentliche Info von anderen stammt (so nach dem Motto: Ich habe von einem gelesen, der einen kennt, der ...)

Und immer gerne dabei auch "irgendwie" persönlich wird, solange es nicht um seine Person geht.

Space


Antwort von Bruno Peter:

Ja ja, mache mal Deine Testaufnahmen...

Space


Antwort von WoWu:

@domain
Nur der Vollständigkeit halber.
Du hattest nach dem Basisartikel für die Bildbearbeitung gefragt. Ansonsten hatte ich auch im verlauf des Threads ein Beispiel für das Thema Superresolution gebracht und auch erwähnt, dass es zahlreiche weiter Artikel hierzu im Netz gibt.
Vielleicht ist es ja auch Deiner Aufmerksamkeit entgangen, dass es in dem Artikel um De-focused Aufnahmen geht und mit nicht Anderem hat man es bei einem, durch die Beugung beschädigten Bild zu tun. Es geht also in dem Artikel nicht um den Reverse-Prozess eines aufgelegten Blurs, wie Du sagst.
Und durch die allgemeinen Betrachtungen (auch auf den verknüpften Seiten) sollte man sich nicht vom Kern des Artikels ablenken lassen.
Auch Camworks hatte darauf hingewiesen, dass das Netz voll davon ist.
Wer also konkrete Informationen sucht, wird keine Probleme haben, sie zu finden.

Space


Antwort von freezer:

Adobe Sneak Peak von 2011:



Image Deblurring - Herausrechnen von Bewegungs- und Fokusunschärfe.

Seit Photoshop CC offiziell eingebaut:



Space


Antwort von WoWu:

Danke für den Link.
Aber kein vernünftiger und halbwegs informierter User zweifelt heute noch daran, dass es solche Algorithmen gibt und dass sie zunehmend zum Einsatz kommen, speziell wenn Pixel immer kleiner, Auflösungen immer grösser und Unschärfeeffekte daraus resultierend immer problematischer werden.
Die einzige Frage die sich eben jedem Normaldenkenden stellt ist nicht ob es so ist, sondern wie gut solche Ergebnisse anschliessend sind.

Wie ich domain schon sagte. Jeder der sich informieren will, wird reichlich Material dazu finden.
Aber wer das gar nicht erst will, wird sich wohl weiter irgendwann wundern, wo die Grenzen der optischen Übertragung sind.

Space


Antwort von freezer:

Ich habe mich ja zuerst gefragt, wie das aufgrund des hohen Berechnungsaufwands in der Kamera klappen könnte.

Aber der Punkt ist ja leicht - die Zusammensetzung der Beugungsunschärfe ist ja immer gleich, es müssen also nicht bei jedem Bild erst aufwändig die Parameter ermittelt werden.

Diese Parameter werden einmal im Labor ermittelt und als einfacher Lookup-Table für die jeweilige Blende abgespeichert, der Rekonstruktionsprozess selbst scheint ja nicht mehr so aufwendig zu sein, wenn dafür spezielle Hardware zum Einsatz kommt und vermutlich lässt sich so etwas auch sehr gut parallelisieren.

Damit ließen sich in der Tat die physikalischen Grenzen erneut verschieben. Ist ja nur eine Frage der Zeit, bis die Algorithmen so ausgefeilt sind, dass sie auch professionellen Ansprüchen genügen.

Space


Antwort von WoWu:

Das ist richtig.
Mit den spezifischen Kameradaten und auch den Bewegungsprädiktionen des Codecs ist es relativ leicht eine Rekonstruktion herzustellen.
Aber selbst, wenn kameraspezifische Daten nicht vorliegen, lassen sich Bilder, speziell wenn sie nicht völlig informationslos sind, schnell rekonstruieren.
Die S&N Upscaler machen das bei uns seit Jahren, mit guten Ergebnissen, wenn man einmal von den spezifischen Artefakten absieht, die einfach nicht wegzuleugnen sind, z.B. der Beibehaltung spezifischer Unschärfen.
Die Bilder sehen vordergründig dadurch zwar scharf aus, aber Auflösung besteht eben aus mehr Bestandteilen (z.B. auch Unschärfen und bestimmten Bokeh Details des Objektivs) und die unterscheiden solche künstlich rekonstruierten Bilder eben.
Das soll nicht heissen, dass man solche Unschärfen nicht auch nachträglich erzeugen könnt.
Nur das würde letztlich bedeuten, dass jedes Handy letztlich dann solche Bilder erstellen kann.

Space


Antwort von domain:

Habe mir heute von Freezer mal einiges demonstrieren lassen. Geht tatsächlich mehr als ich dachte. Im Grunde ist es aber nur eine semantische Frage, ob man die Verfahren als Deblurring-, Rekonstruktions- oder als Schärfungsalgorithmen bezeichnet, die Ziesetzung ist in etwa immer die gleiche.
Oder gibt es da etwa noch genauere Schubladierungsunterscheidungsmerkmale ?

Space


Antwort von freezer:

Weil Du den S&N Upscaler erwähnst - hast Du eine Ahnung wie der Teranex dazu im Vergleich abschneidet? Ich habe im Netz viel Gutes darüber gelesen, konnte aber keine hochskalierten Beispiele zum Begutachten finden.

Space


Antwort von WoWu:

Ich glaube, es geht um mehr.
Bisher hat jeder guter Fotograf und Filmemacher seine Bilder nach unterschiedlichen Gesichtspunkten beurteilt, die ein Produkt verschiedener Unzulänglichkeiten waren (darunter auch das DoF).
Solche Kriterien werden durch eine Rekonstruktion (noch) alle ad Absurdum geführt.
Man wird also eine neue Qualitätsdiskussion führen müssen.
Sicher gibt es den klatschen Run&Gunner, der kanckscharfe Aufnahmen attraktiv findet, aber die, die z.B. eine Freistellung durch Unscharfe gut fanden, müssen vermutlich erst aussterbe.

Aber das wird das Jahrzehnt der Handyfilmerei.

Space


Antwort von WoWu:

Nee, Robert, dazu hab ich leider keine Vergleiche.

Wir haben die Scaler damals angeschafft, weil wir eine vergleichbare 1080 Version anbieten wollten und sind damit bestens gefahren, weil nie reklamiert wurde.
Nun wird es wohl so sein, dass selbst für 4K Upskaling die alten 3-Chipper noch die identische, wenn nicht sogar bessere Ausgangsposition darstellen könnten als die neuen Kameras, mit noch kleineren Pixels und schlechten Objektiven.

Die Zeit steckt voller Überraschungen.

Space


Antwort von geist:

Topaz Infocus
Focus Magic
Picurre
... und einige andere. Gibt es solche Plugins auch für After Effects und Premiere?

Habe mich gerade ein wenig mit Piccure gespielt und finde das Ergebnis richtig gut.
Getestet habe ich mit Fotos einer D800 und mit Screenshots eines Gh4 Videos. Bei den Fotos lieferte mir eine unscharfe Maskierung ein besseres Ergebnis. Bei den Gh4 Screenshots lieferte Piccure ein besseres Ergebnis.
Wobei beide ziemlich identisch sind. Ein Gewisser Smartphone/Camcorder Look lässt sich dabei schon erkennen.

Space


Antwort von freezer:

@ geist

Das Problem ist bei Video, dass sich die Unschärfe (durch Bewegung/Fokus) temporal verändert, das wird wohl noch eine zeitlang dauern, bis sich das bei Videoaufnahmen auch vernünftig machen lässt.

Wenn es nur um die Beugungsunschärfe geht, da ändern sich die Parameter nicht mit jedem Frame.

EDIT:
Ist mir grad eingefallen:
Ein bisschen was in die Richtung gibt es von ReVisionFX mit ReelSmartMB, da lässt sich die Bewegungsunschärfe so halbwegs rausrechnen, aber mit starken Artefakten.

Space


Antwort von Harald_123:

Herzlichen Dank an slashCAM für diese sehr interessante Untersuchung!

Space


Antwort von Tiefflieger:

Die Entwicklung geht weiter (wenigstens bei Smartphones).
http://www.computerbase.de/2014-05/appl ... von-nokia/

Interessant ist nebst dem OIS auch die Subpixelbelichtung durch minimale Optikverschiebung.
Eine ähnliche Technik verwendet auch bereits ein Chinesischer Smartphonehersteller um aus 13MP ca. 50MP Fotos zu machen.

Rekonstruktion ist somit ggf. künftig gar nicht mehr nötig.

Gruss Tiefflieger

Space


Antwort von WoWu:

Rekonstruktion ist somit ggf. künftig gar nicht mehr nötig. Beugung !!! ist das magische Wort nicht "Subpixels".

Und du musst die Nachricht auch mal ganz lesen: ....und Querachse aus mehreren Bildern per Interpolation ein super hochauflösendes Bild entstehen kann.

Space


Antwort von Tiefflieger:

@ geist

Das Problem ist bei Video, dass sich die Unschärfe (durch Bewegung/Fokus) temporal verändert, das wird wohl noch eine zeitlang dauern, bis sich das bei Videoaufnahmen auch vernünftig machen lässt.

Wenn es nur um die Beugungsunschärfe geht, da ändern sich die Parameter nicht mit jedem Frame.

EDIT:
Ist mir grad eingefallen:
Ein bisschen was in die Richtung gibt es von ReVisionFX mit ReelSmartMB, da lässt sich die Bewegungsunschärfe so halbwegs rausrechnen, aber mit starken Artefakten. Bei hohen fps (>50 fps) spielt die Bewegungsunschärfe mit kürzerer Verschlusszeit weniger eine Rolle.
Durch hohe Framezahlen z.B. > 100 fps gibt es keine Stroboskopeffekte, weil diese nur durch die begrenzte Darstellung entstehen würde. Gleiches gilt für Ghosting (Zwischen-, stehendes Bild) und Schlieren ziehen (letzteres ist in etwa motion blur) wäre nur noch von der Darstellung abhängig.

Insofern ist es wichtig bei bis zu 30 fps immer ein Stativ zu benutzen und die Kamera möglichst wenig zu bewegen. So bleiben bei statischen Bildelementen die UHD Muster-Auflösung erhalten und in ein wenig bewegten fällt es auf FullHD oder HD zururück. Dazu kommt noch Tiefenunschärfe, die dann HD Details gänzlich verschwinden lässt.
Je grösser und hochauflösender die Projektion, desto mehr sieht man Unschärfen und störende Artefakte mit Schärfe....

Darum spreche ich mal 99.9% der Filmemacher eine detaillierte und strukturierte Bilderfassung ab.
Hauptsache filmisch in SD+ Auflösung ;-)
(alles super und tolle Farbtiefe in grosser Sensordynamik. Dabei haben solche Bilder eine bescheidene Anzahl an Farbnuancen. Dafür viel Helligkeitsstufungen.....)

Gruss Tiefflieger

Space


Antwort von WoWu:

Dabei haben solche Bilder eine bescheidene Anzahl an Farbnuancen. Dafür viel Helligkeitsstufungen.....) Der Sensor kennt gar keine Farbe und gibt nur "Helligkeitswerte" ab.
Die Menge der "Farbabstufungen" ergibt sich erst im Prozessweg.

Space


Antwort von Tiefflieger:

Wenn ich in den grün Farbtopf greife und mit dem Pinsel über die weisse Leinwand streiche, habe ich das "gleiche" Grün aber mit verschiedenen Helligkeitswerten (kann gut interpoliert werden).

Ein reales grünes Baum-Blatt hat Pigmentierung in verschieden Farben und Helligkeit (mehr Farbnuancen, kann mit Debayering nicht pixelgenau ermittelt werden).

Die absorbierte natürliche Farbnuancenzusammensetzung ist vom Material und der Lichtquelle abhängig.

Gruss Tiefflieger

Space


Antwort von WoWu:

Der Mensch kann, nach wissenschaftlicher Erkenntnis, innerhalb des sichtbaren Spektrums etwa 200 wahrnehmbare Farbabstufungen unterscheiden.

Variiert man die Intensität innerhalb jeder Stufe und verändert damit die Helligkeit der Farbe, lassen sich pro Stufe 500 Helligkeitswerte unterscheiden.
Außerdem kann die Sättigung jeder Farbabstufen variiert werden.
Dies geschieht indem man einer Farbe, z.B. Licht mit einer Wellenlänge von 640 nm (Rot), kontinuierlich Weiß hinzufügt.
Die Farbe verliert somit an Sättigung.
Die Sättigung einer Farbe verhält sich damit umgekehrt proportional zum Weißanteil der Farbe: je gesättigter eine Farbe ist, desto geringer ist der Weißanteil.
Pro Farbe erhält man ungefähr 20 Sättigkeitsabstufungen.
Berücksichtigt man nun sowohl die 200 erkennbaren Abstufungen des sichtbaren Lichts, die 500 möglichen Helligkeitswerte und die 20 Sättigungswerte pro Stufe, erhält man (200 × 500 × 20) = 2 Millionen verschiedene Farben, die der Mensch überhaupt nur unterscheiden kann, egal, ob sie von einem Farbstrich oder einer Kamera kommen.
Erst durch die Adaption, also das Nachregeln der Helligkeitswerte des Auges können bis zu 20 Bit wahrgenommen werden.
Das trifft aber für dein Beispiel und statische Lichtsituationen nicht zu.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


GH4 4K pre burst mode einstellen???
GH4 - 4K Option ausgegraut?
Mein GH4 / 4K Film - "Sea of rocks"
Gh4 welche 4K Einstellung
Kurznews: GH4 Original 4K Files (vielleicht später) zum Download
Lumix GH4 mit 4K auf CES gezeigt
Bald die Panasonic GH4 4K für 2799€ ??
Scoop: Skintone Shootout: Panasonic GH4, Blackmagic Design 4K, Sony PXW-Z10
Blackmagic Cinema Camera 6K Sensor Test - Rolling Shutter, Debayering und Dynamik
Panasonic S1/GH4/GH5 Forum - mit G9?
Alles Cine? Sony FX30 Sensor Test - Rolling Shutter und 4K-Debayering
Sony Alpha 6700 Sensor Test - Rolling Shutter, Debayering und Dynamik
Sony Alpha 9 III Sensor Test: Shutter, Debayering und Dynamik
FUJI X-H2 Sensor-Test - Dynamik, Rolling Shutter und Debayering
Rode Smartlav+ > (Zoom GH5) > Lumix GH4, GH5 + Android Tests
externer monitor via hdmi an gh4?
MacBook Pro 16? M1 Max im Performance-Test mit ARRI, Sony, Canon, Panasonic, Blackmagic ? Teil 1
MacBook Pro 16? M1 Max im 5K-12K Performance-Test mit Sony, Canon, Blackmagic, Panasonic ? Teil 2
MacBook Pro 16? M2 Max im Performance-Test mit ARRI, Canon, Sony, Panasonic, Blackmagic ?
Externer Monitor (zum Schärfe ziehen an 1DC)
Canon GX10 Schärfe Look
Schärfe - wir müssen reden ...
Kelvin, Schärfe und Belichtung
MacBook Pro M2 Max im Performance-Test bis 12K RAW mit ARRI, RED, Canon, BMD, Sony, Panasonic ...




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash