Logo Logo
/// 

Panasonic Lumix DC-G9 mit 20MP 60fps Serienbildfunktion angekündigt



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Soeben wurde die Lumix DC-G9 als neues Spitzenmodell unter Panasonics spiegellosen Systemkameras vorgestellt. Sie präsentiert sich quasi als Schwestermodell zur GH5 und b...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Panasonic Lumix DC-G9 mit 20MP 60fps Serienbildfunktion angekündigt




Antwort von cantsin:

1700 Euro ist 'ne Ansage, wenn man sich überlegt, dass z.B. die G6 vor vier Jahren noch für 750 Euro auf den Markt kam. Würde mich wundern, wenn viele Leute soviel Geld für eine Fotokamera auf den Tisch legen würden, die (a) von Panasonic kommt und nicht von einer der großen Fotomarken, (b) 'nur' einen MFT-Sensor hat.

Bei den 20/60fps wäre vor allem interessant, ob die auch in Raw geschossen werden und mit vielen maximalen Bildern.



Antwort von Darth Schneider:

Ist schon etwas viel Geld, aber es tönt trotzdem sehr interessant, wenn man mit der selben Kamera filmen und Fotografieren möchte, wobei die Gh5 auch schöne Fotos macht und für Filmer vieeel mehr bietet. Wobei diese 60 Fotos pro Sekunde, wenn die G9 RAW Fotos aufnimmt, könnte das unter Umständen auch zum filmen, von kurzen Sequenzen äusserst interessant sein. Ausserdem ist das Teil immer noch viel billiger und viel schneller wie eine Sony A7s oder 7r. Also wenn man so wie ich die grosse Sensoren gar nicht braucht ist die Kamera unter Umständen schon ein schönes Schnäppchen. Panasonic macht vieles richtig denke ich und hat nicht so unverschämte Preise, wie Sony z.b. die neuste Rx10 die ja auch um die 2000€ kostet, was ich dann aber wirklich 1000€ zu viel finde und auch die Rx100 für über 1000€ Das ist ein Witz.
Go Panasonic !
Gruss Boris





Antwort von cantsin:


Ausserdem ist das Teil immer noch viel billiger und viel schneller wie eine Sony A7s oder 7r.
Die A7s kostet aktuell 1800 Euro, die A7 und A7II liegen noch drunter... Bin aber Deiner Meinung, dass 20/60 fps, wenn es sie in Raw und ohne Buffer-Begrenzung gäbe, ein Killerfeature wären. Ist nur die Frage, wieviele Leute das brauchen und dafür soviel Geld hinlegen.



Antwort von Frank B.:

Ich finde den angekündigten High-Resolution-Modus sehr interessant. Er soll ja angeblich nur vom Stativ aus funktionieren und nicht freihand. Über Stitching werden da die Einzelbilder zu einem hochauflösendem Foto zusammengesetzt. Man kann ein solches Foto sehr gut auch im filmerischen Bereich mit nutzen und in Videos einbinden. Mir persönlich fallen einige Anwendungsbereiche ein, z.B. die Ablichtung bestimmter Kunstwerke, in die man dann detailliert hineinzoomen oder eine Kamerafahrt auf diesem Foto organisieren kann. Ich habe jetzt noch keine ganz genaue Vorstellung von diesem Feature, stelle es mir aber wie den Vorgang bei der Herstellung eines Panoramafotos in herkömmlichen Apparaten vor, nur dass es die horizontale und die vertikale Achse in einem Foto verbinden kann. Wie gut der Modus funktioniert, wird man sehen müssen. Ich denke, er soll ein wenig die höheren Pixelzahlen größerer Bildwandler der Konkurrenz kompensieren. Auf APS-C und gar Fullframe oder Mittelformat bekommt man eben mehr PixelPixel im Glossar erklärt unter. Hier stößt Panasonic mit MFT wohl auch an seine Grenzen. Kein schlechter Schachzug also, um vorhandene Kunden, die bisher auf MFT setzten, mit einem adäquaten Fotogerät zu versorgen.



Antwort von cantsin:


Ich finde den angekündigten High-Resolution-Modus sehr interessant. Er soll ja angeblich nur vom Stativ aus funktionieren und nicht freihand. Über Stitching werden da die Einzelbilder zu einem hochauflösendem Foto zusammengesetzt.

Da baut Panasonic aber nur ein Feature nach, das die Oberklassenmodelle von Olympus schon länger haben. (Wie überhaupt die ganze G9 vom Datenblatt her wie ein Clone der Olympus EM1 Mark II aussieht - es sei denn, wie gesagt, es gäbe die Highspeed-Einzelbilder in Raw und ohne Mengenbegrenzung.)

Die Frage ist, ob das überhaupt sinnvoll ist und nicht vielmehr ein Placebo, um Landschaftsfotografen an der Stange des MFT-Systems zu halten. Denn kein MFT-Objektiv der Welt kann diese Megapixel physisch auflösen.



Antwort von dersuperpro1337:

Schon wieder eine Kamera mit einem künstlichen Aufnahmelimit. Die GH5 und schon die GH4R konnten länger als 30 Minuten aufnehmen - und jetzt soll ich für ein aufgeblasenes Mid Range Modell 1700€ zahlen ohne diese Funktion zu erhalten? Die GH5 ist inzwischen schon zwischen 1700-1800€ zu haben und bietet vieles mehr... Vor allem in Sachen Video.
Hoffe echt, dass es irgendein Hersteller mal hin bekommt, eine Mid-Range Kamera ohne das bekloppte 30 Minuten Limit auf den Markt zu werfen. Welche günstigen Alternativen gibt es denn im 4k Markt zwischen einem grauenhaften Camcorder, der GH5 und einer FS5/Ursa/FS7/EVA1?

Edit: Ja, ich weiß, dass die EU daran schuld ist. Trotzdem: Die GH4R und GH5 haben es vorgemacht und ich denke gegen einen kleinen Aufpreis sollten ähnliche Modelle unterhalb kein Problem sein.



Antwort von iasi:



Denn kein MFT-Objektiv der Welt kann diese Megapixel physisch auflösen.

Muss es ja auch nicht - es werden einzelne Aufnahmen zusammengesetzt.



Antwort von cantsin:



Denn kein MFT-Objektiv der Welt kann diese Megapixel physisch auflösen.

Muss es ja auch nicht - es werden einzelne Aufnahmen zusammengesetzt.

Ja, aber nur der Sensor wird bewegt, nicht das Objektiv. Also bleibt die Objektivauflösung der limitierende Faktor für die Realauflösung.



Antwort von iasi:



Muss es ja auch nicht - es werden einzelne Aufnahmen zusammengesetzt.

Ja, aber nur der Sensor wird bewegt, nicht das Objektiv. Also bleibt die Objektivauflösung der limitierende Faktor für die Realauflösung.

Die Pixelgröße entspricht jedoch einem 20MPixel- und eben nicht einem 80 Megapixel-Sensor.



Antwort von Frank B.:

Ach, die machen das über einen sich bewegenden Sensor? Ich dachte, das geht über das Bewegen der kompletten Kamera wie eben bei einem Panoramafoto.
Ist aber auch egal, jedenfalls müssten eigentlich mehrere Bilder in voller Sensorgröße aufgenommen werden und dann sw-mäßig eben gestitcht werden. D.h. eigentlich, dass das Objektiv nur einen Teil der Auflösung liefern muss, wie bei jedem normalen Foto auch. So ähnlich wie wenn man ein 4K Bild aus 4 FHD-Strömen zusammensetzen könnte. Die benötigte Objektiv müsste dann nur FHD auflösen. Der Rest wird sw-seitig erledigt.



Antwort von Darth Schneider:

Die Kamera muss halt viele Megapixel haben, da sie ja laut Panasonic mehr zum fotografieren konzipiert wurde. Das muss auch zum filmen nicht zwangsläufig negativ sein, ich würde mal die Tests abwarten anstatt zu viel zu diskutieren ob jetzt viele Megspixel....sinnvoll, Bla, bla, bla. Die einzige Realauflösung die am Schluss relevant ist, ist mein hundsnornaler Tv, oder mein i Pad, oder ein billig Laptop, die meisten Filmchen schauenden Konsumenten werden nicht gross anders denken. Also was soll’s ?
Wenn jemand jetzt ein wirklich gutes Panorama Foto will, würde ich das so oder so mit einzelnen 20 Megapixel RAW Fotos machen und die in Photoshop, von Hand zu einem riesigen Bild zusammenfügen. Dann kann jede 500€ Kamera ein Riesen Bild produzieren.
Die Fujis haben auch keinen grösseren Sensor und auch viele PixelPixel im Glossar erklärt, die Sonys RX Serie hat noch kleinere Sensoren und genau so viele PixelPixel im Glossar erklärt, genau so ähnlich ist die G81. Eins haben alle diese Kameras gemeinsam, sie fotografieren und sie filmen äusserst gut. Das wird bei der neuen Panasonic nicht anders sein.
Gruss Boris



Antwort von Frank B.:



Ja, aber nur der Sensor wird bewegt, nicht das Objektiv. Also bleibt die Objektivauflösung der limitierende Faktor für die Realauflösung.

Die Pixelgröße entspricht jedoch einem 20MPixel- und eben nicht einem 80 Megapixel-Sensor.

Genau, so hab ich mir das vorgestellt. Aus 4 20MPx wird ein 80MPx-Bild gestitcht (zusammengefügt). Nun kann man natürlich überlegen, ob MFT-Objektive überhaupt in der Lage sind, 20 MPx aufzulösen.



Antwort von mash_gh4:



Ich finde den angekündigten High-Resolution-Modus sehr interessant. Er soll ja angeblich nur vom Stativ aus funktionieren und nicht freihand. Über Stitching werden da die Einzelbilder zu einem hochauflösendem Foto zusammengesetzt.

Die Frage ist, ob das überhaupt sinnvoll ist und nicht vielmehr ein Placebo, um Landschaftsfotografen an der Stange des MFT-Systems zu halten. Denn kein MFT-Objektiv der Welt kann diese Megapixel physisch auflösen.

ich glaube, man sollte dieses feature nicht unbedingt mit sinnlosen megapixel-streben in verbindung bringen, sondern vielmehr mit einer technik, die u.a. die vorgegeben systemgrenzen des bayer-patterns zu transzendieren versucht. durch die bewegung des sensors steigt zwar nicht unbedingt gleich die generelle räumliche auflösung, aber die farbwiedergabe wird in den konturen an die fähigkeiten eines foveon-sensors herangeführt, ohne die dortige lichtabschwächenden eigenschaften der hintereinander angeordneten schichten in kauf nehmen zu müssen. aber natürlich ist auch dieser kunstgriff wieder mit anderen spürbaren kompromissen und anwendungseinschränkungen verbunden. am problematischsten dürfte sich wohl der umstand erweisen, dass es nur sehr wenig RAW-entwicklungssoftware geben dürfte, die diese eigenheiten und vorzüge auch tatsächlich optimal auszuschöpfen vermag.

siehe u.a.: https://pixls.us/articles/rawtherapee-a ... xel-shift/



Antwort von Frank B.:


Die Kamera muss halt viele Megapixel haben, da sie ja laut Panasonic mehr zum fotografieren konzipiert wurde. Das muss auch zum filmen nicht zwangsläufig negativ sein, ich würde mal die Tests abwarten anstatt zu viel zu diskutieren ob jetzt viele Megspixel....sinnvoll, Bla, bla, bla.
Die Fujis haben auch keinen grösseren Sensor und auch viele PixelPixel im Glossar erklärt, die Sonys RX Serie hat noch kleinere Sensoren und genau so viele PixelPixel im Glossar erklärt, genau so ähnlich ist die G81. Eins haben alle diese Kameras gemeinsam, sie fotografieren und sie filmen äusserst gut. Das wird bei der neuen Panasonic nicht anders sein.
Gruss Boris

Die möglichst hohe Anzahl der PixelPixel im Glossar erklärt ist für Fotos schon sinnvoll. Ist nur die Frage, wie die Nebenerscheinungen in den Griff bekommen werden und ob die MFT-Optiken das auch auflösen. Dennoch wird ein aus 4 einzelnen Bildern gestitchtes Bild, die vierfache Auflösung der Einzelbilder bekommen.

Die Fujis haben APS-C Sensoren. Die sind etwas größer als MFT.



Antwort von Darth Schneider:

An Frank, das mit den Fujis habe ich nicht gewusst, aber hast du schon mal Fotos von der Gh5 gesehen ? Die sehen doch auch schon top aus. Ich denke die Microforthirds Linsen und Kameras packen das schon, ansonsten gibt es doch diese Speedbooster, dann knipst es sich auch, heller mit mehr Weiwinkel, auch mit teuren Linsen. Ob das dann so scharf ist das sich der Mehrpreis lohnt ?
Das ist Geschmackssache und eine Frage der Einstellung und des Budgets.
Gruss Boris



Antwort von Skeptiker:

Der Sensor wird ja nur minimal bewegt, ich las etwas von 1/2 Pixelbreite, vermutlich in 8 Richtungen.
Dann wird diese Bildinformation zu einem einzigen Bild zusammengerechnet.

Das hat eigentlich nichts mit "Stitching" (Sticken, Nähen) zu tun, denn das bezieht sich eher auf das flächige Zusammensetzen von geschwenkten (horizonal oader vertikal) Einzelbildern zu einem Bild - normalerweise per Computer-Software.

Das grösste Handicap bei Panasonics Hi-Res-Fotografie (wie auch derjenigen von Olympus) ist, dass sich während der Aufnahme, die sich ja über 8 Bilder hinzieht, weder die Kamera noch das Objekt bewegen darf - also z.B. für Landschaftsfotografie geeignet, aber keinesfalls für Action und generell eher für Aufnahmen ab Stativ.



Antwort von Olaf Kringel:

...für stills ganz nett:

https://youtu.be/Snfph9Sppgo?t=70



Antwort von Frank B.:


Der Sensor wird ja nur minimal bewegt, ich las etwas von 1/2 Pixelbreite, vermutlich in 8 Richtungen.
Dann wird diese Bildinformation zu einem einzigen Bild zusammengerechnet.

Das hat eigentlich nichts mit "Stitching" (Sticken, Nähen) zu tun, denn das bezieht sich eher auf das flächige Zusammensetzen von geschwenkten (horizonal oader vertikal) Einzelbildern zu einem Bild - normalerweise per Computer-Software.

Ah ok. Über das genaue Verfahren in der Kamera wusste ich nix. Ich hatte irgendwo Stitching gelesen und hab mir einen Reim drauf gemacht, weil man das ja z.B. bei Panorama- oder 360 Grad - Aufnahmen so macht wie ich es oben beschrieb.
Ich bin dann tatsächlich mal auf erste Tests gespannt.



Antwort von Olaf Kringel:


Bei den 20/60fps wäre vor allem interessant, ob die auch in Raw geschossen werden...

...laut Photo Joseph ja:

https://youtu.be/5nwN6bLuYYg?t=108



Antwort von kmw:

https://www.fotomagazin.de/sites/www.fo ... 1510137542

Der Pixelshift scheint ja zu funktionieren...
Immer im Blick behalten, das ist eine Kamera mit Schwerpunkt Fotografie.
So wie Panasonic schon mit seinen letzten Youtube Videos Fotografen über die Qualität und die Vorzüge der GH5 berichteten

https://www.fotomagazin.de/technik/news ... tualisiert



Antwort von cantsin:



Ja, aber nur der Sensor wird bewegt, nicht das Objektiv. Also bleibt die Objektivauflösung der limitierende Faktor für die Realauflösung.

Die Pixelgröße entspricht jedoch einem 20MPixel- und eben nicht einem 80 Megapixel-Sensor.

Wenn das Objektiv brutto nicht mehr 20MP auflöst (praktisch alle MFT-Objektive liegen weit darunter), kann auch ein Pixelshift daraus keine 80MP optische Auflösung machen. Dann müsste schon das Objektiv mitbewegt werden.



Antwort von Frank B.:

Warum nicht? Angenommen ein Objektiv könnte nur einen PixelPixel im Glossar erklärt auflösen. Nun würde das aufgenommen PixelPixel im Glossar erklärt aber mit dem gleichen Objektiv vier mal hintereinander aufgenommen, jeweils etwas verschoben und dann mit einer SW zu einem neuen Bild verarbeitet. So hätte ja das neue Bild vier PixelPixel im Glossar erklärt, obwohl das Objektiv nur einen aufnehmen konnte. Die PixelPixel im Glossar erklärt hätten sogar unterschiedliche Informationen, da sie nicht deckungsgleich aufgenommen wurden.



Antwort von cantsin:


Warum nicht? Angenommen ein Objektiv könnte nur einen PixelPixel im Glossar erklärt auflösen. Nun würde das aufgenommen PixelPixel im Glossar erklärt aber mit dem gleichen Objektiv vier mal hintereinander aufgenommen, jeweils etwas verschoben und dann mit einer SW zu einem neuen Bild verarbeitet. So hätte ja das neue Bild vier PixelPixel im Glossar erklärt, obwohl das Objektiv nur einen aufnehmen konnte. Die PixelPixel im Glossar erklärt hätten sogar unterschiedliche Informationen, da sie nicht deckungsgleich aufgenommen wurden.

Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein PixelPixel im Glossar erklärt, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.



Antwort von ZacFilm:

Habe ich richtig gehört? Da kommt eine Kamera raus die 6K 60 RAW kann??? Und niemand feiert das?



Antwort von Frank B.:



Warum nicht? Angenommen ein Objektiv könnte nur einen PixelPixel im Glossar erklärt auflösen. Nun würde das aufgenommen PixelPixel im Glossar erklärt aber mit dem gleichen Objektiv vier mal hintereinander aufgenommen, jeweils etwas verschoben und dann mit einer SW zu einem neuen Bild verarbeitet. So hätte ja das neue Bild vier PixelPixel im Glossar erklärt, obwohl das Objektiv nur einen aufnehmen konnte. Die PixelPixel im Glossar erklärt hätten sogar unterschiedliche Informationen, da sie nicht deckungsgleich aufgenommen wurden.

Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein PixelPixel im Glossar erklärt, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.

Ich glaube, ich verstehe langsam, was du meinst. Aber vielleicht doch noch nicht ganz.
Es sind ja eben nicht nur temporal verschobene Informationen, sondern auch räumliche, wenn man den Sensor um einen halben PixelPixel im Glossar erklärt in mehrere Richtungem verschiebt. Jedes einzelne Bild hätte die Auflösung, die Sensor und Objektiv zuließen, ok. Aber jedes hätte auch Unterschiede und daraus ließen sich Rückschlüsse auf Details ziehen. Die Auflösung würde also aus den vorliegenden 8 unterschiedlichen Bildern softwaremäßig noch interpretiert. Warum machen die das, wenn das nix bringen würde?



Antwort von Skeptiker:

Auf der Suche nach Erleuchtung zum Hi-Res-durch-Sensorshift-Geheimnis (Olympus E-M5 II und E-M1 II sowie Pentax K-3 II und jetzt Panasonic G9) bin ich gestern auf verschiedene Links gestossen, aber der folgende war der beste (stimmt, ich habe habe auch nicht alles verstanden - kann ja noch werden!;-)):

Teil 1:
http://www.wrotniak.net/photo/m43/em1.2-hires.html

Teil 2:
http://www.wrotniak.net/photo/m43/em1.2-hires-2.html

Falls mit dem Englischen nicht so vertraut, vielleicht mal einen Versuch mit Google Translate starten; dazu am besten die Webadresse dort eingeben, englisch -> deutsch einstellen und "translate!"

https://translate.google.de/?oe=utf-8&g ... -ob#en/de/

Beachten, dass im obigen Artikel (wie auch bei slashCAM) zwischen Senseln (Photosites) und Pixeln unterschieden wird:

Zitat:
"Photosites are often confused with (and referred to as) pixels . This is wrong and misleading, often resulting in false conclusions.
The principal distinction is that while photosites are physical entities, really existing on the sensor surface, pixels are purely abstract constructs, stored in memory, and arranged in a rectangular grid."

Mit Google Translate:

"Fotosites werden oft mit Pixeln verwechselt (und bezeichnet). Das ist falsch und irreführend, was oft zu falschen Schlussfolgerungen führt.
Der Hauptunterschied besteht darin, dass, während Fotosites physikalische Entitäten sind, die wirklich auf der Sensoroberfläche existieren, PixelPixel im Glossar erklärt rein abstrakte Konstrukte sind, im Speicher gespeichert und in einem rechteckigen Gitter angeordnet sind."



Antwort von cantsin:

Zitat aus Deinem verlinkten Artikel:

"Conclusion: Sample Set #1 shows that the HR Mode provides more sharpness and detail than the native resolution; the gain is, however, not as high as the new pixel resolution would allow, most probably limited by lens quality."

Quod erat demonstrandum.



Antwort von Skeptiker:


... Quod erat demonstrandum.

Aber auch die Beispiel-Bilder beachten!

Etwas limitiert immer - sei es der Sensor oder das Objektiv.

Aber solange nicht klar ist, was es ist, kann man es ja mal mit dem Hi-Res Mode der Kamera probieren.

Off topic:
Ich las gerade, dass John Hillerman mit 84 gestorben ist - Higgins aus Magnum PI !
("Magnum, haben Sie eine plausible Erklärung dafür, dass der Ferrari nicht mehr wiederzuerkennen ist ?" ...)



Antwort von mash_gh4:


Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein PixelPixel im Glossar erklärt, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.

nur, weil die objektive AUCH auflösungsbegrenzend wirken, bedeutet das noch lange nicht, dass man andere einschränkende faktoren nicht weiter kompensieren sollte. den begrenzungen durch das bayer pattern zu begegnen, ist in dieser hinsicht durchaus sinnvoll und von praktischem nutzen. je mehr man auf diese weise an sauberen ausgangsdaten gelangt, umso besser lassen sich auch objektivbedingte auflösungseinschränkungen nachträglich herausrechnen.

und was das problem der bewegung im bild betrifft, kann man entsprechende veränderungen an hand von redundanter information im pixel-shift-bilderstapel ganz gut erkennen bzw. isolieren --- was in dem weiter oben zitierten artikel ohnehin bereits ausführlich beschrieben wurde...



Antwort von WoWu:

Es ist weder stitching noch pixel shift, denn das beruht auf starr versetzten Sensoren. Was die Kamera macht, ist Opto- elektronische Abtastung.
Dabei werden aus der AbtastungAbtastung im Glossar erklärt mehrerer gering aufgelöster Bilder ein Gesamtbild höher Auflösung errechnet.
Für den Kamerahersteller hat das den Vorteil der geringen Anforderung an das Objektiv, allerdings auch ein hoher Rechenaufwand und bei solchen Verfahren schließen sich meistens hohe Auflösung und hohe Bildfrequenz aus, deswegen funktioniert das hier auch nur im Fotomodus.
So ein Verfahren hat Apple bereits in einem 2012er Patent für seine iPhones vorgesehen. Das Verfahren selbst ist von Jenoptik in den 80erJahren entwickelt und steckt in diversen Medizinischen Geräten.
Gerade auch, weil ein solches mechanisches Verfahren noch andere Vorteile hat.
Diese Technik verwendet einen Sensor mit einer herkömmlichen Bayermaske. Durch präzise Positionsveränderung des Sensors in Dimension der Pixelgrösse (einige ?m) wandert der Sensor in festgelegten Einzelschritten über das auf den Sensor projizierte Bild des aufzunehmenden Objektes.
Dabei wird in jeder Position ein Einzelbild aufgenommen.
Mit piezogesteuerten Bewegungen lässt sich der Bildsensor mit einer Genauigkeit von plus oder minus 1/10 Mikron um sechs Mikron in vier Richtungen bewegen.
Dadurch lassen sich, den Bildanforderungen angepasst, unterschiedliche Auflösungen oder abweichende Lichtempfindlichkeiten wählen.
Dadurch wird jeder Ort eines Bildes nacheinander von allen drei R, B
und G Farbpixels aufgenommen.
 
Wieder erhält man einen roten, einen blauen und zwei grüne Farbauszüge, die zum fertigen Endbild zusammengerechnet werden. Allerdings, anders als bei der üblichen Bayer-Verteilung, besitzt jetzt exakt jede spatiale Position einen korrekten RGBRGB im Glossar erklärt Wert, der nicht mehr aus den umliegenden Werten errechnet werden muss.
Die Farbdarstellung wird sehr viel genauer, ähnlich dem 3-Chip Verfahren, bei dem auch jede spatiale Position ihre 3 Werte hat.
Insofern hat dieses mechanische Verfahren deutliche Vorteile gegenüber den bisher angewandten Pixel-Shift Verfahren, egal ob mechanisch oder per Algorithmus geshiftet.
Vorteil liegt also ganz klar in der Farbwiedergabe. Die höhere Auflösung entsteht durch SR Algorithmen und ist nicht optisch erzeugt.



Antwort von Frank B.:

Vielen Dank, Wolfgang, für die gute Erklärung!
Ich habe allerdings noch nicht richtig verstanden, ob dieses Verfahren auch für die Luminanzauflösung was bringt, also von meiner amateurhaften Vorstellung her gesehen, mehr Schärfe und Detailauflösung ins Bild bringt. oder ist einfach nur die Farbdarstellung besser?

Interessant auch, dass dieses Verfahren in der Zone entwickelt wurde und nun nach fast dreißig Jahren in die heutige Kameratechnik Einzug hält. :D



Antwort von WoWu:

Na ja, das "Wasser im Wein" ist der zeitliche Versatz der zwischen den Bildern logischerweise entsteht, denn bewegte Objekte im Bild haben sich natürlich weiter bewegt nur das bügelt der SR Algorothmus (rabiat) wieder aus, weil er alle Kanten glatt zieht.
Streng genommen gehen solche Verfahren zulasten der Bilddynamik denn darunter leiden die Nuancen an den Kanten natürlich.
Aber der Trend geht ja ohnehin bei SR hin zu knackescharfen Bildern.

Und was die Entwicklung in der "Zone" betrifft .... das ist ja nichts ungewöhnliches, dass gut durchdachte Erfindungen dort gemacht werden, wo Leute noch nachdenken und nicht nur irgendwelchen Trends folgen.



Antwort von Frank B.:


Und was die Entwicklung in der "Zone" betrifft .... das ist ja nichts ungewöhnliches, dass gut durchdachte Erfindungen dort gemacht werden, wo Leute noch nachdenken und nicht nur irgendwelchen Trends folgen.

Naja, ich komme ja selbst daher und wohne noch dort. Sogar gar nicht mal so weit von Zeiss weg. ;)
Ich weiß natürlich, was damals einige drauf hatten. Nur das richtig gute Zeug (z.B. bessere Autos mit 4-Takt Motoren) durfte man nicht auf den Markt bringen, weil die Deutschen nicht besser sein durften als die Sowjetunion und wenn sie richtig gutes Zeug gebaut haben, dann gings vor allem in den Export gegen wertvolle Devisen. Der normalsterbliche Bürger hat davon wenig gesehen.
In meiner Jugend hat der Betrieb in dem ich gearbeitet habe sogar Drucker für Epson hergestellt. Die hatten damals schon auch Niveau. Bloß ging eben alles ins Ausland. Trends haben also schon auch eine Rolle gespielt und nachdenken konnten viele. Aber...naja...

Nochmals Dank für deine Erlklärung! Also muss man jetzt nicht unbedingt auf dieses Feature bauen. Besser ist es wahrscheinlich, gleich Kameras zu kaufen, die nativ schon größere Sensoren und mehr Sensel haben. MFT hat es da halt nicht leicht und man muss sowas heranziehen, um nicht abgehängt zu werden.



Antwort von WoWu:

Na ja, aber bei den Meisten zählt ja der erste, flüchtige Bildeindruck.
Auch sehr schön bei dem Yedlin-Demo zu sehen, der sowohl aus 6k, als auch aus 2K jeweils ein 4K Bild gemacht hat und das Bild aus 2k sah schärfer aus, als das aus 6k.
Solche Algorithmen kommen den Herstellern natürlich entgegen, weil es die Hardware verbilligt, bei gleichzeitig besserem Effekt.
Erst wenn man genau hinschaut, sieht man, dass das andere Bild, obwohl unschärfer, sehr viel mehr Bilddetails enthält.
Der Effekt solcher Abtastungen wird also die, denen es nur auf Schärfe ankommt, sicher verblüffen.



Antwort von Frank B.:


Na ja, das "Wasser im Wein" ist der zeitliche Versatz der zwischen den Bildern logischerweise entsteht, denn bewegte Objekte im Bild haben sich natürlich weiter bewegt nur das bügelt der SR Algorothmus (rabiat) wieder aus, weil er alle Kanten glatt zieht.

Allerdings würde dieses Argument ja in meinem Verwendungszweck, der Fotografie von statischen Kunstwerken (Malerei, Architektur) nicht greifen.



Antwort von Olaf Kringel:


Die höhere Auflösung entsteht durch SR Algorithmen und ist nicht optisch erzeugt.

Erst wenn man genau hinschaut, sieht man, dass das andere Bild, obwohl unschärfer, sehr viel mehr Bilddetails enthält.

...?

Also in dem Beispiel

https://youtu.be/Snfph9Sppgo?t=72

sieht man in der shift Aufnahme feinste Bilddetails wie z.B. winzige Ösen oder Bohrungen an Stahlteilen, welche in der Standard Aufnahme schlicht undefinierbare Pixelbreiflecken sind.

Woher sollen diese winzigen Details denn kommen, wenn nicht optisch erfasst?

Ein Allgorithmus kann ja wohl kaum wissen, wo an dem Riesenrad Ösen und Bohrungen sitzen...



Antwort von WoWu:

Schau Dir mal den Thread an, der seinerzeit über die Möglichkeiten von SR geführt worden ist, um ein Gefühl davon zu bekommen, was solche Algorithmen leisten.
Dann muss man hier nicht alles wiederholen.



Antwort von dienstag_01:

Ausserdem sind die Details optisch erfasst.



Antwort von WoWu:

Bildschirmfoto 2017-11-11 um 16.56.43.pngAusserdem weiss ich gar nicht, was er da auf dem Beispiel zu erkennen glaubt.
Du siehst kein einziges zusätzliches Detail aber sehr schön die nachgezogenen Kanten und den veränderten Kontrast.



Antwort von Olaf Kringel:

Riesenrad.png

...ich habe mal Pfeile reingekritzelt und beschriftet.

In die mit "Müll" bezeichneten Stellen kann er übrigens so stark reinzoomen wie er will, da sind keine Infos in den Pixeln enthalten, mit Hilfe derer eine software etwas sinnvolles "zaubern" könnte.

Evtl. sieht er ja die feinen Details nicht, aber ich sehe die auf 42" hier deutlich.



Antwort von WoWu:

Bis auf die scharfen Kanten, deren Doppelkante auf dem Shift-Sensor sogar noch deutlicher wird, obwohl es ja ein Interpolationsfehler ist, sehe ich keine zusätzlichen Details.
Kann das sein, dass dein Monitor in der Interpolation auch noch was macht ?Bildschirmfoto 2017-11-11 um 17.44.28.png

Was mich aber deutlich stört -und was ich oben beschrieben habe- ist das Problem der bewegten Objekte.
Wenn ich mir die Darstellung des Wassers mal anschaue, dann sieht das Shift Bild eher wie eine Ölschicht aus, aber nicht wie Wasser.
Aber das ist eben das Problem, wenn man zeitlich versetzte Aufnahmen miteinander verwurstet.



Antwort von Skeptiker:

Statt sich obiges Video anzusehen, sollte man die Originalbilder vergleichen:

Panasonic Lumix G9 sample gallery
Published Nov 8, 2017 | dpreview staff
https://www.dpreview.com/samples/237415 ... le-gallery

Beispielbilder Hi-Res / Normal-Res
(es sind neben JPEGs auch RAWs zum Download vorhanden):

Hi-Res Link:
https://www.dpreview.com/sample-galleri ... 5953122679

JPEG ("80.6 MPix", 28.7 MByte):
https://3.img-dpreview.com/files/p/TS10 ... 122679.jpg

Normal-Res Link:
https://www.dpreview.com/sample-galleri ... 4441769739

JPEG (20.2 MPix, 9.3 MByte):
https://2.img-dpreview.com/files/p/TS51 ... 769739.jpg

Fazit:
Man kann - bei gleicher Grössenansicht - im Hi-Res Modus Beschriftungen lesen, die in Normal-Res verschwommen bzw. verpixelt sind.
Allerdings wirken die Hi-Res-Blder überschärft (helle Kanten)!

Wie bewegte Objekte in Hi-Res abgebildet werden, lässt sich an der Fahne rechts abschätzen.



Antwort von Olaf Kringel:

...daß taugt genau wie ne hdr Bilderserie nur für stills, das steht wohl außer Frage.



Antwort von WoWu:

Die Effekte sind auf den Stills genau dieselben.
Am Riesenrad mag man noch die bessere Farbtreue erkennen (an den unterschiedlichen Farben der Punkte, aus dem De-Bayering) aber die klassischen Schärfekanten der SRAs und der Wischeffekt der zusätzlichen Bilder überzeugen mich beim besten Willen nicht.
Übrigens auch bei den Personen und den Autos auf den Stills zu sehen. Man kann sich das jetzt als "Kunst" schönreden, aber wenn die Kamera das einfach so macht, ist das keine Kunst, sondern ein ungewünschter Effekt.
Und mehr Details sind auch auf den Stills nicht zu erkennen. (woher sollten die auch kommen) ?



Antwort von Skeptiker:


...daß taugt genau wie ne hdr Bilderserie nur für stills, das steht wohl außer Frage.

Ich las irgendwo, dass Olympus daran arbeite (unbestätigtes Gerücht), das Hi-Res-Prozedere auf 1/60 Sek. (vielleicht sogar weniger) zu reduzieren, womit leicht bewegte Objekte weniger problematisch wären, aber Aktionfotos trotzdem nicht eingefroren werden könnten.



Antwort von Skeptiker:

... Und mehr Details sind auch auf den Stills nicht zu erkennen. (woher sollten die auch kommen) ?

Doch, ich kann Texte lesen, die sonst unleserlich sind.



Antwort von WoWu:

Ich finde, das taugt auch nicht für Stills, wenn ich mit dem ShutterShutter im Glossar erklärt nicht selbst bestimmen kann, wie gross meine Bewegungsunschärfe wird und man das der Kamera überlassen muss, dann finde ich das nicht prickelnd.



Antwort von WoWu:


... Und mehr Details sind auch auf den Stills nicht zu erkennen. (woher sollten die auch kommen) ?

Doch, ich kann Texte lesen, die sonst unleserlich sind.

Das kannst Du aber auch bei jeder Kantennachschärfung.
Auf dem Riesenrad kann ich es zumindest nicht.
Welches Beispiel hast Du denn ?



Antwort von Skeptiker:

Na ja, die MFT-ler (Hersteller wie Nutzer) sagen sich eben: "Nicht ideal, aber besser als nichts!" ;-)



Antwort von Skeptiker:



Doch, ich kann Texte lesen, die sonst unleserlich sind.

Das kannst Du aber auch bei jeder Kantennachschärfung.

Dann mache den Test mit dem Low-Res-Bild und Kantennachschärfung (Du hast zusätzlich das RAW zum Download)!



Antwort von WoWu:

Sagt mir erst mal, wo Du da den Unterschied siehst.
Auf den verlinkten Stills sehe ich das nämlich nicht.
Hinweis wäre hilfreich.

Aber schau Dir doch nur mal diesen "gezotterten" Wagen an...
das ist doch grausam.Bildschirmfoto 2017-11-11 um 18.21.46.png

Und als Fotograf würde ich immer auf das JPEG zurückgreifen, solange Wasserflächen wie schlechte Datenreduktionen aussehen und Autos und Personen, wie geschreddert, ist JPEG besser als der untaugliche Versuch, Bilder neu zu berechnen.



Antwort von Skeptiker:


Sagt mir erst mal, wo Du da den Unterschied siehst.
Auf den verlinkten Stills sehe ich das nämlich nicht.
Hinweis wäre hilfreich.

Die "Stay clear"-Tafel unterhalb der Fahne rechts.

Aber schau Dir doch nur mal diesen "gezotterten" Wagen an...
das ist doch grausam.Bildschirmfoto 2017-11-11 um 18.21.46.png

In der Tat abschreckend (oder Kunst?) !



Antwort von dienstag_01:

Wagen?! Das ist das erste wirklich scharfe Bild eines UFO. Also *wirklich* scharf ;)



Antwort von Skeptiker:


Wagen?! Das ist das erste wirklich scharfe Bild eines UFO. Also *wirklich* scharf ;)

There is something out there (huuuuh) ...



Antwort von dienstag_01:

ja, manche haben das schon immer gewusst ;)



Antwort von WoWu:

@skeptiker"

Finde leider kein "stay clear"
kannst Du mal ?n kleinen Screenshot machen ?



Antwort von Skeptiker:


ja, manche haben das schon immer gewusst ;)

So isses wohl, so wird's wohl sein!

Moment mal ... was ist das denn ? - das gibt's doch gar nicht ?? ...



Antwort von Skeptiker:


@skeptiker"

Finde leider kein "stay clear"
kannst Du mal ?n kleinen Screenshot machen ?

Du siehst es nur in Hi-Res! ;-)
Unterhalb der US-Flagge rechts - unten am Quaigeländer !

-> Gefunden?



Antwort von WoWu:

Ich lad mir morgen mal das RAW runter und schau nochmal genau.
Für heute muss ich raus.



Antwort von mash_gh4:


Ich lad mir morgen mal das RAW runter und schau nochmal genau.
Für heute muss ich raus.

das RAW alleine macht hier leider noch nicht den unterschied aus, sondern eine angemessen intelligente aufbereitung.

davon rede ich hier eh schon länger:
https://pixls.us/articles/rawtherapee-a ... xel-shift/

zum Bild https://pixls.us/articles/rawtherapee-a ... mbined.png



Antwort von WoWu:

Das hat sich sowieso erledigt, weil es kein RAW gibt, in dem (wie z.B) bei der K1 alle Einzelbilder individuell enthalten sind.
(jedenfalls habe ich auf der verlinkten Downloadseite der G9 nichts dergleichen gefunden).

Ohne die Einzelbilder ist aber eine individuelle Verarbeitung gar nicht möglich und ziemlich witzlos.

Der einzige Vorteil besteht also darin, dass durch die bessere Farbverarbeitung die Farbfehler, die im De-Bayerverfahren entstehen, etwas reduziert werden und dadurch (bei statischen Bildern) etwas mehr "Schärfe" entsteht, die oft mit höherer Auflösung verwechselt wird, in wirklichkeit aber die Grundauflösung ist und in schlechten Farbverarbeitung ein unschärferes Bild entsteht.
Wie immer darf man aber "Schärfe" nicht mit Auflösung verwechseln.
Aber weil sich das Teil ohnehin nicht für bewegte Objekte eignet, ist das Thema sowieso für mich durch.



Antwort von Olaf Kringel:


Der einzige Vorteil besteht also darin, dass durch die bessere Farbverarbeitung die Farbfehler, die im De-Bayerverfahren entstehen, etwas reduziert werden und dadurch (bei statischen Bildern) etwas mehr "Schärfe" entsteht, die oft mit höherer Auflösung verwechselt wird, in wirklichkeit aber die Grundauflösung ist und in schlechten Farbverarbeitung ein unschärferes Bild entsteht.
Wie immer darf man aber "Schärfe" nicht mit Auflösung verwechseln.

...wobei diese Theorie aber längst nicht klärt, warum sichtbare Mikrodetails aus dem "nichts" entstehen, denn wo nix ist, lässt sich ja bekanntlich auch nix schärfen.

Wenn mir jemand eine wave oder mp3 mit Meeresrauschen schickt und verlangt, das ich daraus eine Oper kreiere, geht das auch mit aktuellster software nicht und die kann schon so einiges...



Antwort von WoWu:

Bisher konntest Du aber auch "nix" zeigen.
Deine Pfeile zeigen nämlich keine neuen Details.
(siehe oben)



Antwort von Olaf Kringel:

...dann kauf Dir besser mal nen neuen Monitor.



Antwort von WoWu:

Schwachsinn ..



Antwort von Olaf Kringel:

...na klar ;)



Antwort von DeeZiD:

Im direkten Vergleich (von 80MP in Photoshop auf 5184x3888 runterskaliert) sieht man viele feine Details, die im niedrig aufloesendem Bild nicht vorhanden sind und die Debayering-Probleme sind restlos verschwunden.
ABER das Bild ist voll mit Bewegungsartifakten.

Toll ist anders und ich frage mich, ob ich mit einem besseren Debayering in ACR oder Rawtherapee nicht aehnlich gute Resultate ohne GhostingGhosting im Glossar erklärt erzielen kann - was ich im Augenblick leider noch nicht testen kann.



Antwort von Frank B.:


Riesenrad.png

...ich habe mal Pfeile reingekritzelt und beschriftet.

In die mit "Müll" bezeichneten Stellen kann er übrigens so stark reinzoomen wie er will, da sind keine Infos in den Pixeln enthalten, mit Hilfe derer eine software etwas sinnvolles "zaubern" könnte.

Evtl. sieht er ja die feinen Details nicht, aber ich sehe die auf 42" hier deutlich.

Also, ich will mich da nicht so festlegen. Einerseits sieht das Bild im Sensorshiftmodus wirklich besser aus. Die Öse glaube ich auch zu erkennen. Bei der Bohrung fällt es mir schon schwerer. Das könnte in meinen Augen alles andere auch sein. Eine Bohrung an dieser Stelle des Riesenrads, kann ich mir auch aus Stabilitätsgründen nicht so richtig vorstellen.
Was mir auffällt sind die Aliasingmuster in den unteren Teilen der Gondeln auf dem linken Bild. Das sieht eigentlich gar nicht wie ein 20MPx- Foto aus, sondern eher wie ein Standbild aus einem Video oder wie ein stark komprimiertes Foto. Sollte das echt ein 20 MPx Foto sein??? Dennoch bin ich auch bei Wowu, dass dort die Details auch schon zu sehen sind. Sie wirken halt auf dem 2. Bild schärfer abgegrenzt. Besonders bei den Strichlinien auf den Speichen des Riesenrads sieht man das gut. Die wirken auf dem linken Bild fast wie durchgehende Linien. Auch diese Aliasingmuster an den Gondeln sind nicht auf dem rechten Bild zu sehen.
Insgesamt bin ich doch recht unsicher in der Beurteilung dieses Sensorshift-Features. Ob der Nutzen am Ende wirklich so deutlich ist, wie uns diese Vergleichsfotos weismachen wollen.



Antwort von mash_gh4:

hier auch noch beispiele einer industriekamera, wo diese technik ein bisserl exzessiver genutzt wird:

zum Bild http://vitalvisiontechnology.com/wp-con ... /ROI-2.jpg

das abgebildete bsp stammt übrigens von einem 12 megapixel 4/3" sensor(!), womit es auch eine gewisse aussagekraft im hinblick auf jene begrenzungen durch reale objektive haben dürfte.



Antwort von Olaf Kringel:


Bei der Bohrung fällt es mir schon schwerer. Das könnte in meinen Augen alles andere auch sein. Eine Bohrung an dieser Stelle des Riesenrads, kann ich mir auch aus Stabilitätsgründen nicht so richtig vorstellen.

...diese gebohrten Bleche aus den vorherigen Beispielbildern sind an jedem Ausleger des Riesenrades angeschweißt und dienen der Hilfe beim Auf- bzw. Abbau.

Durch die Bohrungen kommen Schraubbolzen und an den Schäkelhaken werden dann Seile eingeklinkt.

Für den laufenden Betrieb haben die keinerlei Funktion.


Dennoch bin ich auch bei Wowu, dass dort die Details auch schon zu sehen sind.

...im 300% zoom sieht man besser, das dem nicht so ist:

Standard.pngshift.png

Keine software dieser Welt erkennt in den Graustufenpixeln der Standardaufnahme zwei Oesen, weil die farbliche Anordnung der pixel dies gar nicht zulässt.


Das sieht eigentlich gar nicht wie ein 20MPx- Foto aus, sondern eher wie ein Standbild aus einem Video oder wie ein stark komprimiertes Foto. Sollte das echt ein 20 MPx Foto sein???

...naja, auch die vorherigen Aufnahmen waren schon stark gezoomt, was soll man von 20 mpix erwarten?

Hier nochmal das Bild in Originalgröße:

gesamt.jpg

ich finde das passt schon.


Ob der Nutzen am Ende wirklich so deutlich ist, wie uns diese Vergleichsfotos weismachen wollen.

...ich finds auf jedenfall "ein nice to have" und bin von der Qualität recht beeindruckt.

@mash_gh4: um zu erkennen, das es sich in Deinem Beispiel um eine sechs (oder 8) handelt, brauchte ich nur meine Augen und keinen Algorithmus ;)

Wer hingegen in dem Riesenrad erkennt, das es sich bei den Graustufenpixeln der Standardaufnahme um zwei Oesen handelt, sollte sich als Hellseher selbständig machen...



Antwort von mash_gh4:


@mash_gh4: um zu erkennen, das es sich in Deinem Beispiel um eine sechs (oder 8) handelt, brauchte ich nur meine Augen und keinen Algorithmus ;)

naja -- ich find's hauptsächlich deshalb spannend, weil man an diesem bsp. die auswirkungen des bayer patterns auf die kantenauflösung sehr deutlich sieht... aber das ist natürlich auch wieder sehr stark von der eingesetzten raw-aufbereitungssoftware abhängig.



Antwort von WoWu:

Für alle, die noch nicht glauben, dass das mit SR Algorithmen gemacht ist, - (wie oben beschrieben)- könnten sich dieses (oder ein beliebig anderes) Tutorial mal anschauen oder es mit der eigenen Kamera und Photoshop selber machen.
Die Kamera kann nicht zaubern, sondern nur rechnen.

https://youtu.be/o7POpid-e8U



Antwort von mash_gh4:

unter "superresolution" wird halt eine ganze menge an verschiedenen ansätzen angesprochen...

die variante, um die es hier geht, unterscheidet sich in ganz wesentlichen punkten ("Besonderheit: kein Raten, Rekonstruktion") doch recht deutlich von anderen ansätzen, die man gemeinhin eher mit diesem begriff in verbindung bingt...

siehe s. 3 u. 14ff in: https://www.informatik.hu-berlin.de/de/ ... o10_15.pdf



Antwort von Olaf Kringel:

@mash_gh4: was dort steht, deckt sich ja auch mit den Bildergebnissen, denn die zusätzlichen Details sehen alles andere als "erraten" aus.

@WoWu: was ich nicht verstehe, ist Deine Aussage:

Erst wenn man genau hinschaut, sieht man, dass das andere Bild, obwohl unschärfer, sehr viel mehr Bilddetails enthält.

Die 300% Vergrößerung beweist doch, daß das nicht stimmt:

300%.jpg

Hier wurden in der shift Aufnahme durch die acht versetzten Aufnahmen Details rekonstruiert, welche in der Standardaufnahme schlicht nicht zu erkennen sind.

Es sind ja nicht nur die Oesen, sondern z.B. auch das Versorgungskabel, welches zur linken Kabine geführt wird und und und...

Ob die Technik jetzt Super-Resolution, Lutz oder Peter heißt ist mir persönlich dabei ehrlich gesagt vollkommen egal, solange das Ergebnis stimmt.

Gut, wer überwiegend Sport, action oder wildlife fotografiert, wird sich vermutlich für dieses feature nicht sonderlich interessieren.

Für stills (Landschaft, Architektur, Produktfotografie, Kunst etc.) sieht das dann aber schon wieder ganz anders aus.

Eine schöne Landschaftsaufnahme als Fototapete drucken zu können, ist doch z.B. gar nicht so schlecht :)



Antwort von WoWu:

Von "erraten" hat außer Dir auch keiner gesprochen sondern von SR Algorithmen und Nachschärfung.
Daher mal für Teilnehmer, wie Dich, die sich unter SR bisher offensichtlich nichts vorstellen konnten, das "Schülerbeispiel".
Ich würde es auch mal als die simpelste Form von SR bezeichnen, aber für die Zweifler und Spekulanten. hier, vielleicht der einfachste Einstieg, zumal die Symptome absolut identisch sind mit der hier besprochenen Kamera.

Resümiert man das Ganze, ist es in der Tat eigentlich nur ein "Ausbügeln" des ziemlich miesen DeBayering Verfahrens.
Und, was auch anhand des Beispiels nachvollzogen werden kann, ist der Umstand der Kantenschärfung, denn das Ansammeln hochfrequenter Bildanteile bringt das Schärfeempfinden noch nicht mit sich, erst wenn die Kontraste an den Kanten angehoben werden, kommt der Effekt.
Siehe Tutorial.
Kameras mit anderen Abtastverfahren könnten aber deutlich besser aussehen.

Ich hab das bewusst einfache Beispiel auch nur für die gepostet, die erst mal in das Tema einsteigen wollen, denn bisher existiert hier im Forum noch fast Null Verständnis, wo Auflösung aufhört und Schärfe als reinerEindruck anfängt.
Außerdem kann das dann mal jeder an seinem Equipment nachvollziehen, was mit höheren SRAlgorothmen nicht so ohne weiteres zu machen ist.

Mir kommt es nur darauf an, dass man das Thema am richtigen Schopf fasst und nicht an irgendwelchen Auflösungen rumdiskutiert.
Das, was die Kameta macht ist künstliche Schärfe und keine Auflösung denn neue optische Elememte treten nicht auf. Es werden lediglich die (teilweise) sichtbar gemacht, die das unsägliche Bayerverfahren zermatscht hat.
Es werden also nicht mehr Detail sondern nur differenzierbare Detail, denn die Menge der Details ergibt sich aus der optischen Auflösung und nicht aus der Pixelmatrix.
Das sollte sich mittlerweile rumgesprochen haben und wenn nicht, dann empfehle ich das Yedlin Demo.



Antwort von Olaf Kringel:

Das "erraten" bezog sich auf S.14 der PDF von mash_gh4.



Antwort von WoWu:

Wenn man die Tiefe von hochwertigen SRAs betrachtet, wäre die Bezeichnung nicht mal so verkehrt, weil z.Tl. Elemente aus Library’s eingesetzt werden (Patches), die der Algorithmus für richtig hält, also errät, bzw. aus seiner KI gelernt hat, was aber nicht zwangsläufig stimmen muss.

Insofern hat der Verfasser nicht unrecht, es trifft aber eben in diesem sehr einfachen Verfahren nicht zu.



Antwort von Skeptiker:

Hier kommt schon der nächste mit Sensor-Shift in minimalen Schritten zwecks Bildverbesserung:

Sony a7R III PixelPixel im Glossar erklärt Shift lifts a veil off your landscapes

Sony a/R III entfernt einen Schleier von Ihren Landschaftsbildern


https://www.dpreview.com/news/564575561 ... landscapes

Zitat:
"... Cameras with sensor-shift mechanisms (das wären die mit In-Kamera-Sensor-Bildstabilisierung) are increasingly offering these pixel shift modes by precisely moving the sensor in one pixel increments to sample each color at every position, thereby overcoming the downsides of the Bayer filter array. And getting you sharper images with less moiré, with potentially less noise thanks to multi-sampling and less math required to figure out the R, G and B colors at each pixel. ..."



Antwort von mash_gh4:

ja, die a7r III macht in der tat genau das selbe.

dem entsprechenden werbevideo kann man gegen ende wenigstens auch entnehmen, wie zu den etwas verwirrenden auflösungsangaben kommt:

https://www.youtube.com/watch?v=6-811lVi0Qc



Antwort von WoWu:

Das ist der neue Marketingtrick, auf den die Anwender wieder reinfallen sollen.

Wenn ein Objektiv ein Bilddetail auf einen Sensorpixel projizierte, dann kann ich mit noch so vielen andern Sensorpixels darüber fahren denn wenn ich sie hinterher wieder übereinander lege, bleibt es ein einziges Bilddetail und nur das bestimmt die Bildauflösung und nicht die Menge der Pixels, die sich um das einzelne Bilddetail kümmern.
Bei Binning werden ja auch nicht die 4-16 fache Bildauflösung angegeben und bei 3-chip Kameras auch nicht die 3-fache Auflösung.
Hier werden mal wieder Anwender verarscht.... und fallen auch prompt darauf rein.
Von der Unverwendbarkeit für Video (Bewegung) gar nicht erst zu reden.



Antwort von Olaf Kringel:

...naja,

also der Gewinn an Bilddetails, welche durch diese Technik rekonstruiert werden und in den Standardaufnahmen nicht vorhanden sind, ist ja schon signifikant wie wir gesehen haben.

Verarsche, ist für mich etwas anderes.



Antwort von WoWu:

Ja, weil Dir vorher nicht klar war, was das Bayerverfahren für ein Schrott ist.
Aber verarscht wurde man schon dadurch, das Anwender die MPix des Sensors als Auflösung gekauft haben und jetzt lassen sie sich auch noch die Mehrfachverwendung derselben Pixels aus Auflösung verkaufen.
Wie blöd sind Anwender eigentlich noch ?



Antwort von Frank B.:

Vielleicht ist das Ganze mit der Auflösung nur ein Sprachproblem. Die phyikalische Auflösung scheint mir etwas anders zu sein als das, was wir im allgemeinen Sprachgebrauch darunter verstehen. Im physikalischen Bereich wird die Auflösung durch die Anzahl der Sensel bestimmt. Wenn nun zwei nebeneinanderliegende Sensel die gleiche Farbe bekommen, haben sie dennoch eine Auflösung von 2 Senseln. Wenn eine genauere Farbdifferenzierung geschieht, z.B. ein Sensel blau und eins grün belichtet wird, dann erscheint uns das Bild schärfer, obwohl die Auflösung gleich geblieben ist. Dieses Pixelshift-Verfahren hier, scheint einfach diese Farbdifferenzierung besser hinzubekommen als eine einfache Ablichtung auf dem Bayersensor. Die physikalische Auflösung ist freilich die gleiche, aber eben nicht die farbliche Darstellung. Auflösung im umgangssprachlichen Gebrauch meint eine deutlichere Trennung von Strukturen. Von daher schätze ich mal, entstehen viele Missverständnisse zwischen dem Physiker Wowu und vielen anderen, die hier einen Darstellungsgewinn sehen. Vielleicht sollte man das Ergebnis nicht Auflösungsgewinn, sondern Farbdifferenzierungsgewinn nennen.
Wobei es im Endergebnis, unabhängig davon, wie es korrekt oder unkorrekt benannt wird, eine Verbesserung des Bildes gibt. Das Ganze hat seine Grenzen, sobald Bewegungen im Bild auftreten. Dann tritt genau das Gegenteil ein. Das Bild verliert Detailtreue.

So mein laienhafter Eindruck.

Was heißt das in der Konsequenz für mich persönlich? Wie wichtig ist dieses Feature für mich? Ich glaube, das muss jeder selbst für sich beurteilen. Es wird abhängig sein, von den Anwendungsbereichen. In der Kunstfotografie, die ich oft mache, kann ich es mir gut vorstellen. Manchmal scheitert es aber an ganz anderen Sachen, die für dieses Verfahren zwar notwendig sind, aber zu großen Teilen nicht umsetzbar sind, wie eben, dass sich doch etwas bewegt durch Erschütterungen z.B. oder dass man bei der Fotografie bestimmter Kunstobjekte kein Stativ stellen darf.



Antwort von WoWu:

Das Hauptmissverständnis ist, dass ich als Auflösung Bilddetails verstehe und die meisten hier die Menge der Pixels, die zur Übertragung verwandt werden.
Der Hauptdenkfehler besteht bei vielen Anwendern darin ist, dass Auflösung zunächst mal durch das Objektiv bestimmt wird, nämlich der optischen Umsetzung auf eine Matrix.
Dahinter ist es dann nämlich egal, wieviel MPix zusätzlich benutzt werden.
Sie erhöhen die Auflösung nicht.



Antwort von Frank B.:

Ja, das wird wohl stimmen. Dennoch bringt das Verfahren etwas in der Farbdifferenzierung.



Antwort von WoWu:

Nur zum Teil, denn bei dem Verfahren wird der Hauptanteil der Schärfe mit der Kantenschärfung, also mit der Dynamikreduzierung des Bildes gemacht,( siehe auch Tutorial) insofern tauscht man einen negativen Effekt gegen einen andern.



Antwort von Frank B.:


Nur zum Teil, denn bei dem Verfahren wird der Hauptanteil der Schärfe mit der Kantenschärfung, also mit der Dynamikreduzierung des Bildes gemacht,( siehe auch Tutorial) insofern tauscht man einen negativen Effekt gegen einen andern.

Das kann ich nicht beurteilen, wie stark das negativ wirkt. Physikalisch betrachtet wirst du Recht haben, wie so oft. Aber das Entscheidende für viele ist doch, dass das Bild "angenehmer und schärfer" wirkt. Und ich glaube auch nicht, dass man das Verfahren in Kameras einbauen würde, wenn man diese Qualität eben mit einer einfachen Kantenaufsteilung hinbekäme. Ich glaub schon und meine es auch zu sehen, dass die Strukturen eben auch durch eine bessere Farbdifferenzierung sichtbar werden. Man kann ja auch nur aufsteilen, was da ist.



Antwort von WoWu:

Wenn man mal von den ganzen Nebenwirkungen im Bewegtbilder absieht, magst Du Recht haben.
Was bleibt, ist der Übergang der Industrie ... weg vom 3Chip, hin zum billigeren 1 Chip und die Notwendigkeit, hinterher dann einen Nachteil gegen den Andern auszutauschen.
Dafür dampft man dann knalliges 4K auf den Karton und lässt den Benutzer einfach etwas glauben, was nicht stimmt.

Aber einen Vorteil hat das Verfahren ... durch die Diskussion wird etwas transparent, vor dem Viele lange die Augen verschlossen haben.



Antwort von cantsin:


Aber einen Vorteil hat das Verfahren ... durch die Diskussion wird etwas transparent, vor dem Viele lange die Augen verschlossen haben.

Wobei, um zum Ausgangsthema zurückzukommen, die "80MP", die da für die G9 beworben werden, eine ziemliche Mogelpackung bleiben und die anfängliche Diagnose stimmt, dass sie wohl vor allem ein Marketingargument sind, um Landschaftsfotografen nicht an praktisch gleichteure (z.T. sogar preiswertere) Full Frame-Kameras zu verlieren.

Jetzt würde mich noch interessieren, ob das Verfahren der G9 relevante bildqualitative Vorteile hat ggü. dem, das in dem von Dir verlinkten YouTube-Video beschrieben wird (d.h. dem Schießen einer Bilderserie aus der Hand mit jeder beliebigen Kamera und dem anschließenden Zusammen- und Hochrechnen in Photoshop).



Antwort von Olaf Kringel:


Man kann ja auch nur aufsteilen, was da ist.

...genau das ist doch des Pudels Kern.

Wenn man sich einmal die Standardaufnahme anschaut, sind da doch gar keine Konturen zum aufsteilen vorhanden.



Antwort von Olaf Kringel:


Jetzt würde mich noch interessieren, ob das Verfahren der G9 relevante bildqualitative Vorteile hat ggü. dem, das in dem von Dir verlinkten YouTube-Video beschrieben wird (d.h. dem Schießen einer Bilderserie aus der Hand mit jeder beliebigen Kamera und dem anschließenden Zusammen- und Hochrechnen in Photoshop).

...ich stecke zwar nicht annähernd so tief in der Materie wie WoWu, aber das man durch eine exakt kontrollierte Sensorverschiebung im Pixelbereich innerhalb der cam besseres Ausgangsmaterial generiert, als durch eine Bilderserie welche aus der Hüfte geschossen wird, kann ich mir schon sehr gut vorstellen.



Antwort von Olaf Kringel:


Wobei, um zum Ausgangsthema zurückzukommen, die "80MP", die da für die G9 beworben werden, eine ziemliche Mogelpackung bleiben und die anfängliche Diagnose stimmt, dass sie wohl vor allem ein Marketingargument sind, um Landschaftsfotografen nicht an praktisch gleichteure (z.T. sogar preiswertere) Full Frame-Kameras zu verlieren.

naja,

dann verkaufen aber viele "Mogelpackungen"!

Wenn man sich mal die p-mpix Werte bei dxomark anschaut, sieht man ja ziemlich schnell, wo aktuelle Optiken ihre Grenzen haben.

Wer eine 46mpix kleinbild kauft und glaubt, das die zu 100% nativ vom Glas bedient werden, ist doch genauso veräppelt, gell? ;)



Antwort von cantsin:


Wer eine 46mpix kleinbild kauft und glaubt, das die zu 100% nativ vom Glas bedient werden, ist doch genauso veräppelt, gell? ;)

Um bei Deinem DxO-Mark-Beispiel zu bleiben: Man kann sich (nur zum Beispiel und unter anderem...) auch einen Sony A7-Body mit 24 Sensor-MPix und ein Sony-Zeiss 55mm/1.8 kaufen, das laut DxO 29MP auflöst, und bezahlt dann für diese Kombination genauso viel wie für einen G9-Body.

Und wenn die G9 ungefähr die gleiche Bildqualität liefert wie die GH5 (deren Sensor) sie verwendet, sieht der Vergleich so aus:
https://www.dxomark.com/Cameras/Compare ... __1149_916

Wobei ja durchaus andere Faktoren für die G9 sprechen wie z.B. die hohe Serienbildgeschwindigkeit, die bei Sony erst die A9 für den dreifachen Preis der G9 liefert, sowie die Sensorstabilisierung. Nur dass die sich eben beim Marketing nicht so gut verkaufen lassen wie "80 MP".



Antwort von WoWu:

@cantsin

Ich könnte mir vorstellen, das Panasonic die Algorithmen besser optimiert hat. Zudem sie ja auch weniger Einzelbilder machen.
Mich nervt nur, dass selbst hier, in einem Forum, das genügend Fachwissen hat, immernoch auf solche Taschenspielertricks der Industrie hereingefallen wird und noch nicht mal zwischen Auflösung und Schärfe unterschieden werden kann.

@Olaf

Es gibt keinen Grund, irgendwelchen Tests zu glauben, solange nicht nachvollziehbar ist, wie sie entstanden sind und das Auflösungsvermögen eines Objektivs ist sehr genau anhand der Daten nachzuvollziehen.
Anhand der Sensordaten und des Abtast- und Wandlumgsverfahrens kann man dann ziemlich genau bestimmen, was hinterher noch an Bildqualität übrig bleibt.

Und was die Aufsteilbarkeit von Kanten betrifft, da würdest Du Dich wundern, was alles in Algorithmen aufgestellt wird ... das muss nicht unbedingt im Bild vorhanden sein ... schau Dir nur mal die Google Bilder an, die mit solchen Algorithmen arbeiten. Da sind plötzlich Fenster wieder in Häusern sichtbar, die vom Licht völlig überstrahlt waren und andere Dinge.
Es muss ja nicht bei so einfachen Algorithmen bleiben. Je tiefer sie gehen, umso mehr wird gefaked.
Die Frage, die man sich dann nur stellen muss ist die, ob man eine Reproduktion der (optischen) Wirklichkeit einem scharfen, aber nicht der Wirklichkeit entsprechendem Bild vorzieht.



Antwort von Olaf Kringel:


Die Frage, die man sich dann nur stellen muss ist die, ob man eine Reproduktion der (optischen) Wirklichkeit einem scharfen, aber nicht der Wirklichkeit entsprechendem Bild vorzieht.

...hä?

300%.jpg

wieso entspricht das scharfe Bild nicht der Wirklichkeit?

Die Oesen und Kabel sehen nun mal real so aus wie in der shift Aufnahme dargestellt, wo ist das Problem?



Antwort von WoWu:

Ich spreche von dem, unmittelbar davor angeführten Beispiel.
Es wäre also nett, würdest Du nicht Teile aus ihrem Zusammenhang reißen und damit Versuchen, künstlich Widersprüche herzustellen.



Antwort von Olaf Kringel:


Und wenn die G9 ungefähr die gleiche Bildqualität liefert wie die GH5 (deren Sensor) sie verwendet, sieht der Vergleich so aus:
https://www.dxomark.com/Cameras/Compare ... __1149_916

...in Punkto dr und iso soll die g9 gegenüber der gh5 ja noch ein schüppchen drauflegen.

momentan also alles reine spekulation.



Antwort von Skeptiker:


... Es muss ja nicht bei so einfachen Algorithmen bleiben. Je tiefer sie gehen, umso mehr wird gefaked.
Die Frage, die man sich dann nur stellen muss ist die, ob man eine Reproduktion der (optischen) Wirklichkeit einem scharfen, aber nicht der Wirklichkeit entsprechendem Bild vorzieht.

Dazu nochmals ein Link auf dpreview.com:

Hier

AI-based upsampling tech creates high-res versions of low-res images
Published Nov 1, 2017

https://www.dpreview.com/news/284258599 ... res-images

wird das Thema kurz angesprochen und dann auf Folgendes verwiesen:

Research Paper Link:
Angegegebener Link ist leider falsch

Download PDF (der Link ist ok):
EnhanceNet - Single Image Super-Resolution Through Automated Texture Synthesis (Max Planck Institute for Intelligent Systems, Tübingen, DE)
https://arxiv.org/pdf/1612.07919.pdf

In den Kommentaren unter dem dpreview-Artikel wird teils darauf hingewiesen, dass hierbei rekonstruierte Details auftauchen (können), die im Original gar nicht vorhanden sind.



Antwort von WoWu:

Streng genommen sind wir bereits seit 4K inmitten dieser Diskussion, weil Auflösungen dieser Größenordnung optisch kaum mehr wirtschaftlich darzustellen sind und Kameras, speziell im unteren Preissegment, eigentlich schon eine ganze Weile mehr fakten als darstellen.
Deswegen ist es ja nur positiv, dass dieses Thema mal auf den Tisch kommt, um vereinzelte antiquierte Ansichten auch mal grade zu rücken.
Damit verbunden ist aber auch die ewige Diskussion um Bilddynamik, denn die wird ebenfalls erheblich beeinflusst durch solche Rechenoperationen.
Die Frage ist also, wann machen solche Knopflinsen mit einem Algorithmusschwanz aus Telefonen die Kameras und Objektive eigentlich überflüssig?
Man muss kein Hellseher sein, um das ziemlich schnell kommen zu sehen.



Antwort von cantsin:

Was ich mich eher frage: Warum gibt's eigentlich keine halbwegs nutzerfreundlichen Superresolution-Funktionen bzw. Plugins für normale NLEs und Software wie Resolve? (Avisynth hat schon seit Jahren so eine Funktion an Bord, wohl auch in hoher Qualität, aber quälend langsam, da ohne GPU- und Multicore-Unterstützung und nur in 32 Bit-Code.)

Z.B. müsste sich das Raw-Material, das aus Blackmagic- und gehackten Canon-Kameras kommt, wegen seiner fehlenden KompressionKompression im Glossar erklärt bzw. hohen Information doch perfekt für SR-Upscaling bzw. -Bildverbesserung eignen.



Antwort von mash_gh4:


In den Kommentaren unter dem dpreview-Artikel wird teils darauf hingewiesen, dass hierbei rekonstruierte Details auftauchen (können), die im Original gar nicht vorhanden sind.

ja -- und die bilder im angesprochnen paper belegen das ohnehin ausgesprochen nachvollziehbar. trotzdem geht es im betreffenden fall um eine ganz andere klasse von superresolution-ansätzen. mit den hier zu debatte stehenden techniken hat das nicht viel gemeinsam.

im gegenständlichen fall wird eben nicht aus irgendwelchen statistischen häufungen bzw. empririsch erlernten zusammenhängen induktiv auf plausible ergänzende muster geschlossen, sondern tatsächlich vorhandene information mehrerer teilaufnahmen sinnvoll zu einem bild von höherer gesamtauflösung zusammengesetzt .

eigentlich ist das auch eine derart einfache aufgabenstellung, dass sie von den meisten zeitgenossen auch ohne übermäßige wunder-, wissenschafts- oder autoritätsgläubigkeit bzw. fremde anleitung nachvollzogen werden können sollte. aber natürlich kann sich das ein bisserl schwieriger gestalten, wenn die allseits bekannten demagogen wiedereinmal ihr bestes tun, um derartige aufklärung zu be-/verhindern. ;)



Antwort von Olaf Kringel:


Man kann sich (nur zum Beispiel und unter anderem...) auch einen Sony A7-Body mit 24 Sensor-MPix und ein Sony-Zeiss 55mm/1.8 kaufen, das laut DxO 29MP auflöst, und bezahlt dann für diese Kombination genauso viel wie für einen G9-Body

...werden denn in Deinem Beispiel dann die 24 mpix der A7 auch wirklich als nackte "real" information auf die Speicherkarte geschrieben, oder ist eine raw datei gar nicht so raw wie viele meinen, weil diese bereits zahlreiche kamerainterne verschlimmbesserungen enthält?



Antwort von WoWu:

@cantsin

Das ist eine wirklich berechtigte Frage, über dessen Antwort man nur spekulieren kann ...
Ist das vielleicht wie mit dem Reißverschluss und den Druckknöpfen ?
Eine ganzer Industriezweig würde ziemlichen Einbruch erleiden.
Aber die Diskussion, solche Algorithmen zum up-scaling zu benutzen sind in der TV Industrie ja schon weit fortgeschritten.
Wozu dann noch in NLEs ?
Kein Broadcaster wird oberhalb von HD zukünftig seine DatenrateDatenrate im Glossar erklärt verschwenden, wenn solche Algorithmen von jedem TV beherrscht werden.
Aber da gibt es ja auch genügend Weltfremdheit unter den Anwesenden, die sowas nicht wahr haben wollen ... Nun ja, als ich hier eingestiegen bin, haben die Meisten hier H.264 für utopisches Zeug gehalten...
Warum sollte das nun anders sein.
Aber solche abgesetzten Algorithmen würde ich mir in NLEs auch gut vorstellen können.
(solche, wie hier besprochen aber eher wegen der geringen Bewegungseignung, eher nicht).
Fraglich, warum kein Anbieter darauf eingeht.
Aber wenigstens sind wir mit dieser Diskussion einen kleinen Schritt weiter nach Vorn gekommen ....

@mash
...die Zweifler und ewig Gestrigen wird es noch lange geben.
Die Zeit wird es zeigen.



Antwort von Skeptiker:


... im gegenständlichen fall wird eben nicht aus irgendwelchen statistischen häufungen bzw. empririsch erlernten zusammenhängen induktiv auf plausible ergänzende muster geschlossen, sondern tatsächlich vorhandene information mehrerer teilaufnahmen sinnvoll zu einem bild von höherer gesamtauflösung zusammengesetzt ...

Da hast Du natürlich recht!

Das sind wirklich zwei Paar Rechen-Schuhe.

Im einen Fall geht's um das Vergössern (Upsampling) eines einzelnen Bildes (möglichst) ohne Qualitätsverlust, indem man auf Erfahrungswerte (Datenbanken) zurückgreift und so fehlende Bildteile/-infomationen ergänzt - das kann funktionieren, muss es aber nicht in jedem konkreten Fall (siehe die Bildbeispiele).

In unserem Fall geht es um das Zusammenrechnen von mehreren, unbewegten(!) Einzelbildern aus einem minimalen Verschiebungsraster zu einem verbesserten Gesamtbild (weniger Rauschen, weniger Moireé, mehr erkennbare Details).



Antwort von Funless:

Also ich als Laie verstehe ehrlich gesagt nicht wie mehr Bilddetails herausgeholt werden sollen bloß weil der Sensor (bildlich ausgedrückt) über die Fläche des Objektivs entlangfährt. Man möge mir verzeihen aber mir erscheint es irgendwie unlogisch.



Antwort von Olaf Kringel:


Also ich als Laie verstehe ehrlich gesagt nicht wie mehr Bilddetails herausgeholt werden sollen bloß weil der Sensor (bildlich ausgedrückt) über die Fläche des Objektivs entlangfährt. Man möge mir verzeihen aber mir erscheint es irgendwie unlogisch.

...natürlich wird man Dir verzeihen, aber unlogisch ist es dennoch nicht.

Schau mal hier:

300%.jpg

Bilder sagen oftmals mehr als tausend Worte und das Video von mash_gh4 erklärt das Bildergebnis sogar kindgerecht:

https://youtu.be/6-811lVi0Qc?t=63



Antwort von Skeptiker:


Also ich als Laie verstehe ehrlich gesagt nicht wie mehr Bilddetails herausgeholt werden sollen bloß weil der Sensor (bildlich ausgedrückt) über die Fläche des Objektivs entlangfährt. ...

Ich bin ja auch kein Spezialist auf dem Gebiet, aber versuche es mal:

Das liegt daran, dass ein Einzelbild nicht die vollständige Information enthält, die eigentlich drinsteckt.

Der Grund ist die Art, wie die lichtempfindlichen Sensorzellen die Farbinformation gewinnen, nämlich durch einen vorgelagerten Farbfilter mit RGB-Farbmuster, den Bayer-Filter. Der wurde nicht etwa in Bayern entdeckt, sondern vom US-Erfinder und Kodak-Mitarbeiter Bryce E. Bayer erfunden.

Dieser Filter ist also einerseits nötig und andererseits eher hinderlich.

Durch Kombination mehrerer minimal verschobener Bilder mit minimal unterschiedlichem Informationsgehalt und Verrechnung zu einem deckungsgleichen Gesamtbild kann die Bildinformation komplettiert und das Ergebnis-Bild verbessert werden.
Da dies Zeit benötigt (mehrere Bilder müssen ja gewonnen und miteinander verrechnet werden), dürfen sich währenddessen weder Kamera noch Objekt bewegen.

https://de.wikipedia.org/wiki/Bayer-Sensor

Zitat:
"",,, Die lichtempfindlichen Zellen einer einzelnen Fotozelle auf dem Halbleiter können nur Helligkeitswerte erfassen. Um Farbinformationen zu erhalten, wird vor jeder einzelnen Zelle ein winziger Farbfilter in einer der drei Grundfarben Rot, Grün oder Blau aufgebracht. ...""



Antwort von WoWu:

@Funless

Es sind auch nicht mehr Details, die dabei entstehen.
Da ist Dein Verständnis völlig richtig.
Es sind zwei Dinge
1) eine bessere Farbdeckung., da Farbe real in RGBRGB im Glossar erklärt gewonnen und nicht aus Nachbarpixels interpoliert werden.
2) eine Kantenschärfung auf Kosten der Bilddynamik, weil an Kanten der Kontrast erhöht wird, zulasten von Helligkeitsnuancen.
Es entstehen also nicht mehr Details sondern die vorhandenen Details werden besser abgegrenzt durch bessere Farbdeckung und Kontrasterhöhung.

Ich hätte oben schon gesagt ... wenn ein Objektiv ein Bilddetail auf einem PixelPixel im Glossar erklärt abbildet, dann kann man da mit beliebig vielen Pixels drüber fahren, wenn man die Werte anschließend zur Deckung bringt, ist das wieder nur ein Bilddetail.



Antwort von Olaf Kringel:


Es entstehen also nicht mehr Details sondern die vorhandenen Details werden besser abgegrenzt durch bessere Farbdeckung und Kontrasterhöhung.

...finde ich gut,

weil man die Details dadurch "sehen" kann.

Ist ja für "Bilder" nicht ganz unwichtig.



Antwort von WoWu:

Wobei das angeschärfte Bild an Inhalt pro PixelPixel im Glossar erklärt verliert.
Im Originalbild stecken deutlich mehr Pixelinformationen, als im angeschärften Bild.
Ich habe gar nichts dagegen, eine bessere Farbverarbeitung durchzuführen, z.B. in 3 oder 4 Chip Kameras, oder über Binningmethoden und damit habe ich nichts gegen gute Bilder, mit erkennbarer Detailgüte.
Nur wenn eine KanteKante im Glossar erklärt keinen Schattenraum mehr hat und ich die halbe Dynamk wegschmeiße, nur weil ich die wirtschaftlichen Einsparungen von Billigverfahren kompensieren muss, (und dazu noch den Murx der Geisterbilder bekomme) dann verzichte ich lieber auf etwas Nachschärfung, die bei manchen Kameras schon an Karikaturaufnahme grenzt.
Also, den Spruch würde ich nicht so unterschreiben.



Antwort von Olaf Kringel:


Wobei das angeschärfte Bild an Inhalt pro PixelPixel im Glossar erklärt verliert.
Im Originalbild stecken deutlich mehr Pixelinformationen, als im angeschärften Bild.
Ich habe gar nichts dagegen, eine bessere Farbverarbeitung durchzuführen, z.B. in 3 oder 4 Chip Kameras, oder über Binningmethoden und damit habe ich nichts gegen gute Bilder, mit erkennbarer Detailgüte.
Nur wenn eine KanteKante im Glossar erklärt keinen Schattenraum mehr hat und ich die halbe Dynamk wegschmeiße, nur weil ich die wirtschaftlichen Einsparungen von Billigverfahren kompensieren muss, (und dazu noch den Murx der Geisterbilder bekomme) dann verzichte ich lieber auf etwas Nachschärfung, die bei manchen Kameras schon an Karikaturaufnahme grenzt.
Also, den Spruch würde ich nicht so unterschreiben.

...sorry,

aber WYSIWYG.

PS: so sehen es die Kunden leider auch.



Antwort von WoWu:

Das ist mit schon klar, dass die meisten Verbraucher das knackscharfe Bild als das Bessere verstehen, nur wenn dieselben Verbraucher sich dann über Cinematographie unterhalten, werden sie selbst zur Karikatur.



Antwort von Olaf Kringel:


Das ist mit schon klar, dass die meisten Verbraucher das knackscharfe Bild als das Bessere verstehen, nur wenn dieselben Verbraucher sich dann über Cinematographie unterhalten, werden sie selbst zur Karikatur.

...es geht hier aber doch nicht um "Knackschärfe", sondern vielmehr darum, das man in den shift Aufnahmen wesentliche "real" Details erkennen kann.



Antwort von WoWu:

Wir drehen uns im Kreis.
Wer Schärfe und es preiswert will, soll das Bild so nacharbeiten, wer gute Bilder will, wird das optisch lösen.
Nicht umsonst gibt es andere Kameras, als solche Fotoapparate.
Für Video scheidet so ein Teil ohnehin aus.

Daher haben wir unterschiedliche Approaches.



Antwort von Frank B.:


Für Video scheidet so ein Teil ohnehin aus.

Ja, genau. Dazu noch bei Motiven, in denen sich was bewegt und bei statischen Motiven, bei denen man kein Stativ einsetzen kann. Alles in allem sehr viele Einschränkungen.
Diejenigen, die die verbleibenden Möglichkeiten überdurchschnittlich nutzen, werden sich sowieso eher kein MFT-System zulegen. Also, die Interessenten für dieses Feature in dieser Kamera werden eher überschaubar bleiben, denke ich.



Antwort von cantsin:


Also, die Interessenten für dieses Feature in dieser Kamera werden eher überschaubar bleiben, denke ich.

Ja - aber, um mich gebetsmühlenhaft zu wiederholen, es geht hier vor allem um knallige Schlagzeilen beim Produktmarketing:
Capture.PNG



Antwort von Funless:

Zuerst vielen Dank für Eure Antworten und Erklärungen.

@Olaf:

Wenn ich mir dieses oben gezeigte Beispielbild anschaue dann sehe ich sowohl links, als auch rechts nicht verwertbaren Pixelmatsch. Links gröbere PixelPixel im Glossar erklärt und rechts weichere, letztendlich aber Pixelmatsch den ich weder an die Wand hängen, noch in sonst einer Weise darstellen wollen würde. Vielleicht habe ich ja auch nur schlechte Augen, wer weiß. Jedoch stellt sich mir als nächste Frage, welcher User ein Foto auf 300% Vergrößerung zu verwerten gedenkt und selbst wenn (solche Anwendungsfälle gibt es bestimmt) sollte das Ergebnis aus meiner persönlichen Sicht doch (weitaus) besser aussehen als das oben gezeigte und dann würde ich eher zu einer Mittel- oder Vollformat Kamera mit Objektiven der entsprechenden Güte greifen. Ich persönliche sehe in diesem speziellen beworbenen Feature der G9 keinen besonderen Mehrwert.

WoWus Erklärung erscheint mir da logischer (wie gesagt bin absoluter Laie), was vielleicht auch daran liegt, dass ich in der Softwarebranche beheimatet bin und ich womöglich ein anderes Verständnis bzgl. Auflösung und reale (oder anders ausgedrückt: absolute) Bilddetails habe als andere hier, das kann gut sein. Ich persönlich stimme da eher cantsin zu, dass es sich in diesem Fall eher um Marketing handelt.

Nichtsdestotrotz eine interessante Diskussion.

Just my 5 Cents.



Antwort von Frank B.:

Ich wills mal so sagen, wenn wie mal bedenken, von welcher Vergrößerung wir hier reden (bitte mal das Originalbild im 1:1 Maßstab beachten) und dann betrachten, dass wir in einer 300-fachen Vergrößerung Ösen an dem Riesenrad erkennen, dann jammern wir hier alle auf einem sehr hohen Niveau. Ich könnte die wahrscheinlich mit bloßem Auge nicht erkennen, wenn ich direkt unter dem Riesenrad stehe.



Antwort von gunman:

Für Video scheidet so ein Teil ohnehin aus.

Da stehst Du aber ziemlich alleine da mit solch einer Aussage !



Antwort von Frank B.:

Gemeint ist hier das Feature des Pixelshiftings. Ansonsten kann die Kamera natürlich wie viele andere auch zum Filmen genommen werden. Eben nur ohne das Feature. Das funktioniert nur bei Standbildern. So wars gemeint und darin sind sich, glaub ich, alle recht einig.



Antwort von Olaf Kringel:


Wenn ich mir dieses oben gezeigte Beispielbild anschaue dann sehe ich sowohl links, als auch rechts nicht verwertbaren Pixelmatsch.

...naja,

um die Kabel und Oesen in der shift Aufnahme nicht zu erkennen, muss man aber schon sehr schlechte Augen haben.

Jedoch stellt sich mir als nächste Frage, welcher User ein Foto auf 300% Vergrößerung zu verwerten gedenkt

...gibt genug Lupendödel, die das richtig abfeiern werden.

Mir persönlich reichen mittlerweile die 12mpix einer A7S (II) für schöne Drucke bis DIN A3 völlig aus, aber heut zu Tage müssen es ja immer phantastilliarden mpixel sein, sonst ist man ja kein richtiger Fotograf und die Aufnahmen taugen alle nichts ;)

Das funktioniert nur bei Standbildern. So wars gemeint und darin sind sich, glaub ich, alle recht einig.

...so ist es.



Antwort von Olaf Kringel:


Ja - aber, um mich gebetsmühlenhaft zu wiederholen, es geht hier vor allem um knallige Schlagzeilen beim Produktmarketing:

...laut Datei Info besteht die shift Aufnahme nun mal aus 10368 x 7776 = 80,6 mpix.



Antwort von WoWu:

eben nicht.
Ich glaube, Du hast noch gar nicht geblickt, was da passiert.



Antwort von Olaf Kringel:

...doch, steht da.



Antwort von WoWu:

Wahrscheinlich hältst Du es auch für einen riesigen technischen Fortschritt, wenn Kamerahersteller irgend wann einmal die Pixelmenge in "MPix/sec" angeben.



Antwort von Olaf Kringel:

...ich habe doch bereits kurz zuvor geschrieben, das "mir persönlich" bereits 12mpix vollkommen ausreichen.

Seit dem ich mit großem Interesse die Objektivreihe von KROLOP & GERST verfolge:

https://www.youtube.com/watch?v=kCfaXFN-Mmk

hat sich meine Sicht auf die Dinge eh verändert.

Ich kann nur jedem wärmstens empfehlen, sich diese Reihe einmal anzuschauen.



Antwort von gunman:

Ich kann nur jedem wärmstens empfehlen, sich diese Reihe einmal anzuschauen.

Super Tip ! Kostet zwar Zeit, aber die Erklärungen sind sehr gut.



Antwort von Olaf Kringel:


Super Tip ! Kostet zwar Zeit, aber die Erklärungen sind sehr gut.

...stimmt,

aber die Zeit lohnt sich, denn da wird mit so einigen Mythen und Märchen sachlich wie auch fachlich mächtig aufgeräumt.



Antwort von srone:


Wobei das angeschärfte Bild an Inhalt pro PixelPixel im Glossar erklärt verliert.
Im Originalbild stecken deutlich mehr Pixelinformationen, als im angeschärften Bild.
Ich habe gar nichts dagegen, eine bessere Farbverarbeitung durchzuführen, z.B. in 3 oder 4 Chip Kameras, oder über Binningmethoden und damit habe ich nichts gegen gute Bilder, mit erkennbarer Detailgüte.
Nur wenn eine KanteKante im Glossar erklärt keinen Schattenraum mehr hat und ich die halbe Dynamk wegschmeiße, nur weil ich die wirtschaftlichen Einsparungen von Billigverfahren kompensieren muss, (und dazu noch den Murx der Geisterbilder bekomme) dann verzichte ich lieber auf etwas Nachschärfung, die bei manchen Kameras schon an Karikaturaufnahme grenzt.
Also, den Spruch würde ich nicht so unterschreiben.

ich auch nicht... ;-)

lg

srone



Antwort von Olaf Kringel:



Wobei das angeschärfte Bild an Inhalt pro PixelPixel im Glossar erklärt verliert.
Im Originalbild stecken deutlich mehr Pixelinformationen, als im angeschärften Bild.
Ich habe gar nichts dagegen, eine bessere Farbverarbeitung durchzuführen, z.B. in 3 oder 4 Chip Kameras, oder über Binningmethoden und damit habe ich nichts gegen gute Bilder, mit erkennbarer Detailgüte.
Nur wenn eine KanteKante im Glossar erklärt keinen Schattenraum mehr hat und ich die halbe Dynamk wegschmeiße, nur weil ich die wirtschaftlichen Einsparungen von Billigverfahren kompensieren muss, (und dazu noch den Murx der Geisterbilder bekomme) dann verzichte ich lieber auf etwas Nachschärfung, die bei manchen Kameras schon an Karikaturaufnahme grenzt.
Also, den Spruch würde ich nicht so unterschreiben.

ich auch nicht... ;-)

lg

srone

300%.jpg

...hmm,

sorry, aber "Geister"- Oesen oder "Geister"- Kabel bzw. "keinen Raum für Schatten" und "halbe Dynamik Geschichten", sehen scheinbar nur WoWu und Du in der shift Aufnahme.



Antwort von WoWu:

Das schließe ich nicht aus, dass Du das nicht siehst.
Vielleicht solltest Du Dir einen anständigen Monitor zulegen.



Antwort von Frank B.:

Wo ist denn da ein Geisterbild? Für mich waren Geisterbilder bisher irgendwelche Überlagerungen und Übersprechungen, Doppelkonturen und sowas. Das sehe ich eigentlich auch nirgends, im Gegenteil. Klar sind da auch ein paar Aufsteilungen drin, aber so stark finde ich die nicht.
Wenn etwas im Bild sein sollte, was ich nicht sehe, dann ist es nicht für mich im Bild, auch wenn es physikalisch drin sein sollte. Kann ja sein, dass da falsch liege, aber ich vertraue da auch eher meinen Augen.

In dem von Olaf verlinkten Bildvergleich sieht man zum einen tatsächlich, dass in dem Pixelshiftverfahren mehr Strukturen bei gleichzeitig geringerer Rasterung bei gleichem Abbildungsmaßstab zu sehen sind. Man sieht z.B. über der vorderen Öse eine Stoßkante am Riesenrad, bei der offensichtlich zwei Teile aneinandergefügt sind. Dieses Bildetail ist auf der herkömmlichen Aufnahme nicht zu sehen. Es mag zwar irgendwie vorhanden sein, aber was nutzt das, wenn man es nicht wahrnehmen kann, weil es in einem Pixelraster unter geht.
Die Aufsteilung finde ich in dem rechten Bild auch w.g. gar nicht so schlimm. Vor allem ist sie im linken Bild auch schon vorhanden, zieht sich dort aber über mehrere Pixelreihen. Gut zu sehen an der Oberkante des Riesenrads in Abgrenzung zum Himmel. Also, ich weiß nicht. Ich finde das ganze als 300x Vergrößerung recht imposant.
Klar besteht die Frage, ob ich das so brauche und ob die Einschränkungen des Verfahrens mir den Kauf einer solchen Kamaera wert sind. Aber allein vom Unterschied der Bilder betrachtet empfinde ich das Verfahren schon als Bildverbesserung.



Antwort von WoWu:

@Frank
Olaf vermengt da auch gern ein paar Dinge miteinander, so wie er auch gern Aussagen aus dem Zusammenhang reißt, um sie falsch darzustellen.
Kein Mensch hat hier etwas gegen eine bessere Farbabtastung, in der Farben besser zur Deckung kommen.
Dass bei dieser Art der AbtastungAbtastung im Glossar erklärt aber Geisterbilder (in jeglicher Art von Bewegung) entstehen, dürfte auch dem letzten Betrachter mittlerweile klar sein.
Ebenso, dass bei Kantenaufsteilung der Kontrast erhöht wird, was zwangsläufig zur Verringerung der Bilddynamik führt, dürfte auch dem klar sein, der im Forum die zahlreichen Diskussionen zu dem Thema verfolgt hat.
Es ist ja unbestritten, dass viel e Anwender das kontrastreichere Bild als das "bessere" bezeichnen, obwohl es deutlich weniger Pixelinformationen enthält aber da landen wir eben wieder an der Definition von Auflösung und Schärfe.
Wenn jemand Bilder nur aufgrund der niedrigen Ortsfrequenzen beurteilt, wird er niemals zum selben Ergebnis kommen, wie jemand, der Bilder nach der Menge der Pixelsetails betrachtet, also die hohen Ortsfrequenzen einbezieht.
Also ... ein Bild mit guter Farbabtastung, mit hoher Farbdeckung und einer guten Wiedergabe der hohen Ortsfrequenzen und damit hohen dynamischen Anteilen in den Pixelinformationen und ohne die leidigen Geisterbilder der AbtastungAbtastung im Glossar erklärt ist für die Videoanwendung sicher das deutlich bessere Bild.
Wenn ich aber als Bauingenieur nur die Schweissnähte am Riesenrad überprüfen will, dann ist sicher die Hochkontrastversion das bessere Arbeitsmittel.
Dann würde ich aber gleich auf solche Kameras zurückgreifen, wie mash sie oben als Beispiel gepostet hat.
Aber wenn man bei dieser Kamera auch bei Personenaufnahmen sagen muss "bitte still halten", dann weiß ich nicht für wie wenig Anwendungen der Modus eigentlich gut sein soll.



Antwort von Frank B.:


@Frank
Dass bei dieser Art der AbtastungAbtastung im Glossar erklärt aber Geisterbilder (in jeglicher Art von Bewegung) entstehen, dürfte auch dem letzten Betrachter mittlerweile klar sein.

Ach, du meinst bei Bewegungen. Ja, darüber sind wir uns doch alle einig, dass das Verfahren, das hier zum Einsatz kommt, nicht für Stills infrage kommt, in denen sich etwas bewegt. Wobei das natürlich fälschlicherweise so beworben wird (für Landschaftsaufnahmen z.B.). Für Landschaftsaufnahmen würde ich dieses Verfahren aber aus genau diesem Grunde nun mal gar nicht einsetzen, weil sich da immer mal was bewegt. Vielleicht evtl. bei unbelebter Natur, ohne Gras und Blätter, z.B. Berglandschaften ginge es noch.



Antwort von Olaf Kringel:


Das schließe ich nicht aus, dass Du das nicht siehst.
Vielleicht solltest Du Dir einen anständigen Monitor zulegen.

Den könntest Du Dir besser zulegen, denn offensichtlich erkennen auch andere die hinzugewonnen Bilddetails, welche von Dir wiederholt in Abrede gestellt werden

Was ich persönlich (und mittlerweile vermutlich auch andere hier) unangenehm empfinde, ist Deine rumreiterei auf Bewegtbildern obwohl hier bereits mehrfach! (inklusive von mir) darauf hingewiesen wurde, das sich die shift Technik "ausschließlich" für stills eignet und da entstehen z.B. keine ghostings.

Wenn Du persönlich keine stills fotografierst ist das doch völlig in Ordnung, aber deswegen muss Du das anderen nicht madig machen, welche Spaß daran haben.

@Frank
Olaf vermengt da auch gern ein paar Dinge miteinander, so wie er auch gern Aussagen aus dem Zusammenhang reißt, um sie falsch darzustellen.

...hast Du bitte mal ein konkretes Beispiel dafür?



Antwort von WoWu:

Ja, es bewegt sich ein Mensch durch das Bild.
Passiert das in der Forographie nie ?
Wer reitet hier auf was rum.
Es ist doch Dein Problem, wenn Du Bewegung nur auf den Bildtransport beziehst und nicht auf die Bewegung im Bild.



Antwort von mash_gh4:

wie in dieser diskussion hier bereits mehrfach eingebracht und mit links auf eintsprechende umsetzungen in konkreter raw-entwicklungssoftware belegt, lässt sich dieses problem der bewegungen im bild bzw. damit verbundendener artefakte ziemlich einfach lösen bzw. minimieren:

stichwort: "Motion Mask" bzw. "Motion Correction"

https://pixls.us/articles/rawtherapee-a ... xel-shift/

allerdings ist es ohnehin ein reichlich absurder einwand, da die entsprechenden bewegungsbedingten unschärfen, dort wo sie tatsächlichin erscheinung treten, meist weit gröber ausfallen als der hier zur debatte stehende auflösungsgewinn...

ansonsten bleibt eigentlich nur zu sagen, dass dieses verfahren durchaus auch bei FF-sensoren benutzt wird und das ganze im wesentlichen wohl ohnehin einfach nur als erfreuliche technische begleiterscheinung einer image stabilisierung über die sensor aufhängung angesehen werden könnte... so gesehen wäre es vielleicht sinnvoll, die aufgeworfene debatte über störende bewegungseinflüsse gleich auf eine grundsätzliches bestreiten aller möglichkeiten der optischen image stabilisierung auszudehnen! ;)



Antwort von WoWu:

Problem ist nur, dass für bessere Algprithmen, alle RAW Bilder als Einzelbilder vorliegen müssen, was ich bei der Kamera nicht erkennen kann.
Was die Bewegung betrifft wäre auch noch fraglich, ob man mit der Kamera bei Anwendung der Mehrfachphotographie noch aus der Hand arbeiten kann, ob die Kamera also den Versatz auf starre Werte bezieht oder auf Analysealgorithmen.

Ich stimme cantsin da zu, dass das wohl mehr ein Marketinginstrument ist.



Antwort von Olaf Kringel:


Ja, es bewegt sich ein Mensch durch das Bild.
Passiert das in der Forographie nie ?
Wer reitet hier auf was rum.
Es ist doch Dein Problem, wenn Du Bewegung nur auf den Bildtransport beziehst und nicht auf die Bewegung im Bild.

...hmm,

Du weißt aber schon, was "stills" sind?

Das SONY Beispielvideo von mash_gh4 ist da recht hilfreich:

https://youtu.be/6-811lVi0Qc?t=8

Die Kirchendecke (das ist z.B. ein "still" Motiv) bewegt sich nicht, genausowenig wie andere Gebäude, Berge oder jegliche Art von Produkten beim shoot im Studio (da latsch auch sicher niemand durchs Bild ;)

Ja selbst für die Astrofotografie ist das shift Verfahren interessant, denn motorische Nachführungen für Langzeitbelichtungen bekommt man heute auch schon recht preiswert.



Antwort von WoWu:

Es war ja zu erwarten, dass Du auch Deine eigenen Definitionen hast.

https://en.m.wikipedia.org/wiki/Still_photography



Antwort von dienstag_01:

Du weißt aber schon, was "stills" sind?
Ja, natürlich. Und ab Zeitrechnung heute gibt es eben in der Fotografie *nicht ganz so stills*.
Herrlich.



Antwort von mash_gh4:


Problem ist nur, dass für bessere Algprithmen, alle RAW Bilder als Einzelbilder vorliegen müssen, was ich bei der Kamera nicht erkennen kann.

warum sollen es unbedingt getrennte einzelbilder sein?
nichts spricht dagegen, die entsprechenden informationen sinnvoll in einem einzigen -file zusammenzufassen!



Antwort von Olaf Kringel:


Es war ja zu erwarten, dass Du auch Deine eigenen Definitionen hast.

https://en.m.wikipedia.org/wiki/Still_photography

...nö,

nur war Dein Beispiel das sich "ein Mensch durchs Bild bewegt" unglücklich gewählt, denn wenn mir jemand durch mein still Motiv latscht, ist die Aufnahme eh Schrott.

Wenn ich hingegen bewusst z.B. jemand sich bewegenden (z.B. tanzenden) Menschen fotografieren will ist das wiederum kein "still" mehr, und somit für die shift Technik ungeeignet.



Antwort von WoWu:

Du kannst offenbar nicht lesen.
Lies mal, wie "still"definiert ist oder schreib mal an wikipedia, dass die Definition schnell geändert wird.
Dass man dafür auf den Link drücken muss, ist hoffentlich bekannt.



Antwort von WoWu:



Problem ist nur, dass für bessere Algprithmen, alle RAW Bilder als Einzelbilder vorliegen müssen, was ich bei der Kamera nicht erkennen kann.

warum sollen es unbedingt getrennte einzelbilder sein?
nichts spricht dagegen, die entsprechenden informationen sinnvoll in einem einzigen -file zusammenzufassen!

Gut, wie man das posted ist ziemlich egal, es läuft immer auf n-fache Datenmemge hinaus.
Nur in diesem Fall macht die Kamera eben nur ein Composit daraus, insofern ist es irrelevant, wie Canon das macht aber selbst da ist die Datenmenge entsprechend größer.



Antwort von Olaf Kringel:


Du kannst offenbar nicht lesen.
Lies mal, wie "still"definiert ist oder schreib mal an wikipedia, dass die Definition schnell geändert wird.
Dass man dafür auf den Link drücken muss, ist hoffentlich bekannt.

Ist doch alles kein Problem, dann ziehen wir eben einfach Dein Haar aus der Suppe und geben dem gleichen Kind einen anderen Namen.

Nennen wir es anstatt "stills" nun "Midsnb" (Motive in denen sich nichts bewegt).

Wenn Dich das glücklich macht, bitte sehr.



Antwort von WoWu:

Das ist mir jetzt alles zu quatschig.



Antwort von Olaf Kringel:


Das ist mir jetzt alles zu quatschig.

...so, so,

wenn man versucht mit Dir auf einen "allgemein verständlichen Nenner" zu kommen, wird es Dir also zu quatschig.

Ist natürlich auch eine Art sich aus der Affäre zu ziehen.

Noch etwas zum Thema "stills" (Stillleben):

https://de.wikipedia.org/wiki/Stillleben

oder hier:

https://youtu.be/d6FouX9fnBY?t=7

Da "bewegt" sich nichts mehr im motiv...



Antwort von srone:



Das ist mir jetzt alles zu quatschig.

...so, so,

wenn man versucht mit Dir auf einen "allgemein verständlichen Nenner" zu kommen, wird es Dir also zu quatschig.

Ist natürlich auch eine Art sich aus der Affäre zu ziehen.

Noch etwas zum Thema "stills" (Stillleben):

https://de.wikipedia.org/wiki/Stillleben

oder hier:

https://youtu.be/d6FouX9fnBY?t=7

Da "bewegt" sich nichts mehr im motiv...

so wie im altenheim?

lg

srone



Antwort von Olaf Kringel:

...wie schön srone,

das Du endlich einmal etwas inhaltlich extrem "sinnvolles" beiträgst, aber das Thema war eigentlich ein anderes, denn WoWu meinte:

Es war ja zu erwarten, dass Du auch Deine eigenen Definitionen hast.

Ganz so "eigen" ist diese Defintion somit offensichtlich nicht, wie wir grade in Wiki und im Video gelernt haben :)



Antwort von cantsin:


Noch etwas zum Thema "stills" (Stillleben):

https://de.wikipedia.org/wiki/Stillleben

Ihr redet aneinander vorbei, weil hier ein sprachliches Missverständnis vorliegt. Klick mal auf der Wikipedia-Seite links auf den korrespondierenden englischen Artikel, und Du siehst, dass das englische Wort für "Stillleben" nicht "still", sondern "still life" ist. "Still photography" bedeutet Standbildfotografie (im Gegensatz zum "motion picture" bzw. Bewegtbild/Film und Video); "still" bedeutet im Englischen schlicht Foto.

Siehe auch den Wikipedia-Artikel "Still Photography", der gleich mit dem Hinweis beginnt: "Not to be confused with Still life photography."



Antwort von srone:


...wie schön srone,

das Du endlich einmal etwas inhaltlich extrem "sinnvolles" beiträgst, aber das Thema war eigentlich ein anderes, denn WoWu meinte:

Es war ja zu erwarten, dass Du auch Deine eigenen Definitionen hast.

Ganz so "eigen" ist diese Defintion somit offensichtlich nicht, wie wir grade in Wiki und im Video gelernt haben :)

ich zitiere wowu, das internet nützt nur dem, der auch reflektiv versteht... ;-)

lg

srone



Antwort von Olaf Kringel:


Ihr redet aneinander vorbei, weil hier ein sprachliches Missverständnis vorliegt. Klick mal auf der Wikipedia-Seite links auf den korrespondierenden englischen Artikel, und Du siehst, dass das englische Wort für "Stillleben" nicht "still", sondern "still life" ist. "Still photography" bedeutet Standbildfotografie (im Gegensatz zum "motion picture" bzw. Bewegtbild/Film und Video); "still" bedeutet im Englischen schlicht Foto.

...von mir aus gerne.

Wenn "still life" unmissverständlich bedeutet, das sich innerhalb eines Motives nichts mehr bewegt, finde ich das prima und werde auch nur noch diesen Begriff dafür verwenden.



Antwort von cantsin:

Naja, wir hatten ja mal hier im Forum ja auch schon einmal Gezänk wegen "Primes", weil ein Forenmitglied zeitweise der irrigen Annahme aufsaß, dass das englische Wort nicht "Festbrennweitenobjektiv", sondern "Premiumobjektiv" bedeutet...



Antwort von cantsin:


Wenn "still life" unmissverständlich bedeutet, das sich innerhalb eines Motives nichts mehr bewegt, finde ich das prima und werde auch nur noch diesen Begriff dafür verwenden.

Du hast es immer noch nicht verstanden. "Still" bedeutet im Englisch Standfoto bzw. Foto im Unterschied zum Bewegtbild und hat mit Stillleben nichts, aber auch rein gar nichts zu tun.

An einem Filmset hat man i.d.R. einen "cinematographer" = Kameramann und einen "still photographer" = Standbildfotografen für die Fotos, die später auf dem Kinoplakat und in Promomaterial verwendet werden, siehe hier.



Antwort von Olaf Kringel:


Naja, wir hatten ja mal hier im Forum ja auch schon einmal Gezänk wegen "Primes", weil ein Forenmitglied zeitweise der irrigen Annahme aufsaß, dass das englische Wort nicht "Festbrennweitenobjektiv", sondern "Premiumobjektiv" bedeutet...

...nur das ich gefühlt unzählige male darauf hingewiesen habe, das diese shift Technologie nicht für bewegtbilder geeignet ist.

Jeder wusste somit bescheid worum es geht.

Diese Haarspaltereien um einen einzigen Begriff, waren somit "m.M.n." vollkommen überflüssig.

Wenn "still life" unmissverständlich bedeutet, das sich innerhalb eines Motives nichts mehr bewegt, finde ich das prima und werde auch nur noch diesen Begriff dafür verwenden.

Du hast es immer noch nicht verstanden. "Still" bedeutet im Englisch Standfoto bzw. Foto im Unterschied zum Bewegtbild und hat mit Stillleben nichts, aber auch rein gar nichts zu tun.

An einem Filmset hat man i.d.R. einen "cinematographer" = Kameramann und einen "still photographer" = Standbildfotografen für die Fotos, die später auf dem Kinoplakat und in Promomaterial verwendet werden, siehe hier.

...und sind es immer noch.

PS: ...schreib doch mal an GIGA, das die mit dem Titel: "Stilleben / stills" (stills war ja der Begriff welchen ich hier verwendet habe und der ja angeblich so dermaßen falsch ist) völlig daneben liegen und das sie von nix ne Ahnung haben.

Poste dann die Antwort aber auch bitte hier mal rein...



Antwort von cantsin:


...nur das ich gefühlt unzählige male darauf hingewiesen habe, das diese shift Technologie nicht für bewegtbilder geeignet ist.

Gnade bitte!

Bewegtbilder = Film, Video, alles was eine Abfolge von Bildern ist, die die Illusion von Bewegung erzeugt.

Bewegtbilder sind NICHT Fotos von sich bewegenden Motiven, Standbilder sind NICHT Fotos von unbewegten Motiven.

(Offenbar müssen wir hier nicht nur Verständnisprobleme mit der englischen, sondern auch mit der deutschen Sprache aus dem Weg räumen.)



Antwort von Olaf Kringel:



...nur das ich gefühlt unzählige male darauf hingewiesen habe, das diese shift Technologie nicht für bewegtbilder geeignet ist.

Gnade bitte!

Bewegtbilder = Film, Video, alles was eine Abfolge von Bildern ist, die die Illusion von Bewegung erzeugt.

Bewegtbilder sind NICHT Fotos von sich bewegenden Motiven, Standbilder sind NICHT Fotos von unbewegten Motiven.

(Offenbar müssen wir hier nicht nur Verständnisprobleme mit der englischen, sondern auch mit der deutschen Sprache aus dem Weg räumen.)

...klingt ja alles superduper ungaublich wichtig was Du so schreibst,

nur was hat das alles bitteschön mit der Detailzunahme durch die shift Funktion der (noch nicht einmal finalen) G9 zu tun?



Antwort von cantsin:


PS: ...schreib doch mal an GIGA, das die mit dem Titel: "Stilleben / stills" (stills war ja der Begriff welchen ich hier verwendet habe und der ja angeblich so dermaßen falsch ist) völlig daneben liegen und das sie von nix ne Ahnung haben.

Genau das ist der Fall, das sind YouTube-Deppen mit ein paar Jahre Haupt- oder Realschulenglisch. Aber wenn jetzt schon YouTube-Kanäle als Referenz gegen Lexika ins Schilde geführt werden, können wir dieses Forum auch schließen bzw. den alternativen und gefühlten Fakten überlassen.



Antwort von Olaf Kringel:

...ich wiederhole mich gerne :)


Gnade bitte!

Bewegtbilder = Film, Video, alles was eine Abfolge von Bildern ist, die die Illusion von Bewegung erzeugt.

Bewegtbilder sind NICHT Fotos von sich bewegenden Motiven, Standbilder sind NICHT Fotos von unbewegten Motiven.

(Offenbar müssen wir hier nicht nur Verständnisprobleme mit der englischen, sondern auch mit der deutschen Sprache aus dem Weg räumen.)

...klingt ja alles superduper ungaublich wichtig was Du so schreibst,

nur was hat das alles bitteschön mit der Detailzunahme durch die shift Funktion der (noch nicht einmal finalen) G9 zu tun?

???... denn mal ehrlich, slashcam ist doch nun wirklich mehr als nur ein "Duden".



Antwort von cantsin:


nur was hat das alles bitteschön mit der Detailzunahme durch die shift Funktion der (noch nicht einmal finalen) G9 zu tun?

Wenn hier seitenlang eine Diskussion darüber tobt, wie sinnvoll diese Funktion ist, dabei aber die eine Partei die andere völlig missversteht, weil sich Partei 1 konsequent sprachlich falsch ausdrückt und von bewegten Bildern (=Video) spricht, wo sie bewegte Motive in Standbildern meint; und Partei 1 darüber hinaus noch Partei 2 systematisch missversteht, weil sie "unbewegte Motive" versteht, wo unbewegte Bilder gemeint sind - dann ist das sehr wohl relevant (aber auch ziemlich komisch).



Antwort von Olaf Kringel:

...komisch sind nur einige Kommentare.

Realistisch hingegen sind Bilder:

300%.jpg



Antwort von cantsin:

In anderen Worten: Shift-80MP bringt für Fotokameras jetzt das, was 4K für Videokameras brachte. Vor allem für Fotografen, die nach dem Motto "Standbilder=Stillleben" (bzw. "still photography=still life photography") arbeiten. Ist doch schön.



Antwort von Olaf Kringel:


In anderen Worten: Shift-80MP bringt für Fotokameras jetzt das, was 4K für Videokameras brachte. Vor allem für Fotografen, die nach dem Motto "Standbilder=Stillleben" (bzw. "still photography=still life photography") arbeiten. Ist doch schön.

...ja, finde ich auch,

weil es letztlich doch immer um das "Bildergebnis" geht.

https://de.wikipedia.org/wiki/Ein_Bild_ ... send_Worte



Antwort von Skeptiker:

Man kann es sich so merken:

'Stills' sind stille Bilder (Fotos) - sie sagen keinen Ton, und sie bewegen sich nicht.



Antwort von Skeptiker:

Hasselblad Mittelformat (53.4 × 40.0 mm) nun auch mit Sensor Shift-Technik für optimierte Fotos in 1 Pixel- (4x für Farbe) und 1/2 Pixel-Schritten (zusätzlich 2x für Auflösung).

Ich las gerade Folgendes zur neuen Hasselblad H6D-400c:

Hasselblad Introduces the H6D-400c MS, a 400 Megapixel Multi-Shot Camera
https://www.dpreview.com/news/980785998 ... 0mp-images

Preis: Unter 50'000 USD



Antwort von WoWu:

Is ja auch richtig Kohle.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Panasonic VariCam LT Firmware Upgrade 6.0 mit Live Funktionen angekündigt
Konzertaufnahmen mit Panasonic Lumix FZ 1000 meist verzerrt
Panasonic LUMIX GX800 - kompakte MFT mit 5 Min. 4K // CES 2017
Panasonic LUMIX FT7: 4K Tough-Kamera mit 31 m Tauchtiefe und integriertem Sucher
Panasonic Lumix GH4 oder Canon 5D Mark ii mit dem Atomos Ninja 2
Panasonic stellt Lumix DMC-LX100 II mit 17MP Multi-Aspekt-Sensor und 4K Aufnahme vor
Panasonic Lumix S1: 4K 10-bit 422 HDR/HLG-Aufnahme ab Start mit Atomos Ninja V und Inferno
Panasonic LUMIX G70 PROBLEM!!!
Panasonic Lumix GX9 zu empfehlen?
Lumix ID für Panasonic Cam
Sony Alpha 7 iii vs. Panasonic Lumix S1
Panasonic Lumix DC-FZ82 für Landschaftsaufnahmen geeignet?
Panasonic Lumix DC-GH5 an ATEM Production Studio 4K
Panasonic Lumix GF7 -- kompakte MFT-Systemkamera
Panasonic Lumix FZ1000 II und TZ96 vorgestellt
Panasonic Lumix S1 - Sensor-Bildqualität der Vorabversion
Panasonic Lumix DMC-GH3 HDMI Output
Objektiv gesucht für Panasonic LUMIX-G70
Welches Mikrofon für Panasonic Lumix G81?
Frage zu : Panasonic Lumix GH5 incl. Leica-Objektiv
Videofähigkeiten: Sony A7r vs. Panasonic Lumix DMC-LX100
Panasonic Lumix DMC-FZ1000 eine beschränkte Cliplänge?
Einhand-Gimbal für Panasonic Lumix LX100 gesucht
Panasonic LUMIX DMC-G81 - Vorbote der GH5?
Sony Alpha 6000 oder Panasonic Lumix GX8?
Panasonic LUMIX S1(R) - ab März, ab 2.500 Euro, 4K-Videofunktionalität im Detail

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen