Die A7s kostet aktuell 1800 Euro, die A7 und A7II liegen noch drunter... Bin aber Deiner Meinung, dass 20/60 fps, wenn es sie in Raw und ohne Buffer-Begrenzung gäbe, ein Killerfeature wären. Ist nur die Frage, wieviele Leute das brauchen und dafür soviel Geld hinlegen.Darth Schneider hat geschrieben: ↑Mi 08 Nov, 2017 13:13 Ausserdem ist das Teil immer noch viel billiger und viel schneller wie eine Sony A7s oder 7r.
Da baut Panasonic aber nur ein Feature nach, das die Oberklassenmodelle von Olympus schon länger haben. (Wie überhaupt die ganze G9 vom Datenblatt her wie ein Clone der Olympus EM1 Mark II aussieht - es sei denn, wie gesagt, es gäbe die Highspeed-Einzelbilder in Raw und ohne Mengenbegrenzung.)
Muss es ja auch nicht - es werden einzelne Aufnahmen zusammengesetzt.
Ja, aber nur der Sensor wird bewegt, nicht das Objektiv. Also bleibt die Objektivauflösung der limitierende Faktor für die Realauflösung.
Genau, so hab ich mir das vorgestellt. Aus 4 20MPx wird ein 80MPx-Bild gestitcht (zusammengefügt). Nun kann man natürlich überlegen, ob MFT-Objektive überhaupt in der Lage sind, 20 MPx aufzulösen.
ich glaube, man sollte dieses feature nicht unbedingt mit sinnlosen megapixel-streben in verbindung bringen, sondern vielmehr mit einer technik, die u.a. die vorgegeben systemgrenzen des bayer-patterns zu transzendieren versucht. durch die bewegung des sensors [in anderen varianten: alleine nur der vorgelagerten farbfilter] steigt zwar nicht unbedingt gleich die generelle räumliche auflösung, aber die farbwiedergabe wird in den konturen an die fähigkeiten eines foveon-sensors herangeführt, ohne die dortige lichtabschwächenden eigenschaften der hintereinander angeordneten schichten in kauf nehmen zu müssen. aber natürlich ist auch dieser kunstgriff wieder mit anderen spürbaren kompromissen und anwendungseinschränkungen verbunden. am problematischsten dürfte sich wohl der umstand erweisen, dass es nur sehr wenig RAW-entwicklungssoftware geben dürfte, die diese eigenheiten und vorzüge auch tatsächlich optimal auszuschöpfen vermag.
Die möglichst hohe Anzahl der Pixel ist für Fotos schon sinnvoll. Ist nur die Frage, wie die Nebenerscheinungen in den Griff bekommen werden und ob die MFT-Optiken das auch auflösen. Dennoch wird ein aus 4 einzelnen Bildern gestitchtes Bild, die vierfache Auflösung der Einzelbilder bekommen.Darth Schneider hat geschrieben: ↑Mi 08 Nov, 2017 19:33 Die Kamera muss halt viele Megapixel haben, da sie ja laut Panasonic mehr zum fotografieren konzipiert wurde. Das muss auch zum filmen nicht zwangsläufig negativ sein, ich würde mal die Tests abwarten anstatt zu viel zu diskutieren ob jetzt viele Megspixel....sinnvoll, Bla, bla, bla.
Die Fujis haben auch keinen grösseren Sensor und auch viele Pixel, die Sonys RX Serie hat noch kleinere Sensoren und genau so viele Pixel, genau so ähnlich ist die G81. Eins haben alle diese Kameras gemeinsam, sie fotografieren und sie filmen äusserst gut. Das wird bei der neuen Panasonic nicht anders sein.
Gruss Boris
Ah ok. Über das genaue Verfahren in der Kamera wusste ich nix. Ich hatte irgendwo Stitching gelesen und hab mir einen Reim drauf gemacht, weil man das ja z.B. bei Panorama- oder 360 Grad - Aufnahmen so macht wie ich es oben beschrieb.Skeptiker hat geschrieben: ↑Mi 08 Nov, 2017 23:28 Der Sensor wird ja nur minimal bewegt, ich las etwas von 1/2 Pixelbreite, vermutlich in 8 Richtungen.
Dann wird diese Bildinformation zu einem einzigen Bild zusammengerechnet.
Das hat eigentlich nichts mit "Stitching" (Sticken, Nähen) zu tun, denn das bezieht sich eher auf das flächige Zusammensetzen von geschwenkten (horizonal oader vertikal) Einzelbildern zu einem Bild - normalerweise per Computer-Software.
...laut Photo Joseph ja:
Wenn das Objektiv brutto nicht mehr 20MP auflöst (praktisch alle MFT-Objektive liegen weit darunter), kann auch ein Pixelshift daraus keine 80MP optische Auflösung machen. Dann müsste schon das Objektiv mitbewegt werden.
Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein Pixel, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.Frank B. hat geschrieben: ↑Do 09 Nov, 2017 20:53 Warum nicht? Angenommen ein Objektiv könnte nur einen Pixel auflösen. Nun würde das aufgenommen Pixel aber mit dem gleichen Objektiv vier mal hintereinander aufgenommen, jeweils etwas verschoben und dann mit einer SW zu einem neuen Bild verarbeitet. So hätte ja das neue Bild vier Pixel, obwohl das Objektiv nur einen aufnehmen konnte. Die Pixel hätten sogar unterschiedliche Informationen, da sie nicht deckungsgleich aufgenommen wurden.
Ich glaube, ich verstehe langsam, was du meinst. Aber vielleicht doch noch nicht ganz.cantsin hat geschrieben: ↑Do 09 Nov, 2017 22:00Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein Pixel, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.Frank B. hat geschrieben: ↑Do 09 Nov, 2017 20:53 Warum nicht? Angenommen ein Objektiv könnte nur einen Pixel auflösen. Nun würde das aufgenommen Pixel aber mit dem gleichen Objektiv vier mal hintereinander aufgenommen, jeweils etwas verschoben und dann mit einer SW zu einem neuen Bild verarbeitet. So hätte ja das neue Bild vier Pixel, obwohl das Objektiv nur einen aufnehmen konnte. Die Pixel hätten sogar unterschiedliche Informationen, da sie nicht deckungsgleich aufgenommen wurden.
Aber auch die Beispiel-Bilder beachten!
nur, weil die objektive AUCH auflösungsbegrenzend wirken, bedeutet das noch lange nicht, dass man andere einschränkende faktoren nicht weiter kompensieren sollte. den [farbauflösungs-]begrenzungen durch das bayer pattern zu begegnen, ist in dieser hinsicht durchaus sinnvoll und von praktischem nutzen. je mehr man auf diese weise an sauberen ausgangsdaten gelangt, umso besser lassen sich auch objektivbedingte auflösungseinschränkungen nachträglich herausrechnen.cantsin hat geschrieben: ↑Do 09 Nov, 2017 22:00 Sie hätten nur temporal verschobene Informationen, nicht in der räumlichen Auflösung. Bei einem statischen Motiv bei konstanter kommt durch das Objektiv nur ein Pixel, der dann durch den Sensorshift vervierfacht würde. Hätte das Motiv feinere Details, würden diese durchs Objektiv nicht erfasst und auch nicht auf dem Sensor landen, weil das Objektiv als die Auflösung begrenzender Filter zwischen Motiv und Sensor sitzt.
Naja, ich komme ja selbst daher und wohne noch dort. Sogar gar nicht mal so weit von Zeiss weg. ;)