Gore
Beiträge: 150

Re: 5D MKII, als alles begann

Beitrag von Gore »

Ich muss euch mal eine Anfängerfrage stellen, weil ich da etwas nicht verstehe. Die Betonung liegt auf "Anfänger".

Nehmen wir die 3D Mark III. Sie hat auf Ihrem Vollformatsensor 5760 x 3840 Pixel. Dies sind ca 22 Megapixel.

Filme ich jetzt in Full HD, habe ich 1920 x 1080 Pixel, also ca 2 Megapixel.

Für diese Auflösung wird also nur ein Teil der Sensorfläche verwendet. Wenn also nur ein Teil der Sensorfläche verwendet wird, wäre es doch so, als hätte der Sensor wirklich nur 1920 x 1080 Pixel. Muss dann die Schärfentiefe gegenüber der Nutzung der vollen Sensorfläche von 5760 x 3840 Pixeln nicht ziemlich zunehmen, da offensichtlich ein "kleinerer Sensor" verwendet wird (weil der Rest ja ungenutzt bleibt)?

Oder habe ich da einen Denkfehler drin und die 1920 x 1080 Pixel werden (wie auch immer) auf die komplette Sensorfläche verteilt?



mash_gh4
Beiträge: 4716

Re: 5D MKII, als alles begann

Beitrag von mash_gh4 »

Gore hat geschrieben: So 21 Jan, 2018 21:04Oder habe ich da einen Denkfehler drin und die 1920 x 1080 Pixel werden (wie auch immer) auf die komplette Sensorfläche verteilt?
je nach umsetzung gibt's mehrere antworten auf dieses problem:

* es können tatsächlich nur ausschnitte des sensors ausgelesen werden, was aber normalerweise nur für weit kleinere auflösungsüberschüsse sinn macht.

* es kann nur ein teil der sensel genutzt werden und diejenigen dazwischen übersprungen werden (line skipping) , was leider recht ungute aliasing-artefakte nach sich zieht.

* es können gruppen von pixeln zusammengelgt und als einheit ausgelesen werden (pixel-binning)

* od. es wird per software vom voll ausgelesenen sensor herunterskaliert, was zwar die besten resultate ermöglicht, aber auch verhältnismäßig viel rechenleistung verlangt und daher auch erst recht spät praktisch umgesetzt werden konnte.
Zuletzt geändert von mash_gh4 am So 21 Jan, 2018 21:50, insgesamt 1-mal geändert.



cantsin
Beiträge: 14324

Re: 5D MKII, als alles begann

Beitrag von cantsin »

Gore hat geschrieben: So 21 Jan, 2018 21:04 Oder habe ich da einen Denkfehler drin und die 1920 x 1080 Pixel werden (wie auch immer) auf die komplette Sensorfläche verteilt?
Genau das letztere ist der Fall.

Mit MagicLantern ist es allerdings auch möglich, die 1920x1080 1:1 von der Sensormitte auszulesen, und dann hat man in der Tat das Schärfentiefeverhalten einer Kleinchip-Videokamera.

@mash, die Frage des TO bezog sich auf die genutzte Sensorfläche, nicht auf die Downsampling-Methode.



mash_gh4
Beiträge: 4716

Re: 5D MKII, als alles begann

Beitrag von mash_gh4 »

cantsin hat geschrieben: So 21 Jan, 2018 21:34 @mash, die Frage des TO bezog sich auf die genutzte Sensorfläche, nicht auf die Downsampling-Methode.
bist dir sicher?
ich würde das von mir ohnehin zitierte anders deuten, kann mich aber darin natürlich auch völlig irren und versehentlich an der sache vorbei reden...



Gore
Beiträge: 150

Re: 5D MKII, als alles begann

Beitrag von Gore »

@mash, die Frage des TO bezog sich auf die genutzte Sensorfläche, nicht auf die Downsampling-Methode.
Oh nein, alles gut. Ich bin ja für jede Erklärung dankbar! :)



 Aktuelle Beiträge [alle Foren]
 
» DREHBUCHAUTOR als Beruf mit Jana Burbach
von Frank Glencairn - Do 9:31
» Kosten presenter TikTok
von JonnyRakete - Do 9:28
» Kosten presenter TikTok
von JonnyRakete - Do 9:24
» Alexa 35 - jetzt für Live Veranstaltungen, Sport und Talk Shows.
von prime - Do 9:22
» Video zu lang
von BeBe1a - Do 9:06
» Resolve auf einem Snapdragon X Elite laptop?
von Frank Glencairn - Do 7:16
» Mavic 3 Classic: Wie Kameraeinstellungen auf Zoomrad und Funktionsbuttons legen?
von rush - Do 6:47
» Monitore richtig kalibrieren
von Frank Glencairn - Do 6:34
» "Creator"-DP: Digitalkameras haben keinen eigenen Look
von iasi - Mi 23:04
» AJA veröffentlicht kostenloses Stream Deck Plug-in für HELO Plus
von slashCAM - Mi 20:09
» Frame.io Version 4 - Komplettes Redesign als Kreativmanagement-Plattform
von SonyTony - Mi 20:02
» After Effects Aces ODT
von -paleface- - Mi 17:15
» Aputure stellt Sidus Link Pro App und INFINIMAT RGB-Lichtmatten vor
von slashCAM - Mi 16:36
» DVD Kleinserie (50-100 Stk.)
von jaroma - Mi 15:22
» Fotoapparat oder ähnliches
von Alex - Mi 15:01
» Was bringt der Filmförderungsplan der Verbände?
von Steelfox - Mi 13:43
» Gamma 2.2 vs 2.4
von dienstag_01 - Mi 13:32
» Tokina Cinema erweitert seine Vintage T1.5 Vista-P-Serie: 40, 65, 105 und 135mm
von slashCAM - Mi 11:30
» DJI RS 4 und RS 4 Pro - verbesserte (Einhand-)Gimbals vorgestellt inkl. LiDAR
von SonyTony - Mi 11:29
» JOKER - Teaser Trailer
von Frank Glencairn - Mi 9:33
» UHD-BD Authoring?
von TomStg - Mi 7:52
» Heimvideos in 4K anschauen
von ksingle - Di 14:29
» Stable Audio 2.0 produziert kostenlos Musik per KI
von slashCAM - Di 13:12
» OpenAI Sora - das ist der KI-Video Gamechanger!
von Frank Glencairn - Mo 23:34
» Wie KI Bilder abrechnen und absichern?
von klusterdegenerierung - Mo 19:14
» Venice 2 Bildqualität zum halben Preis? Sony Burano Sensortest
von Frank Glencairn - Mo 17:20
» Was werden KI-Videogeneratoren wie Open AI Sora im kommerziellen Einsatz kosten?
von Knutinho - Mo 15:36
» 2 Videokameras in einen Bild zusammenführen
von Puggler23 - Mo 10:41
» Frage zu Outlook Account
von klusterdegenerierung - Mo 9:08
» Deutsche Komödie - CHANTAL IM MÄRCHENLAND - hat den jemand gesehen?
von 7River - So 20:41
» US-Gericht bestätigt: Kein Urheberrecht auf KI-generierte Kunst
von Alex - So 16:32
» Resolve oder andere - Bewegtbild aus Standbild
von dienstag_01 - So 14:39
» NiSi Athena Cine-Objektive zwischen 14mm und 85mm vorgestellt
von Bildlauf - So 13:33
» MacBook Air M3 13" im Performance-Test mit Arri, Sony, Panasonic, Canon und Blackmagic
von R S K - So 13:07
» Apple Mac Mini M2 - Bester Low-Budget 4K-Schnittrechner für 600 Euro?
von iasi - Sa 23:47