Eine vieldiskutierte Seite aus einer internen Firmenpräsentation von Sony machte vor einigen Tagen im Internet von sich reden. Grund für das große Interesse war die darin getroffene Aussage von von Terushi Shimizu (CEO von Sony Semiconductor Solutions), dass Smartphone-Kameras ab dem Jahr 2024 die Bildqualität von Wechselobjektivkameras übertreffen werden.
Bislang gilt als "Common Sense", dass die relativ großen Sensel eines DSLM/DSLR-Sensors rein physikalisch mehr Licht einfangen können und somit immer eine höhere Dynamik aufzeichnen können als die verhältnismäßig kleinen Sensel bei einem Smartphone.
Doch (nicht nur) Sony glaubt, dass dieser Common Sense in naher Zukunft seine universelle Gültigkeit verlieren könnte. Das zugehörige Slide zeigt dabei alle Ideen auf, aufgrund derer sich diese These tatsächlich bewahrheiten könnte.
Die grundsätzliche Daumenregel "Größere Senselfläche" = "Mehr Dynamik" gilt nämlich nur, wenn alle anderen Parameter des Sensors bzw. der Kamera gleich bleiben. Doch an manchen Parametern lässt sich gerade aufgrund einer kleinen Senselgröße noch einiges drehen.
Zwar wurden die Aussage von Terushi Shimizu primär für zukünftige Standbilder gedeutet, jedoch geht das Slide definitiv auch explizit auf Videotechnologien ein. Werfen wir also einmal einen Blick auf die zwei wichtigsten Punkte der Präsentation:
Multiframe-Processing mit Highspeed Readout
Was wir immer schon länger als kommende Zukunftstechnologie erwartet haben, benennt Sony nun mit einem konkreten Namen: "Multiframe Processing" liest man hier im Zusammenhang mit "Highspeed Readout". Dies soll in Zukunft für HDR-Video mit einer hohen S/N-Ratio genutzt werden können.
Hinter diesen neuen Buzzwords verbirgt sich eine sehr interessante Theorie: Wenn man den gleichen Sensel sehr kurz hintereinander mit unterschiedlichen Belichtungszeiten auslesen kann, lässt sich damit theoretisch die Dynamik in den Lichtern um einige Blendenstufen erhöhen. Also ein ähnliches Prinzip, wie es Panasonic mit dem neuen Dynamic Boost Mode der GH6 bereits vorgemacht hat.
Konkret und stark vereinfacht könnte man beispielsweise bei einer typischen Belichtungszeit von 1/48 Sekunde noch eine sehr kurze Belichtung von 1/768s dazusamplen, und hätte mit der zweiten Belichtung rund vier Blendenstufen mehr Licht eingefangen, die zusätzliche Messwerte für Sensel liefern könnte, die bei der ersten längeren Belichtung gesättigt (also überbelichtet) waren. Die sehr kurze Belichtungszeit dürfte kaum für Bewegungsartefakte sorgen, wenn diese wirklich unmittelbar im Anschluss an die 1/48 Sekunde erfolgen kann.
Ein Sensor, der diese Auslesetechnik beherrscht, könnte sehr leicht zusätzliche Dynamik in den Lichtern gewinnen. Und laut Sony scheint man eben diesen Weg mit Multiframe-Processing in Smartphones beschreiten zu wollen.
Wenn man sich die Videos und Fotos dann am großen Bildschirm des TV, Laptop oder Computer anschaut, sieht man es schon. Das werden die auch nicht in zwei Jahren schaffen, diese...weiterlesen
Rick SSon 11:56 am 15.6.2022
Deswegen werden Kameras immer mehr Gestaltungsmittel die zum gewünschten Look beitragen.
Aber Sony ist auch der Meister der Spec-Sheets. Was davon immer beliebig anwendbar in der...weiterlesen
Editorials: Kamera-Trends 2030 - oder die Filmproduktion im nächsten Jahrzehnt Mo, 1.Februar 2021 Es fällt schwer zu prognostizieren, in welchen Bereichen sich Cine-Kameras in den nächsten Jahren noch signifikant verbessern sollten. Wahrscheinlich stehen wir jedoch sowieso vor einem kompletten Paradigmenwechsel in der Filmproduktion...
Editorials: Wann kommt... Wireless Compressed Output? Mo, 31.Oktober 2011 Was konnten HDV-Camcorder, was AVCHD und DSLRs nicht mehr können? Den komprimierten Output über Firewire streamen. Warum ist diese Funktion eigentlich unter den Tisch gefallen und warum könnte soetwas heute dennoch praktisch sein?