Laut einem Paywall-Bericht von Bloomberg erwägt die Sony Group Corp. die Ausgliederung ihrer Halbleitersparte - einschließlich der Sensorherstellung. Demnach würde Sony ... Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten: Wird Sony bald seine Sensor Sparte ausgliedern?
Anders als bei anderen Halbleitern – und nichts anderes ist ein Bildsensor – kann man in der Produktion kaum von den üblichen Skaleneffekten der Chipbranche profitieren.
Ein Sensor ist nun einmal so groß, wie es die optische Konstruktion der Kamera vorgibt, da ist nichts zu verkleinern. Also sind die Fixkosten der Herstellung immer mehr oder weniger gleich. Bei PC-Prozessoren gibt es, kurzer Blick über den Tellerrand, seit etwa zehn Jahren den Trend zu Chiplets, wo verschieden große Chips mit verschiedenen Fertigungsverfahren als Kostenersparnis zu einem Gesamtsystem zusammengesetzt werden. Das ist bei einem Bildsensor kaum möglich, also bleibt es bei den konstanten Kosten. [...]
Zwar, so die Quellen der Nachrichtenagentur, hatte Sony den – unkonkreten – Plänen zufolge vor, sich eine Minderbeteiligung an der Sensorsparte zu sichern, eines scheinen die Wirtschaftspropheten aber übersehen zu haben: die Technologieführerschaft. Es ist sicher kein Zufall, dass nach rund einem Jahr die A9 III immer noch die einzige Systemkamera mit Global Shutter und 120 Raw-Bildern pro Sekunde ist. Ganz offensichtlich rückt Sony den Sensor an andere Hersteller (noch?) nicht heraus. Bei einer rein auf Gewinn orientierten Sensorsparte in der Hand von Investoren wäre das wohl etwas anders.
Anders als bei anderen Halbleitern – und nichts anderes ist ein Bildsensor – kann man in der Produktion kaum von den üblichen Skaleneffekten der Chipbranche profitieren.
Ein Sensor ist nun einmal so groß, wie es die optische Konstruktion der Kamera vorgibt, da ist nichts zu verkleinern. Also sind die Fixkosten der Herstellung immer mehr oder weniger gleich. Bei PC-Prozessoren gibt es, kurzer Blick über den Tellerrand, seit etwa zehn Jahren den Trend zu Chiplets, wo verschieden große Chips mit verschiedenen Fertigungsverfahren als Kostenersparnis zu einem Gesamtsystem zusammengesetzt werden. Das ist bei einem Bildsensor kaum möglich, also bleibt es bei den konstanten Kosten. [...]
Zwar, so die Quellen der Nachrichtenagentur, hatte Sony den – unkonkreten – Plänen zufolge vor, sich eine Minderbeteiligung an der Sensorsparte zu sichern, eines scheinen die Wirtschaftspropheten aber übersehen zu haben: die Technologieführerschaft. Es ist sicher kein Zufall, dass nach rund einem Jahr die A9 III immer noch die einzige Systemkamera mit Global Shutter und 120 Raw-Bildern pro Sekunde ist. Ganz offensichtlich rückt Sony den Sensor an andere Hersteller (noch?) nicht heraus. Bei einer rein auf Gewinn orientierten Sensorsparte in der Hand von Investoren wäre das wohl etwas anders.
Warum sollte man nicht auch den Bildsensor mit den Verstärkerschaltungen und der Rechnereinhelt zu einem Gesamtsystem zusammensetzen können?
Und Red rückt doch die GS-Sensoren ebensowenig raus, wie Arri ihre DualGain-Sensoren. Die A9III ist auch eine Kamera der gehobenen Klasse, was es durchaus rentabel machen könnte, den Technologievorsprung zu erhalten.
iasi hat geschrieben: ↑Sa 10 Mai, 2025 16:07
Warum sollte man nicht auch den Bildsensor mit den Verstärkerschaltungen und der Rechnereinhelt zu einem Gesamtsystem zusammensetzen können?
Die Haupteinheit mit den Senseln bleibt halt immer gleich groß - ein FF-Sensor z.B. misst immer 36x24mm - und deshalb gibt's da keine nennenswerte Produktionskostenersparnis durch Chip-Miniaturisierung wie sonst in der Halbleiterindustrie.
Zusammengesetzte (stitched) Sensoren gab's ja früher bei CCD, und das resultierte damals in sichtbaren Bildproblemen an den Kanten der Teilsensoren.
iasi hat geschrieben: ↑Sa 10 Mai, 2025 16:07
Warum sollte man nicht auch den Bildsensor mit den Verstärkerschaltungen und der Rechnereinhelt zu einem Gesamtsystem zusammensetzen können?
Die Haupteinheit mit den Senseln bleibt halt immer gleich groß - ein FF-Sensor z.B. misst immer 36x24mm - und deshalb gibt's da keine nennenswerte Produktionskostenersparnis durch Chip-Miniaturisierung wie sonst in der Halbleiterindustrie.
Zusammengesetzte (stitched) Sensoren gab's ja früher bei CCD, und das resultierte damals in sichtbaren Bildproblemen an den Kanten der Teilsensoren.
Beim Alexa 65-Sensor klappt´s aber recht gut.
Ich bin jedenfalls vorsichtig mit diesen allzusimplen Aussagen die sich aus dem scheinbar Offensichtlichen abzuleiten scheinen.
Es gibt schließlich auch nicht nur die eine Sensortechnik.
Screenshot 2025-05-10 at 18-46-00 CMOS BSI Sensor oder Stacked Sensor Was ist der Unterschied Kamera Basics - fotokoch.de.png
+
Was sich auch deutlich zeigt, ist doch der Fortschritt in der Sensortechnik, auch wenn der Sensor 36x24mm groß ist - was er ja auch nicht immer ist. :)
Übrigens:
Welche Kameras verfügen eigentlich über den Sensor der FX3, auf denen nicht "Sony" zu lesen ist?
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.