Panasonic-Entwickler stellen in der aktuellen Fachzeitschrift Nature eine neue Sensortechnologie vor, mit der sich eine 1,85-fache Lichtausbeute erzielen lassen soll, verglichen mit normalen CMOS-Sensoren, die Farbinformationen via Bayerfilter registrieren. Letzterer liegt vor einem herkömmlichen (1-Chip-)Sensor und läßt pro Pixel
jeweils nur eine der drei Primärfarben durch, damit vom Sensor ein farbiges Bild generiert werden kann, filtert dabei jedoch auch viel Helligkeit raus (bis zu 50-70% des Lichts geht verloren). Bei dem neuen Verfahren liegt statt einem Bayerfilter eine Schicht mit mikroskopisch kleinen Prismen vor dem Sensor. Statt zu filtern wird hier das Licht geplittet, sodaß die dahinterliegenden Pixel
verschiedene Farbinformationen erhalten -- praktisch ohne Lichtverlust, laut Entwickler. Wie der Grafik zu entnehmen, scheinen dabei auch eine Art Luma-Pixel vorgesehen zu sein. Dank überlappender Pixelstruktur soll ein Bild mit hoher Farbtreue errechnet werden können.
Die Herangehensweise, die sich übrigens gleichermaßen für CMOS wie auch CCDs eignet, erinnert also an das etwas aus der Mode gekommene 3-Chip Prinzip -- dort splittet ein Prisma das einfallende Licht in die drei Farben rot / grün / blau, und lenkt die getrennten Farbstrahlen auf jeweils einen eigenen Chip, sodaß für jeden Pixel
die vollen RGB-Werte vorliegen. Panasonics Neuentwicklung kehrt dabei die Mengenverhältnisse um, statt einem Prisma hier viele Splitter, die das Licht farblich getrennt jedoch auf nur einen Chip werfen.
Die neuen Sensoren können anscheinend in existierenden Halbleiter-Fertigungsprozessen hergestellt werden, doch eine Weile wird man sich sicherlich noch gedulden müssen, bis sie in die Serienproduktion gehen, um dann in Kameras wandern...