Durch Microsofts Kinect ist das so genannte Range Imaging schlagartig populär geworden. Hierbei wird neben der RGB-Information auch für jedes Pixel eine so genannte Z-Information gespeichert. Diese beschreibt die Tiefe des Pixels im Raum, bzw. den Abstand des Pixels zur Kamera. Um diese räumliche Tiefeninformation zu gewinnen gibt es diverse Verfahren, die auch im oben verlinkten Wikipedia-Eintrag angerissen werden.
Während Kinect mit strukturierter Beleuchtung arbeitet und über ein projiziertes Muster seinen Z-Puffer füllt, verfolgt der neue Samsung-Sensor die Time-of-Flight-Methode. Hierfür wird tatsächlich wie bei einem Radar die Laufgeschwindigkeit des Lichtes gemessen. Bisher waren für einen Time-of-Flight-Ansatz zwei Sensoren nötig, jedoch kombiniert Samsung nun eben beide Sensortypen auf einem Chip. So gewinnt ein Teil der Pixel RGB-Werte, während andere Z-Werte generieren. Dies dürfte nicht nur für mehr Genauigkeit bei der Z-Bestimmung sorgen, sondern auch weitaus kompaktere Geräte ermöglichen.
// Top-News auf einen Blick:
- Preview auf objektbasierte Maskentools in der Premiere Pro Beta
- Blackmagic DaVinci Resolve Studio ab sofort auch mit monatlicher Lizenz
- Neu und kostenlos - Adobe Premiere für iPhone
- Canon teasert neue, kompakte Kamera - Cine-Modell zur IBC?
- Revolutionärer AF für Cine-Objektive: Tilta Autofokus-Adapter zapft interne Kamera-...
Der Sensor selbst kann mit RGB-Pixeln nur fast-FullHD mit 1,920 x 720 Pixeln liefern, wobei die ausgelesenen Z-Werte sogar nur ein Raster von 480 x 360 Pixel abdecken. Grund ist hierfür unter anderem, dass die Z-Pixel wohl deutlich mehr Fläche für ein zuverlässiges Sampling benötigen.