Newsmeldung von slashCAM:Neue 3D-Kameratechnik in Entwicklung von heidi - 26 Mar 2008 13:29:00
Vor allem natürlich für den Einsatz in der Robotik wird in Stanford eine "multi-aperture camera" entwickelt, mit der die Ermittlung genauer räumlicher Informationen möglich werden soll. Allerdings könnte das Verfahren unter Umständen auch für die normale Fotografie interessant werden. Für die Kamera sind die Pixel eines bildgebenden Sensors erheblich geschrumpft worden, auf 0,7 µm, und gruppiert. Vor jede Gruppe à 256 Pixel soll eine kleine Linse plaziert werden -- bei einem Prototyp mit 3 Megapixel käme man auf 12616 Linsen. Auf dieses Linsen-Raster wird durch ein größeres Objektiv das aufzuzeichnende Bild treffen, sodaß jeder Bildpunkt aus mindestens vier, leicht versetzten Perspektiven aufgenommen wird (für eine genauere Beschreibung siehe Link unten oder
bei heise.
Nun lassen sich räumliche Informationen, sprich Abstände zwischen Bildinhalten perfekt auslesen und beispielsweise für 3D-Modelle verwenden; das Bild selbst wird weiterhin in 2D vorliegen. Doch nicht nur das: auch zur Errechnung einer "künstlichen" Tiefenunschärfe sollen diese Daten verwendet werden können (das ist auch der Grund weshalb wir das Projekt hier vorstellen). Außerdem, so die Forscher, ließen sich solche Kameras möglicherweise günstiger herstellen als herkömmliche Digitalkameras, da die Qualität des Objektives nicht mehr ausschlaggebend sei -- wohl weil die Fehler nachträglich herausgerechnet werden können.
Wann mit einem funktionierendem Prototyp gerechnet werden kann, ist leider nicht bekannt, bislang wurde lediglich der Sensor gebaut (im Bild mittig unten).
Dies ist ein automatisch generierter Eintrag
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten
Antwort von Axel:
Schon vor Jahr und Tag verlinkt:
http://graphics.stanford.edu/papers/lfcamera/
Und es stimmt zwar, dass sich mit den Z-Informationen vor allem der Schärfentiefenbereich verschieben lässt. Eine Grundlage zur Erzeugung eines 3D Videos kann es trotzdem sein. Bei der Nachbarbeitung der Star Wars Filme für die hohle Leinwand wurde die Entwicklung einer Software nötig, die Z-Werte aus den vorhandenen Aufnahmen errechnet, bzw. erlaubt, diese festzulegen.
Man würde wahrscheinlich im Consumerbereich zuerst versuchen, 3D zu vermarkten, bevor man mit teilweise
unscharfen Bildern wörbe. Es sei denn, die Installation im Kino (auch
Der kleine Hobbit wird plastisch) erweist sich schon vorher als Reinfall.
Antwort von WoWu:
Adobe hat ein solches Modell bereits vorgestellt, das darauf beruht, die Linsenkombination vor dem Objektiv anzusetzen und so die Z-Information zu gewinnen.
Auch wird seit etlichen Zeit das Prinzip, bereits Schärfentiefe aus den Informationen zu gewinnen in der Game-Programmierung eingesetzt. (Tiefenabhängige Filterung)
Es ist also wirklich keine Neuerung, auch wenn man ein aktuelles Datum darauf druckt.
Darüber hinaus ist es möglich, jedem Pixel eines CMOS auch zukünftig eine solche Information zuzuordnen und mit einem Filterwert zu belegen. Tiefenschärfe kommt also sehr bald nicht mehr aus irgendwelchen Adaptern oder Objektiven sondern aus dem Rechner. Dabei können LUT unterschiedlicher Objektive (und Brennweiten) nachgebildet und abgerufen werden.
Bei 3-D besteht vermutlich noch eine ganze Weile das Problem, die klassischen Kantenunschärfen, die sich aus dem Blickwinkel und der Brechung ergeben, realistisch nachzustellen.
Antwort von Axel:
Darüber hinaus ist es möglich, jedem Pixel eines CMOS auch zukünftig eine solche Information zuzuordnen und mit einem Filterwert zu belegen. Tiefenschärfe kommt also sehr bald nicht mehr aus irgendwelchen Adaptern oder Objektiven sondern aus dem Rechner.
Sehr interessant. Wäre es nicht >Off Topic< auch denkbar, mit einzeln ansteuerbaren Pixeln einen größeren Dynamikumfang zu erreichen? Durch so eine Art Kombi aus Belichtungsreihe und Pixelshift? Die Sony HD HDR DOF-1, auf die Kamera fang ich dann mal an zu sparen ;-)))
Antwort von Anonymous:
Na ja, so etwas ähnliches wird ja schon gemacht, durch das selektive Gamma bzw. unterschiedliche Blendenwerte für einzelne Pixel (cluster).
In ein paar Jahren werden wir verwundert zurücksehen, über was wir uns (damals) alles die Haare gerauft haben. Deswegen verteufele ich den CMOS auch nicht gleich, nur weil er mal ein paar merkwürdige Effekte zeigt. Dahin kommen die Firmen auch noch, zwei weitere Transistoren pro Pix. auf den Sensor zu designen und ihm damit noch ein anderes Shutter zu spendieren.
Die augenblickliche Katastrophe sehe ich in der Miniaturisierung (für das Handy). Mittlerweile werden mehr Fotos mit Handys gemacht, als mit Fotoapparaten. ... Wie also wird das bei den Kameras werden ? Dann nämlich werden gute Kameras wieder richtig teuer. .... Aber eben auch gut.
Antwort von WoWu:
Und eingelogged war ich auch wieder nicht ... vielleicht noch ein Wort zum Dynamikumfang:
Das ist eigentlich schon auf dem besten Weg, abgeleitet aus der Fotographie. Pro beieinander liegendem Pixel einen unterschiedlichen Blendenwert und in der Summe hast Du einen Dynamikumfang, von dem man nur träumen kann, bei dem jeder Bildpunkt durchgezeichnet ist.
Antwort von B.DeKid:
@ Wolfgang
Klär mich mal auf was bedeutet "LUT" danke.
Antwort von WoWu:
Look-up-table: Ein "Verzeichnis" aus dem Werte zu bestimmten Einstellungen oder Anforderungen statisch oder dynamisch geholt werden.