Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Neue 3D-Kameratechnik in Entwicklung



Newsmeldung von slashCAM:


Neue 3D-Kameratechnik in Entwicklung von heidi - 26 Mar 2008 13:29:00
Vor allem natürlich für den Einsatz in der Robotik wird in Stanford eine "multi-aperture camera" entwickelt, mit der die Ermittlung genauer räumlicher Informationen möglich werden soll. Allerdings könnte das Verfahren unter Umständen auch für die normale Fotografie interessant werden. Für die Kamera sind die Pixel eines bildgebenden Sensors erheblich geschrumpft worden, auf 0,7 µm, und gruppiert. Vor jede Gruppe à 256 Pixel soll eine kleine Linse plaziert werden -- bei einem Prototyp mit 3 Megapixel käme man auf 12616 Linsen. Auf dieses Linsen-Raster wird durch ein größeres Objektiv das aufzuzeichnende Bild treffen, sodaß jeder Bildpunkt aus mindestens vier, leicht versetzten Perspektiven aufgenommen wird (für eine genauere Beschreibung siehe Link unten oder bei heise.
Nun lassen sich räumliche Informationen, sprich Abstände zwischen Bildinhalten perfekt auslesen und beispielsweise für 3D-Modelle verwenden; das Bild selbst wird weiterhin in 2D vorliegen. Doch nicht nur das: auch zur Errechnung einer "künstlichen" Tiefenunschärfe sollen diese Daten verwendet werden können (das ist auch der Grund weshalb wir das Projekt hier vorstellen). Außerdem, so die Forscher, ließen sich solche Kameras möglicherweise günstiger herstellen als herkömmliche Digitalkameras, da die Qualität des Objektives nicht mehr ausschlaggebend sei -- wohl weil die Fehler nachträglich herausgerechnet werden können.
Wann mit einem funktionierendem Prototyp gerechnet werden kann, ist leider nicht bekannt, bislang wurde lediglich der Sensor gebaut (im Bild mittig unten).

Dies ist ein automatisch generierter Eintrag


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten


Space


Antwort von Axel:

Schon vor Jahr und Tag verlinkt:
http://graphics.stanford.edu/papers/lfcamera/
Und es stimmt zwar, dass sich mit den Z-Informationen vor allem der Schärfentiefenbereich verschieben lässt. Eine Grundlage zur Erzeugung eines 3D Videos kann es trotzdem sein. Bei der Nachbarbeitung der Star Wars Filme für die hohle Leinwand wurde die Entwicklung einer Software nötig, die Z-Werte aus den vorhandenen Aufnahmen errechnet, bzw. erlaubt, diese festzulegen.
Man würde wahrscheinlich im Consumerbereich zuerst versuchen, 3D zu vermarkten, bevor man mit teilweise unscharfen Bildern wörbe. Es sei denn, die Installation im Kino (auch Der kleine Hobbit wird plastisch) erweist sich schon vorher als Reinfall.

Space


Antwort von WoWu:

Adobe hat ein solches Modell bereits vorgestellt, das darauf beruht, die Linsenkombination vor dem Objektiv anzusetzen und so die Z-Information zu gewinnen.
Auch wird seit etlichen Zeit das Prinzip, bereits Schärfentiefe aus den Informationen zu gewinnen in der Game-Programmierung eingesetzt. (Tiefenabhängige Filterung)
Es ist also wirklich keine Neuerung, auch wenn man ein aktuelles Datum darauf druckt.
Darüber hinaus ist es möglich, jedem Pixel eines CMOS auch zukünftig eine solche Information zuzuordnen und mit einem Filterwert zu belegen. Tiefenschärfe kommt also sehr bald nicht mehr aus irgendwelchen Adaptern oder Objektiven sondern aus dem Rechner. Dabei können LUT unterschiedlicher Objektive (und Brennweiten) nachgebildet und abgerufen werden.
Bei 3-D besteht vermutlich noch eine ganze Weile das Problem, die klassischen Kantenunschärfen, die sich aus dem Blickwinkel und der Brechung ergeben, realistisch nachzustellen.

Space


Antwort von Axel:

Darüber hinaus ist es möglich, jedem Pixel eines CMOS auch zukünftig eine solche Information zuzuordnen und mit einem Filterwert zu belegen. Tiefenschärfe kommt also sehr bald nicht mehr aus irgendwelchen Adaptern oder Objektiven sondern aus dem Rechner. Sehr interessant. Wäre es nicht >Off Topic< auch denkbar, mit einzeln ansteuerbaren Pixeln einen größeren Dynamikumfang zu erreichen? Durch so eine Art Kombi aus Belichtungsreihe und Pixelshift? Die Sony HD HDR DOF-1, auf die Kamera fang ich dann mal an zu sparen ;-)))

Space


Antwort von Anonymous:

Na ja, so etwas ähnliches wird ja schon gemacht, durch das selektive Gamma bzw. unterschiedliche Blendenwerte für einzelne Pixel (cluster).
In ein paar Jahren werden wir verwundert zurücksehen, über was wir uns (damals) alles die Haare gerauft haben. Deswegen verteufele ich den CMOS auch nicht gleich, nur weil er mal ein paar merkwürdige Effekte zeigt. Dahin kommen die Firmen auch noch, zwei weitere Transistoren pro Pix. auf den Sensor zu designen und ihm damit noch ein anderes Shutter zu spendieren.
Die augenblickliche Katastrophe sehe ich in der Miniaturisierung (für das Handy). Mittlerweile werden mehr Fotos mit Handys gemacht, als mit Fotoapparaten. ... Wie also wird das bei den Kameras werden ? Dann nämlich werden gute Kameras wieder richtig teuer. .... Aber eben auch gut.

Space


Antwort von WoWu:

Und eingelogged war ich auch wieder nicht ... vielleicht noch ein Wort zum Dynamikumfang:
Das ist eigentlich schon auf dem besten Weg, abgeleitet aus der Fotographie. Pro beieinander liegendem Pixel einen unterschiedlichen Blendenwert und in der Summe hast Du einen Dynamikumfang, von dem man nur träumen kann, bei dem jeder Bildpunkt durchgezeichnet ist.

Space


Antwort von B.DeKid:

@ Wolfgang
Klär mich mal auf was bedeutet "LUT" danke.

Space


Antwort von WoWu:

Look-up-table: Ein "Verzeichnis" aus dem Werte zu bestimmten Einstellungen oder Anforderungen statisch oder dynamisch geholt werden.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Atomos kündigt Entwicklung von ProRes RAW Support von Ninja V für neue Sony FX3 und A1 an
Vier neue, analoge 65-mm-IMAX Filmkameras in der Entwicklung
Nikons neue Video-Strategie - Remote-Handgriff (MC-N10) für Z-Kameras in Entwicklung
Neue Comp Software in entwicklung
Adobe unterstützt Blender-Entwicklung
Apple: Neues 7K Studio Display mit integriertem Apple Silicon in Entwicklung?
Interview mit Yosuke Yamane zur Entwicklung der Panasonic GH6
Gezähmte Grafikkarten-Entwicklung bei AMD und Nvidia in 2024?
Tamron kündigt die Entwicklung eines 17-50mm f/4 für Kleinbild an
Look Entwicklung für Doku
Variabler, elektronischer Diffusionsfilter für Cine-Setups in Entwicklung
Nikon kündigt Entwicklung von Powerzoom Nikkor 28-135mm f/4 PZ für Video an
Sensor Entwicklung A7III zu ZV-E1 oder FX3
Sigma 28-45mm T2 FF und 28-105mm T3 FF in Entwicklung
Metalenz: Neue Nano-Technologie schrumpft Obektive und ermöglicht neue Anwendungen
Neue On Semi XGS 45000 S35-Sensoren - Vorboten auf ARRIs neue Kamera(s)?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash