[11:09 Sa,1.Oktober 2016 [e] von Rudi Schmidts] |
Stu bescheinigt dem neuen Effekt dann auch sehr politisch korrekt, schon gut genug zu sein, um Fotos emotional wertvoller zu machen. Die Unschärfe selbst kommt zwar nicht an professionelle Bokeh-Algorithmen heran, aber funktioniert optisch dennoch recht ansprechend. Die Objektränder fallen dagegen oft sehr weich und unsauber aus, während echtes Bokeh oft durch eine klare Kante zwischen den Schärfeebenen besonders interessant wirkt. Unserer Meinung wirklich bemerkenswert ist jedoch die Möglichkeit, diesen Effekt schon in der Display-Vorschau in Echtzeit begutachten zu können. Denn dies könnte mittelfristig auch Bokeh in Videoaufnhamen bei kleinen Sensoren zaubern. Und damit könnten wiederum Smartphones für eine noch weitere Anwenderschicht interessant werden, die bislang noch wegen der Tiefenschärfe zur separaten Kamera greift. Doch auch wenn Apple diese Technologie heute schon verkauft. Von einem (semi-)professionellen (Film-)Einsatz ist sie noch weit entfernt. In der Mitte des verlinkten Artikels ist seit kurzem ein Videoclip eingebunden, der die Live-View des iPhones beim Tiefenschärfe-Effekt zeigt. Betrachtet man hier die Objektkanten (im Vollbild-Modus am PC) sieht man noch sehr genau, dass hier digital getrickst wird. Was dazu in einem bewegten Bild noch deutlicher auffällt. Doch was nicht ist, wird wohl schnell werden. Zumal wir uns auch gut eine Applikation vorstellen können, die auf dem PC die Tiefenschärfe-Ebenen aus mehreren synchron laufenden Kameras erzeugt und dann mit exakten Kanteninformationen dienen kann. Lytro hat so etwas ja schon ![]() ![]() ![]() ![]() |
![]() |