Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // iPhone 7 Plus - Tiefenschärfe Effekt analysiert



Newsmeldung von slashCAM:


Stu Maschwitz hat sich wieder einmal eines durchaus interessanten Themas angenommen: Er hat sich den Tiefenschärfe-Effekt des neuen iPhone 7 Plus sehr detailliert angeseh...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
iPhone 7 Plus - Tiefenschärfe Effekt analysiert


Space


Antwort von Bruno Peter:

Betrachtet man hier die Objektkanten (im Vollbild-Modus am PC) sieht man noch sehr genau, dass hier digital getrickst wird. Soll das verwerflich sein?
Es werden halt mehr oder weniger intelligente mathematische Beziehungsberechnungen gemacht, die sich noch weiter entwickeln werden in der Zukunft.

Seit dem Beginn der Digitalkamera-Aufnahme wird doch schon immer "getrickst" und es sind kontinuierlich Verbeserungen bis heute gelungen.

Mein Sony Xperia Z2 von 2014 kann ebenfalls Vordergrundmotive freistellen,
das gelingt mit zwei Aufnahmen die in diesem Modus blitzschnell hintereinander deckungsgleich gemacht werden meist sehr gut. Man hat aber auch noch bei ungeeigneter Motivkonstellation manchmal Mißerfolge.
Ich kann mit drei verschiedenen Freistellungsvarianten arbeiten und zwar stufenlos, alles kontrollierbar direkt auf dem Display des Smartphones!

Space


Antwort von WoWu:

Das ist wohl wahr.
Wo man sich früher über Filmemulsionen oder Objektiveigenschaften unterhalten hat, wird man sich in den nächsten Jahren wohl darüber Unterhalten, ob neuronale Netzwerke, Bayes Netzwerke oder Markov-Ketten besser geeignet sind für Videoaufnahmen und welcher Algorithmus die natürlichere Kante oder die bessere Hautfarbe errechnen kann und bei der Gelegenheit auch gleich auswählt, ob die Person im Hintergrund ein Farbiger, oder Weißer ist.
Aus Google Earth sucht man sich dann noch die Position der Szene in der Welt aus und die Perspektive sowie die Freunde, die in der Szene mitspielen sollen und die Polygon basierte Bilddarstellung trägt Google aus der eigenen Polygon Bibliothek bei.

Ach ja, das Wetter kann man natürlich auch selbst bestimmen und die Klamotten, die man an hat kommen selbstredend vom Sponsor.

Tja und der Sprecher kommt natürlich auch vom "Text-to-Speech".

Und überhaupt ist das eine tolle Sache, wenn man für seine Urlaubsvideos nicht mal mehr hinfahren muss.

Space


Antwort von srone:

Das ist wohl wahr.
Wo man sich früher über Filmemulsionen oder Objektiveigenschaften unterhalten hat, wird man sich in den nächsten Jahren wohl darüber Unterhalten, ob neuronale Netzwerke, Bayes Netzwerke oder Markov-Ketten besser geeignet sind für Videoaufnahmen und welcher Algorithmus die natürlichere Kante oder die bessere Hautfarbe errechnen kann und bei der Gelegenheit auch gleich auswählt, ob die Person im Hintergrund ein Farbiger, oder Weißer ist.
Aus Google Earth sucht man sich dann noch die Position der Szene in der Welt aus und die Perspektive sowie die Freunde, die in der Szene mitspielen sollen und die Polygon basierte Bilddarstellung trägt Google aus der eigenen Polygon Bibliothek bei.

Ach ja, das Wetter kann man natürlich auch selbst bestimmen und die Klamotten, die man an hat kommen selbstredend vom Sponsor.

Tja und der Sprecher kommt natürlich auch vom "Text-to-Speech".

Und überhaupt ist das eine tolle Sache, wenn man für seine Urlaubsvideos nicht mal mehr hinfahren muss. :-)))

lg

srone

Space


Antwort von Jörg:

Und überhaupt ist das eine tolle Sache, wenn man für seine Urlaubsvideos nicht mal mehr hinfahren muss.
...oder sich alles gleich dort anschaut...quasi mit eigenen Augen.

Space


Antwort von WoWu:

und am besten gleich da bleibt ... ;-)

Space


Antwort von Schwermetall:

Das ist wohl wahr.
Wo man sich früher über Filmemulsionen oder Objektiveigenschaften unterhalten hat, wird man sich in den nächsten Jahren wohl darüber Unterhalten, ob neuronale Netzwerke, Bayes Netzwerke oder Markov-Ketten besser geeignet sind für Videoaufnahmen und welcher Algorithmus die natürlichere Kante oder die bessere Hautfarbe errechnen kann und bei der Gelegenheit auch gleich auswählt, ob die Person im Hintergrund ein Farbiger, oder Weißer ist.
Aus Google Earth sucht man sich dann noch die Position der Szene in der Welt aus und die Perspektive sowie die Freunde, die in der Szene mitspielen sollen und die Polygon basierte Bilddarstellung trägt Google aus der eigenen Polygon Bibliothek bei.

Ach ja, das Wetter kann man natürlich auch selbst bestimmen und die Klamotten, die man an hat kommen selbstredend vom Sponsor.

Tja und der Sprecher kommt natürlich auch vom "Text-to-Speech".

Und überhaupt ist das eine tolle Sache, wenn man für seine Urlaubsvideos nicht mal mehr hinfahren muss. :-)

... tja, aber wo will man die Grenze ziehen?

Eine nachträglich, künstlich erzeugte Unschärfe kann helfen, das Bild realistischer zu machen.
- Netter Satz, oder?

Grüße,
Alex

Space


Antwort von WoWu:

Ja, das ist wohl wahr, wo will man sie ziehen ?
Meiner Meinung nach ist die Grenze bereits gezogen und der Paradigmenwechsel hat bereits stattgefunden, denn mit den physikalischen Grenzen geht ein Umdenken einher und die Akzeptanz des künstlichen Bildes findet bereits statt.
Natürliche Bildinhalte werden durch künstliche Inhalte ersetzt.
Und Bildästhetik scheint sowieso eine Frage des Zeitgeistes zu sein.
Warum soll sich also das bewegte Bild nicht zukünftig auch im virtuellen Raum abspielen ?
Aber einen riesigen Vorteil hat das Ganze ja ... man braucht keine Kameras mehr.
Übrigens ist die ganze künstliche Unschärfe ja auch nicht neu.
Wir haben schon 2008 mit einer solchen "damals Testsoftware" gearbeitet, die es zuließ mehrere Schärfeebenen in einem Bild zuzulassen.
Damals noch auf der Layerbasis von MPEG4, sodass man in der Post noch Einfluss hatte.
Also ganz so neu, wie es heute angepriesen wird, ist es nicht und es war eigentlich abzusehen, wann die Rechner in den Kameras schnell genug sein würden, das zu rechnen.

Space


Antwort von domain:

Und überhaupt ist das eine tolle Sache, wenn man für seine Urlaubsvideos nicht mal mehr hinfahren muss. Wenn man nicht gerade für andere Leute arbeitet, um damit den Lebensunterhalt zu verdienen, dann kommt das private Filmen mit Ausnahme von Familienvideos wohl eher einem Jagderlebnis in Verbindung mit einer kreativen Postgestaltung und letztendlicher Konservierung im Archiv gleich.
Aber so ein 16-Ender-Geweih, ev. sogar mit ausgestopfter Kopfhaut und Glasaugen erinnert doch viel besser als ein Foto im Album: 13*15 Hirsch mit Kräutergarnierung im Maul.
Aber schon ein 30*40 Foto im geschnitzten Zirbelholzrahmen ist viel präsenter als jedes Video, das man sich ohnehin nie mehr ansieht.
Also Folk: neben Videos jedenfalls auch Fotos machen und aufhängen.

Space



Space


Antwort von CineMika:

Wäre es nicht die Lösung, wenn es eine Software für die Kantenberechnung geben würde die davon ausgeht, das man bei der Aufnahme leicht hin-und her schwankt (so das sich der Hintergrund immer leicht verschiebt)?????
(zuerst mal beim Still Image)

Space


Antwort von WoWu:

Das Problem ist, dass man möglichst harte Kanten erzeugen muss, um überhaupt noch die zusätzliche spatiale Bildauflösung zu erreichen, natürliche Kanten sich aber dadurch auszeichnen, dass sie einen Lichtverlauf haben.
Damit können die Videoberechnungen alle nicht dienen, speziell nicht in solchen Applikationen, bei denen freigestellt werden muss.
Und natürlich erst recht nicht, wenn sich auch noch im Bild was bewegt.
Von guten Lösungen sind wir also sowieso noch eine Weile entfernt.
Aber 90% der Anwender reicht das, sowie ihnen der Aufkleber 4K reicht, wo nur 1/4 Bildinhalte drin sind.
Es ist alles eine Frage des Anspruchs und der Definition eines jeden Einzelnen, was ein gutes Bild ist.
Die meisten ziehen ein kontrastreiches Bild einem gut aufgelösten Bild sowieso vor.

Space


Antwort von sgywalka is back:

Geh... die Software ist alleine in den Urlaub gefahren, hat autonom vor Ort
123.00000 Überwachungscams ausgewertet, frägt deine ( syntheische_dna_vorlieben
pre_time_interagentierend ab und ...) DU bist happy, weil Du gerade DA bist.
Einige wurden wahnsinnig ( Tabeltten net vergessen! :) ) und haben angefangen an der
Tapete zu kratzen..... nur... es gibt keine ( weil das Geld kostet)...Du bist die Tapete!

Man könnte nun 4 Kameras einbauen, und so verscheidene Scenarien spielen.
( ist ja dem flach-3,5mm geschuldet)
- ein mal das ganze Überwachungs verz. Mess-theater
-dann ( aber ander techbaustelle) ist unter dem Wisch-screeen eine dna-scan-einheit verbaut ( neben 3d time date your data.. nice) ( $$$$)-die auch sog. Eigenschaften des Users vorerkennt = wackelt er weil er sauft oder weil er die Alte gerade kennen lernt.
gender-bereinigt
wackelt Sie weil sie...
wackelt es weil es
-wackelt das weil das--und halt die restlichen politisch markeitng korreckten Helden-geschlechter ( $$$$$)
und damit scharf stellen oder nicht oder bereists unerwünschtes weg rechnen
(a.) ne minigreenbox (b.) antipickel-soziale-netzwerke-App (c.) universitätsabschluss für auch vorderasiatische wasguckstdu iq23-plattenbau-rabiatling... etzerra
- 4k und mehr Sensorfläche über Umwegen
-4k 3d game vr ( dafür kleiner Fläche)
usw.

Space


Antwort von sgywalka is back:

" mann muß nicht unsmypahtisch wirken, um als Araxhloch sympahtisch zu sein..."

Ich texte und interpretiwer gerade politische Statements um, weil wir eine Doku über
den Bundestags ab ge... und da ich als politisch gebildeter Mensch meine 3 Hochschulabschlüsse net weghauen will und zum Dirty Harry werde, suhle ich mich in dieser schelimigen Grütze und fine es wissnschaftlich sympahtisch ( FASZINIEREND)
um so den Speibreflex bis 10 Oct zu kontrollieren---oida.
ich vergas meine Vulkanische Mutter war ja Oma-seits Rommulanisch..
na dann DISRUPTOR auf maximal stellen..

Nachtrag is der.. WO WIRD WENN SOFTWARE SEITIG GETRÜRGT WIRD WAS
WIE WO berechnet und somit verkünstelt?

Bei Photos ist es simpel, ein BILD = Das hat Datengrösse und ward statisch
Bei 25 Bilder / sec.... wenn der Computer im Phoen besser ist wie in einer sagen wir
G6 A6000... klar was ick mene?? Grüsse

Space


Antwort von WoWu:

nee...

Space


Antwort von Starshine Pictures:

Ich hol diesen Thread noch mal hoch. War heut beim Winterspaziergang und hab mit dem iPhone 7 plus ein paar Fotoaufnahmen gemacht. Der "Tiefeneffekt" mag sicher nicht perfekt sein, aber es wertet die Aufnahmen meiner Meinung nach doch drastisch auf. Ich hänge hier mal ein Beispiel an. Das Original ohne Tiefeneffekt, dann mit TE und noch das in der VSCOcam App bearbeitete File.



Grüsse, Stephan von Starshine Pictures

Space


Antwort von motiongroup:

Daumen... ich kann mich immer noch überwinden ein neues zu kaufen..

Space


Antwort von Starshine Pictures:

Man muss jedoch dazu sagen dass der Effekt schon recht tricky zu händeln ist. Mal ist man zu weit weg, dann wieder zu nah dran, oder es werden auch mal Dinge weg geblurt die eigentlich scharf sein sollten. Solche Sachen lassen sich dann durch Positionsänderungen oder manueller Fokussierung korrigieren. Ausserdem genehmigt sich der Auslöser eine reichliche halbe Sekunde Bedenkzeit bis es mal Klick macht. Der Portraitmodus ist also ganz klar keine Option für die wirklich richtig schnellen Schnappschüsse. Aber wer sich einige Sekunden für die Einrichtung nehmen kann und kein allzu flinkes Motiv vor sich hat, der wird seine Freude damit haben.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Samsung: Neue PRO Plus und EVO Plus SDXC-Speicherkarten für Filmer und Fotografen
Samsung: Neue Pro Plus und Evo Plus microSD/SD-Karten mit bis zu 160 MB/s
Neue Samsung PRO Plus und EVO Plus microSD-Karten mit 1TB
Nächste iPhone-Generation soll in ProRes filmen können (mit Bokeh-Effekt)
DJI Ronin SC + Sony A7iii 24mm 1.4 GM & Iphone 11 Plus
Adobes Premiere Rush bekommt Auto Reframe und Pan&Zoom Effekt
Adobe Premiere Elements 2021 verfügbar mit neuen Effekt-Funktionen
Effekt über mehrere Spuren in PP
Effekt-Kette: Compressor =>Sprache oder Musik => Limiter
Fragen zu diesem Effekt...
Kann man beim Bild-in-Bild-Effekt die Ecken abrunden?
audio effekt Radio
BorisFX Continuum 2023 erschienen ua. mit neuem Glow-Effekt
Seltsamer "Effekt" auf Timeline bei XML-Import
Ein Effekt auf mehrere Textebenen legen
Spaß mit NVIDIAs neuem Blickkontakt-Effekt: Robert De Niro schaut Dir in die Augen
Premiere Pro 2023 Effekt verursacht Geisterbild
Zerlegevideo: Regenbogen Effekt und digitale Projektoren




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash