Hast Du da wirklich das richtige Video verlinkt? Das oberflächliche Gelaber der beiden ist kaum auszuhalten und bin das nur schnell durchgesprungen - richtige Vergleiche habe ich da aber keine gefunden...R S K hat geschrieben: ↑Mi 16 Dez, 2020 14:06 Eine, wie immer, sehr gute Übersicht von Austin Mann dazu.
Offiziell nur iPhone 12 Pro oder höher. Ob das seitens Drittanbieter hinzuhacken ist vermag ich nicht zu sagen.
HÄ? Video? 🤨 Das ist ein Artikel/Blog. Mit reichlich Beispielen, ja. 🙄
Ah danke - hatte auf den Link geklickt und dann auf das erste Video.R S K hat geschrieben: ↑Mi 16 Dez, 2020 14:41HÄ? Video? 🤨 Das ist ein Artikel/Blog. Mit reichlich Beispielen, ja. 🙄
Klartext: http://austinmann.com/trek/iphone-proraw
- RK
Wäre auch nicht slashCAM wenn nicht immer etwas Richtung „Alles Schall und Rauch bei Apple! Die machen immer nur alles nach und tun so als hätten sie es erfunden!” kommen würde. 😜 Denn auch hier wieder ist es nicht eine Frage ob sie es zuerst gemacht, sondern WIE sie es gemacht haben
Ergo: scheint mir als wäre eine besondere Benennung nicht nur Marketing-Gelaber, wo es nicht einfach eine ganz simple DNG Implementierung ist, sondern schon noch mit ein bisschen Apple „Magic” drin. ;)Technically, there’s no such thing as a ProRAW file. ProRAW images are regular DNG files that take advantage of some little known features in the specification, and introduce a few new ones. […]
Dass das weder die erste noch einzige Implementierung ist haben wir schon längst etabliert, ja. Hat auch niemand was anderes behauptet. 🙄
Von Prinzip her genauso „RAW” wie BRAW, ja. Teil-debayert. Nur komisch wie keiner in dem Kontext einen reißerischen Blogeintrag schreibt. 🤔
Du meinst genau wie ProRAW auch oder von mir aus mit Halide & Co., nur eben nicht mit allen Kameras? Super.cantsin hat geschrieben: ↑Mo 11 Jan, 2021 15:16… nur mit und innerhalb von DNG. Wenn man mit Googles Pixel-Smartphones DNG aufnimmt, landen ebenfalls alles "computational photography" -Bildtuning in der Datei, die aber als scheinbar normales, undebayertes DNG in Lightroom, Rawtherapee & Co bearbeitet werden kann.
Ja, genau wie ProRAW, aber nur auf ihren eigenen (Pixel-) Smartphones, nicht als Standard-Android-Feature.R S K hat geschrieben: ↑Mo 11 Jan, 2021 16:02Du meinst genau wie ProRAW auch oder von mir aus mit Halide & Co., nur eben nicht mit allen Kameras? Super.cantsin hat geschrieben: ↑Mo 11 Jan, 2021 15:16… nur mit und innerhalb von DNG. Wenn man mit Googles Pixel-Smartphones DNG aufnimmt, landen ebenfalls alles "computational photography" -Bildtuning in der Datei, die aber als scheinbar normales, undebayertes DNG in Lightroom, Rawtherapee & Co bearbeitet werden kann.
in wahrheit kann man Gcam allerdings auch auf fast allen anderen android handys nutzen, wenn man modifizierte versionen davon installiert:
darin würde ich trotzem den den größeren vorteil auf android seite sehen.
Da hat einer scheinbar nicht mitbekommen, dass das genauso mit einem beliebigen iPhone seit Jahren geht. ProRAW kann man also bei bestimmten Punkten als Verbesserung sehen… oder es lassen.
Ach so. Klar. Weshalb du ja auch sagst
Jo. Macht absolut Sinn. 😄
Sehe ich genauso.
ProRAW ist in wahrheit einfach nur ein geringfügig adaptiertes DNG-format!
doch! -- derartige deepth-maps findest du auch in vielen android photos seit drei-vier jahren, wobei das betreffende format mittlerweile bereits einmal einschneidend verändert bzw. verbessert wurde. die notwendigen daten sind sogar in den metainformationen ganz gewöhnlicher JPEG aufnahmen enthalten. hauptsächlich werden sie dazu genutzt, die tiefenschärfe der kleinen optiken mit rechnerischen tricks zu kompensieren = portaits freizustellen. man muss die dafür notwendige tiefeninformation nicht unbedingt mit lidar-hardware erfassen, es geht durchaus auch mit stereoskopischen techniken od. structure-from-motion.
Bravo! 👏🏼 Dann hast du ja verstanden was ich schrieb! 👍🏼
Aber ehrlich!! Wie kommen die dazu ihre eigene Variante oder, wenn man so will, Weiterentwicklung/Anpassung des Formats auch einen Namen zu geben um die Differenz aufzuzeigen??!! Verbrecher!!
Genau! Wo ein „deepth[sic]-map” ja im Grunde genau das gleiche ist wie LiDAR! (und es nicht seit min. so lange auch schon den „Portrait” Modus am iPhone gibt) Ich verstehe nicht mal warum Apple das ganze überhaupt erst eingebaut hat, wo sie damit doch den „größeren Vorteil auf Android Seite” voll in die Hände spielen!
die verwendung von lidar (apple) und radar (google) in den handys ist meines erachtens nach bisher wirklich nur ein völlig unbedeutender nebenschauplatz ohne große praktische relevanz.
Das sagt nur einer der nicht die geringste Ahnung hat wie und wofür es (beim iPhone) verwendet wird. Aber wer schon LiDAR und Radar in einen Topf wirft und völlig irrelevanterweise auf autonomes Fahren abgleitet… naja. 🙄