Time of Flight / LiDAR continuous autofocus is really quite remarkable technology. There are rumours Panasonic will implement it on future cameras like the GH6. Don’t you wish the current AF-challenged cameras (like the Blackmagic Pocket 4K or Panasonic GH5) could do smooth Dual Pixel AF-style continuous autofocus?
Well, you could soon be in luck. Time of Flight Autofocus is a reality and I’ve seen it working.
With this prototype add-on, a ToF/LiDAR sensor sits in the hotshoe and talks wirelessly to the Pocket 4K via a Bluetooth controller. The autofocus motors in the Micro Four Thirds lens are commandeered based on real-time depth sensing information from the LiDAR beam.
Lidar für Autofokus halte ich zu langsam. Auch oben im Beispiel sieht man eine deutlich Verzögerung und hier sind es nur optimierte zwei Punkte.
2016 hatte schon jemand ähnliches gebaut,
Frank Glencairn hat geschrieben: ↑Sa 20 Jul, 2019 09:56
Ich glaub nicht daß irgendjemand da was "reinprogrammieren" kann, was die Hardware nicht hergibt.
Bei meiner Pocket waren es immer mehrere Frames die ausgelöst wurden..... war großer Mist, wollte eine Animation mit meinen 70er Jahre Magnetbuchstaben machen.
Ich frage mich nur, warum statt einen 200 Euro Lidar nicht einen Ultraschallsender für 1 Euro benutzt wird. Er ist auf einen Zentimeter genau und funzt zwischen 0,5 bis 12 Meter recht gut und ist schneller.
Das hat man in den 80ern des letzten Jahrtausends schon begriffen, dass Ultraschallsensoren nicht für AF taugen. Abgesehen von den Polaroid-Kameras mit Weitwinkel, wo es für Standardsituationen vielleicht gerade so reichte, wenn man nur 'irgendwas offensichtliches' vor der Kamera hatte.
Auch LIDAR bringt wenig, wenn es nicht eine integrierte und intuitive Methode gibt, den gewünschten AF Bereich gezielt zu selektieren. Eye-Tracking über den von der Optik auch konkret abgebildeten Bildausschnitt bzw. Touch-Fokus mit angepasster Fokussierungsdynamik ist da mit Sicherheit zielführender, basierend auf üblichen Phasen-/Kontrast-/DualPixel bzw. Hybridverfahren.
Das ist ein Ultraschallentfernungsmesser - der arbeitet aber nicht 'autonom', sondern in Kombination mit einem Fokuspuller. Nur eine Alternative zum etablierten Bandmaß. Glaubst Du im Ernst, ein Kameramann macht seine Kadrierung abhängig von der tumben Erfassungskeule einer Ultraschallkapsel?
carstenkurz hat geschrieben: ↑Sa 20 Jul, 2019 11:52
Das hat man in den 80ern des letzten Jahrtausends schon begriffen, dass Ultraschallsensoren nicht für AF taugen. Abgesehen von den Polaroid-Kameras mit Weitwinkel, wo es für Standardsituationen vielleicht gerade so reichte, wenn man nur 'irgendwas offensichtliches' vor der Kamera hatte.
Auch LIDAR bringt wenig, wenn es nicht eine integrierte und intuitive Methode gibt, den gewünschten AF Bereich gezielt zu selektieren. Eye-Tracking über den von der Optik auch konkret abgebildeten Bildausschnitt bzw. Touch-Fokus mit angepasster Fokussierungsdynamik ist da mit Sicherheit zielführender, basierend auf üblichen Phasen-/Kontrast-/DualPixel bzw. Hybridverfahren.
Eigentlich ist das alles so 1990, und löst einen großen Teil der tatsächlichen Probleme nicht.
Vor ein paar Jahren wurde mal ein System mit knopfgroßen Sendern, die man am Körper tragen kann vorgestellt.
Der Fokus wurde immer automatisch auf der Position des Beacon gehalten.
Damit konnte man locker Sachen mit Offenblende realisieren, die sonst nahezu unmöglich gewesen wären - leider ist nix draus geworden, das war schon sehr beeindruckend. Leider finde ich das Video nicht mehr.
Da fehlt dann noch eine Art Nerf Pistole um die Sender wirksam aus grösserer Distanz auf der Zielperson zu platzieren.
Peng....Aua...oh Sorry, das ging ins Auge, etwas zu hoch gezielt.
Gruss Boris
Alles vor und rund herum um die Kamera ist für einen guten Film viel, viel wichtiger als die Kamera selber.
Vor ein paar Jahren wurde mal ein System mit knopfgroßen Sendern, die man am Körper tragen kann vorgestellt.
Der Fokus wurde immer automatisch auf der Position des Beacon gehalten.
Damit konnte man locker Sachen mit Offenblende realisieren, die sonst nahezu unmöglich gewesen wären - leider ist nix draus geworden, das war schon sehr beeindruckend. Leider finde ich das Video nicht mehr.
Auch wenn ich es nicht glauben kann, Funkwellen breiten sich mit Lichtgeschwindigkeit aus (bei z.B. 2 Meter irrwitzige kurze Messzeiten), aber mich würde es interessieren wenn jemand da was gemacht hat. Ich würde da eher über die Feldstärke etwas machen, ist aber recht ungenau, da bei Bewegungen/Abschattungen/Raumreflexionen es schnell schwanken kann.
Ein Arduino Mikrochip könnte bei optimaler Programmierung schnellstens alle 4 Mikrosekunden messen, das wären dann ein Raster 12002400/3600 Meter also eher was für extreme Teleaufnahmen ;-)
Schallgeschwindigkeit mit 340 Meter pro Sekunde wäre eher auf Zentelmillimeter messbar, da sind wir wieder bei Ultraschall.
Falls Du das Video findest, bitte ich um kurze Info....... spannend.
ruessel hat geschrieben: ↑Di 23 Jul, 2019 11:01Auch wenn ich es nicht glauben kann, Funkwellen breiten sich mit Lichtgeschwindigkeit aus (bei z.B. 2 Meter irrwitzige kurze Messzeiten), aber mich würde es interessieren wenn jemand da was gemacht hat.
natürlich realisiert man derartige "time of flight"-messungen nicht unbedingt in software auf billigen µCs, aber ansonsten sind sie mittlerweile sowohl im optischen wie im funkbereich durchaus gängig. es gibt ohnehin jede menge fertiger lösungen dafür bspw. im umfeld der drohnen- od. autonomen fahrzeugentwicklung.
ruessel hat geschrieben: ↑Di 23 Jul, 2019 12:12
Wo denn? Wir wollen hier Entfernungen von 0-50 Meter messen, auf 1-2 Millimeter genau.
google einfach einmal nach dem erwähnten "time of flight"
damit solltest jede menge finden. hauptsächlich optische lösungen, die mit IR-lichtquellen und div. fotosensoren arbeiten -- oft auch fertige und relativ einfach zu beziehende bausteine.
was die genaugigkeit angeht, sehe ich weniger ein problem als in puncto reichweite...
50 meter sind hier schon einiges bzw. vermutlich nicht mehr ohne relativ aufwendige optische hardware zu bewältigen. das ändert aber nichts daran, dass diese technik auch im consumer foto- und video-bereich gegenwärtig erprobt wird -- siehe bspw.:
Die erreichbare Genauigkeit löst aber doch nicht das Problem, sich aus dem gewählten Bildausschnitt den Teil des Motivs aussuchen zu müssen, der scharf sein soll. Das macht nur Sinn kameraintegriert, und mit einer Auflösung/Direktionalität, die dieser Problematik angemessen ist.
carstenkurz hat geschrieben: ↑Di 23 Jul, 2019 12:35
Die erreichbare Genauigkeit löst aber doch nicht das Problem, sich aus dem gewählten Bildausschnitt den Teil des Motivs aussuchen zu müssen, der scharf sein soll. Das macht nur Sinn kameraintegriert, und mit einer Auflösung/Direktionalität, die dieser Problematik angemessen ist.
ja, ich glaub auch, dass derartiges besser in die kamera bzw. deren bedienungsinterface rein gehört. wünschenswert wäre es halt, wenn man auch dort noch irgendwelche eingriffsmöglichkeiten hätte -- was ja bei BMD-produkten vermutlich auch in zukunft nie der fall sein wird. :(
trotzdem ist natürlich eine entsprechende "objektverfolgung" auch im raum heute kein sonderliches problem mehr -- sei es mit stereo-cameras od. eben in form von ToF-setups.
zum rumspielen mit solchen sachen gibt's z.b. diese super billigen K210 boards, auf denen man mit ein bisserl python zumindest einfachen computer-vision-aufgaben ganz gut in echtzeit abwickeln kann:
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.