es gibt jede menge computer vision techniken, um deratiges umzusetzten.
das würde ich ziemlich nachdrücklich bestreiten!CameraRick hat geschrieben: ↑Mo 23 Sep, 2019 16:41...viel mehr ist auf dem Gebiet aber nicht passiert (wenn es kommerziell erhältlich sein soll, zumindest)
Hat zwar nichts mit dem Thema zu tun, dennoch. Ich habe vor OpenCV + Raspberry (+ Python), AF zu programmieren, womit dann eben Follow Focus gesteuert wird. Am besten wäre doch, wenn man HDMI-Input Modul für Raspberry dafür nutzt, dann braucht man ja keine extra Kamera sondern nutzt den HDMI Ausgang der Kamera dafür. Nun meine frage, hast du dich damit auseinander gesetzt und hast eventuell paar Tipps? Ich dachte den Follow Focus von Zhiyun Crane dafür zu verwenden, doch mir fehlen die USB Protokolle (die beim Gimbal+Rädchen drehen an Follow Focus gesendet werden) und mit libusb und Reading Data from usb bzw. die Protokolle auslesen, ist mir leider nicht gelungen. :/
dafür benutzt man gewöhnlich HDMI-to-CSI-bridge-lösungen, um die kameramodul-interface für ein HDMI-inputsignal zu nutzen.roki100 hat geschrieben: ↑Mo 23 Sep, 2019 18:05 Ich habe vor OpenCV + Raspberry (+ Python), AF zu programmieren, womit dann eben Follow Focus gesteuert wird. Am besten wäre doch, wenn man HDMI-Input Modul für Raspberry dafür nutzt, dann braucht man ja keine extra Kamera sondern nutzt den HDMI Ausgang der Kamera dafür.
für zhiyun kann ich dir auch nichts aus dem ärmel schütteln, aber alle neueren panasonic cameras kann ich in ähnlicher weise via WLAN direkt steuern wie man das z.t. auch von diversen gimbals aus kann. mit libgphoto2 ist das auch via USB bei einigen kameras möglichen.
Genau das meinte ich ja. Muss ich mal testen.mash_gh4 hat geschrieben: ↑Mo 23 Sep, 2019 18:25 dafür benutzt man gewöhnlich HDMI-to-CSI-bridge-lösungen, um die kameramodul-anbindung für ein HDMI-inputsignal zu nutzen.
derartiges gibt's ohnehin fertig zu erschwinglichen preisen (z.b. https://auvidea.eu/b101-hdmi-to-csi-2-bridge-15-pin-fpc).
du brauchst nur irgendeine usbdump/usbmon werkzeug zuschauen, was da tatsächlich über die leitung geht. z.b. wireshark unterstützt das: https://wiki.wireshark.org/CaptureSetup/USB
Wie konnte ich das nur übersehen.... wird getestet!mash_gh4 hat geschrieben: ↑Mo 23 Sep, 2019 18:39du brauchst nur irgendeine usb dump werkzeug zuschauen, was da tatsächlich über die leitung geht. z.b. wireshark unterstützt das: https://wiki.wireshark.org/CaptureSetup/USB
in dem fall brauchst du doch nichteinmal einen grünen hintergrund od. irgendwelche komplizierte software, sondern wirklich nur irgendwas zum abdecken od. zuhängen... ;)
Würde ungern mit grünem Stoff in der Tasche durch die Welt reisen ;-) wenn ich mal unterwegs bin und zuhause schon etwas schöneres, z.B. ein Aquarium im Hintergrund etc.
wieso nicht? OBS Studio habe ich inzwischen rausrecherchiert. Toll ist das nicht, ideal wäre da ne HW die das alles selber macht! Da scheint es aber nur minderwertiges zeug aktuell zu geben. Nichts brauchbares...
Das ist offensichtlich eine alles könner App.Frank Glencairn hat geschrieben: ↑Mo 23 Sep, 2019 19:20 Schau dir mal Rotobot an - https://kognat.com
ich denke, dass die freien tools das in gleicher qualität hinbekommen dürften, da ohnehin alle die selben modelle nutzen -- lösungen, die ein paar monate zuvor jeweils die entsprechenden wettkämpfe unter den akademischen forschungsteams gewonnen haben...
Ich hatte ein wenig damit gerechnet, dass so ein Einwand von Dir kommt :)mash_gh4 hat geschrieben: ↑Mo 23 Sep, 2019 17:50das würde ich ziemlich nachdrücklich bestreiten!CameraRick hat geschrieben: ↑Mo 23 Sep, 2019 16:41...viel mehr ist auf dem Gebiet aber nicht passiert (wenn es kommerziell erhältlich sein soll, zumindest)
es ist geradezu unglaublich, was sich da in den letzten jahren getan hat.
die ganzen brauchbaren ML basierenden lösungen sind in diesem zeitraum gerade erst neu dazugekommen und funktionieren derart überrangend gut, dass sie praktische alle traditionellen ansätze in den schatten stellen bzw. ablösen.
ich würde dir allerdings zustimmen, dass es noch recht wenige käufliche produkte gibt, die dieses potential befriedigend ausschöpfen. aber das ist ja weiter kein großes hindernis, wenn man in teams mit technikern kooperiert, die auch mit den weniger enduser orientierenten bereits verfügbaren implementationen und werkzeugen etwas anfangen können.
aus dieser perspektive klingt ein entsprechendes jammern über nicht vorhandene einfach zu nutzenden plugins fast so lächerlich, wie wenn man im farbumfeld alles in form von LUTs zum wahllosen draufklatschen fertig bereitgestellt bekommen will. das wissen um die zugrundeliegenden techniken und das entwickeln entsprechender in-house-lösungen ist in dieser hinsicht oft deutlich zielführender, wenn die ergebnisse nicht so aussehen sollen, wie es die aktuell verfügbaren werkzeuge und moden gerade nahelegen bzw. erzwingen.
Anbei, das was ich für kostenlos hinkriege ;-)mash_gh4 hat geschrieben: ↑Mo 23 Sep, 2019 20:05ich denke, dass die freien tools das in gleicher qualität hinbekommen dürften, da ohnehin alle die selben modelle nutzen -- lösungen, die ein paar monate zuvor jeweils die entsprechenden wettkämpfe unter den akademischen forschungsteams gewonnen haben...
Danke für den Tip, werde das mal untersuchen.mash_gh4 hat geschrieben: ↑Di 24 Sep, 2019 17:50 ganz frei gibt's das in form vom natron u. blender, und wenigstens kostenlos geht's auch mit nuke non-commercial od. fusion. mit jeder dieser genannten lösungen solltest du deutlich bessere chroma-keying resultate erhalten bzw. die nötigen eingriffsmöglichkeiten fürs fine tuning bei der hand haben.