Trotzdem ist das nicht trivial, wenn es da keine sichtbaren Bildkanten oder -säume geben soll. Dann muss Deine Software nicht nur die Bilder aneinander reihen, sondern auch Perspektivkorrekturen vornehmen.Puggler23 hat geschrieben: ↑Mo 29 Nov, 2021 10:41 Ich möchte doch keinen Verfolgung vom Ball oder Spieler haben, ich bräuchte einfach nur eine Kamera die mir die linke Spielfeldhälfte filmt , und eine andere Kamera die mir die rechte Spielhälfte filmt, und die Möglichkeit mit einen Programm die Videos zu vereinen durch Punkte an der Mittellinie oder ?
Das geht nur mit Fisheye-Optiken. IMHO machst Du hier aber einen typischen (Anfänger-) Denkfehler. Ein Weitwinkelobjektiv hat den Nachteil einer extremen perspektivischen Staffelung: Alles, was weit weg ist, erscheint wesentlich kleiner, als wenn es mit einem Normal- oder Teleobjektiv aufgenommen wird. Je weitwinkliger Dein Objektiv, desto stärker dieser Effekt.
Wie cantsin schon schrieb, so große Bildwinkel bekommst Du nur mit Fisheye-Objektiven hin und die sind dann stark verformt. Schau Dir mal ein paar Fisheye-Aufnahmen an, damit Du eine Vorstellung davon bekommst, wie das aussieht.
nein -- AI bzw. ML ist bei diesen dingen nicht unbedingt erforderlich.
Aber das sind doch völlig andere Tools für eine völlig andere Aufgabe, oder sehe ich das verkehrt? Der TO will ja kein VR-Compositing machen, sondern sucht ein Tool, das die getrennt aufgenommenen Videostreams zweier Gopros zu einer Kameraaufnahme zusammenrechnet, die so aussieht, als ob sie mit einem virtuellen Super-Weitwinkelobjektiv aufgenommen worden wäre. (Also so, als wenn man die Bilder zweier MFT-Kameras mit 7.5mm-Laowa-Objektiven so zusammenrechnet, dass der Bildeindruck einer Kameraaufnahme mit einem 3.75mm-Objektiv entsteht.)mash_gh4 hat geschrieben: ↑Mo 29 Nov, 2021 16:41nein -- AI bzw. ML ist bei diesen dingen nicht unbedingt erforderlich.
man kann die zwar evtl. benutzten, um die die notwendigen parameter für das ent-/verzerren der projektion der bilder und das überblenden automatisch herauszufinden, aber der stichingprozess selbst ist dann nur mehr eine relativ einfache quasi mechanische compositing aufgabe.
wenn man es wirklich in echtzeit abwicklen wollte, würde man es wohl am besten in vorbereiteten shadern abwickeln, was aber in wahrheit, wenn man es richtig macht, kaum rechenpower benötigt, weil es ähnlich wie LUTs eine stark vereinfachte abarbeitung an anhand des fix vorbereiteten schemas bzw. transform maps ohne sehr viel rechearbeit bzw. trigonometrischen oprationen in der eigentlichen ausführung erlaubt.
das größere problem ist aber die vorbereitung des ganzen -- als das herausfinden entzerrungs- und projektionsparameter.
ich denke zwar, dass sich das mit eine bisserl herumspielen auch im nuke, blender od, fusion sauber umsetzten lassen müsste, aber wirklich optimal sind dafür vielmehr jene spezialisierten softwarelösungen, wie man sie gegenwärtig für professionelle VR-produktionen heranzieht.
naja -- auf den ersten blick wirkt es natürlich schon so, als würde man hier mit kanonen auf spatzen schießen, aber leider ist eben doch nicht ganz so einfach, wirklich gute resulate bei solchen aufgabenstellungen zu bekommen. das sieht man am klarsten, wenn man es mit wirklich professionellen mitteln vergleicht.
des ist nur eine sehr einfache aufgabe, die man mit genau diesen mitteln wunderbar lösen kann!cantsin hat geschrieben: ↑Mo 29 Nov, 2021 16:51 Der TO will ja kein VR-Compositing machen, sondern sucht ein Tool, das die getrennt aufgenommenen Videostreams zweier Gopros zu einer Kameraaufnahme zusammenrechnet, die so aussieht, als ob sie mit einem virtuellen Super-Weitwinkelobjektiv aufgenommen worden wäre. (Also so, als wenn man die Bilder zweier MFT-Kameras mit 7.5mm-Laowa-Objektiven so zusammenrechnet, das der Bildeindruck einer Kameraaufnahme mit einem 3.75mm-Objektiv entsteht.)
wie gesagt -- diese VR tools machen wirklich genau das...cantsin hat geschrieben: ↑Mo 29 Nov, 2021 16:51 Da geht's ja nicht nur um Stichting und Compositing, sondern auch um Objektivperspektiv- und Abschattungskorrektur, ggfs. Zeitversatzkorrektur etc.etc. Und wenn ich den TO richtig verstehe, will er kein aufwändiges händisches Compositing machen, sondern sucht ein Tool, das dieses Stitching automatisch erledigt.
wenn du nicht weiter weg kannst, dann musst du wohl höher (cantsin erwähnte es oben schon einmal), so ab 5m und aufwärts würde ich schätzen. hohes stabiles stativ
dass derartige ultra-weitwinkel- und fisheye-aufnahmen immer ziemlich zweifelhaft bis unbefriedigend aussehen, jedenfalls keinen sonderlich großen genuß beim zusehen aufkommen lassen, muss einem ohnehin klar sein...-paleface- hat geschrieben: ↑Mo 29 Nov, 2021 18:08 Wie die anderen schon sagten....das sieht dann in etwa so aus.
die tut doch nichts anderes, nur intern, und sehr oft auch nur in recht unbefriedigender qualität.
lieber mash,mash_gh4 hat geschrieben: ↑Mo 29 Nov, 2021 18:26dass derartige ultra-weitwinkel- und fisheye-aufnahmen immer ziemlich zweifelhaft bis unbefriedigend aussehen, jedenfalls keinen sonderlich großen genuß beim zusehen aufkommen lassen, muss einem ohnehin klar sein...-paleface- hat geschrieben: ↑Mo 29 Nov, 2021 18:08 Wie die anderen schon sagten....das sieht dann in etwa so aus.
grade hier kommen dann aber halt wieder die bereits angesprochen VR-arbeitsmittel wieder ins spiel, die in der postproduktion auch alle anderen blickwinkel bzw. brennweiten, die vom betreffenden standort und einem stativ aus möglich wären, aus derartigem ausgangsmaterial sauber herausrechnen können. wobei man da halt mit der qualität der gopros vermutlich gleich einmal ziemlich eingeengt sein dürfte...
da kanns't schon recht haben! -- allerdings diskutieren wir solche fragen ja nicht immer nur, im eine konkretes anliegen zu lösen, sondern um uns durchaus auch gemeinsam gedanken über ein grunsätzliches problem zu machen...
dann wird's halt von den verzerrungen her bzw. dem aufwand, es evtl. abschließend doch wieder in gewohntere formen der betrachtung zu übersetzten, noch komplizierter, obwohl das vermutlich in dem fall keine große rolle spielen dürfte...
btw, der unterschied ist nicht so gross, idr stehen die führungskameras beim fussball oben mittig auf der tribüne über kreuz, der to will dasselbe bild beider kameras gemeinsam mit nur einer gopro, also entweder hinter der tribüne und drüber aufs feld, wenn das nicht geht, vor der tribüne hoch, dann wird sein blick steiler als gewohnt, aber gefühlt übersichtlicher, das könnte im vereinsheim durchaus gut ankommen...:-)
Tja, die machen genau das, was ich eingangs geschrieben hatte - sie verwenden künstliche Intelligenz:Puggler23 hat geschrieben: ↑Di 30 Nov, 2021 13:29 Ich verstehe nur nicht wie es z.B. der Hersteller von Veo so einfach lösen konnte dieses Problem.
https://event.veo.co/veo-cam-2
Mit diesen Vorsatz würde es sicher besser zu Lösen sein, nur denke ich das die Qualität ziemlich daran leidet,rkunstmann hat geschrieben: ↑Di 30 Nov, 2021 17:48 Im Grunde braucht's für diesen Anwendungsfall ja nur mehr Weitwinkel in der Horizontalen. Vielleicht reicht ja sowas dafür: Sonst kriegt man doch viel zu viel oben und unten mit drauf...
Keine Ahnung, ob der Vorsatz was taugt... Ist aber breiter ohne Stitching. Im Notfall halt doch versuchen etwas höher und weiter weg zu kommen? Wäre sicher besser als einfach ein Fischauge...
da hast aber die grundherangehensweise nicht verstanden ;) du stiched 2 4k bilder zu einem pi mal daumen 8k x 2k bild zusammen und holst dir dann den 16/9 ausschnitt, den du gerade sehen willst heraus. genau so (nehm ich mal an) funktioniert die evo cam, genauso funktionierts mit den 360 cams. also ja plugger, genau wie du geschrieben hast, so würds gehen. ABER - je mehr pixel desto brauchbarer ist das ergebnis. ich bezweifle mal ganz stark, dass du mit einer insta360 glücklich wirst. ich hab mal mit der insta titan (11k res) gedreht, und auch da wär ich mir nicht sicher, ob ich da glücklich werden würde, trotz der 8 mft sensoren auf der cam... wie das die evo halbwegs vernünftig lösen will, für den preis, is mir ein rätsel... LGtvontheradio hat geschrieben: ↑Di 30 Nov, 2021 16:12 interessant das hier diskutiert wird ob und wie man 2 kameras stacken kann aber niemand ob das ergebnis überhaupt sinn ergibt.
das ergebnis wär ja ein superbreites 32:9… auf nen typischen 16:9 bildschirm würd man sehr viel ungenutzen platz oben/unten haben was auf 16:10 oder 3:2 bildschirmen nur noch schlimmer wäre.
gscheiter wärs demnach wie/welche kamera man wo platzieren könnte oder/sollte um ein brauchbares ergebnis zuerhalten.
tendenziell wird man aber wohl eher ein multicam setup benötigen bei dem man zw den verschiedenen einstellungen umschaltet damit da irgendwas sinnvolles rauskommt.
Fürs Handy in HD wird es reichen, mehr zu erwarten ist eher unrealistisch..DidahLostHisPassword hat geschrieben: ↑Mi 01 Dez, 2021 08:52 ... wie das die evo halbwegs vernünftig lösen will, für den preis, is mir ein rätsel... LG
Was verstehst Du unter Qualität, das alles ist nur Spielzeug.Puggler23 hat geschrieben: ↑Mi 01 Dez, 2021 07:57 Mit diesen Vorsatz würde es sicher besser zu Lösen sein, nur denke ich das die Qualität ziemlich daran leidet,
da ist meine Einschätzung das ich mit der Insta 360 bessere Qualität bekomme.
...
Ich denke für die beste Qualität so wie ich es in dieser Diskussion herauslese wäre:
Ja und
Dafür braucht es aber bereits eine der sehr! hochwertigen 360° Kameras, falls ein "noch normaler" Weitwinkel-Ausschnitt mit z.B. 80° Bildwinkel in noch guter Qualität rauskommen soll.Puggler23 hat geschrieben: ↑Mi 01 Dez, 2021 07:57Ich denke für die beste Qualität so wie ich es in dieser Diskussion herauslese wäre:
2-3 Kameras (Objektive) wo ich das ganze Feld oben habe die miteinander 1 Bild wiedergeben, und in der Nachbearbeitung müsste ich dann z.B. mit der Zoomfunktion(selektieren der Maus) die Möglichkeit haben das Video auf 16:9 zu verfolgen.
Eigentlich so wie ein 360° Film funktioniert und ich dann das Bild so drehe wie ich es brauche, und mir es dann Automatisch so abspeichert.