Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit



Newsmeldung von slashCAM:



Style Transfer war eine der ersten Deep Learning Anwendungen die der Welt andeutete, dass sich mit künstlicher Intelligenz in den nächsten Jahren so einiges verändern wir...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit


Space


Antwort von Christian Schmitt:

Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Erinnert mich an eine Diskussion mit einem Kapitalismus/DerWettbewerbRegeltDas Verfechter, der meinte ohne finanziellen Anreiz ( = reich werden) würde es keine Innovation geben.
Irgendwie geht in manche Köpfe nicht rein, dass es Menschen gibt, die einfach von sich aus gerne forschen, tüfteln, erfinden, neue Wege begehen, experimentieren und nicht durch nen Ferrari und ne Breitling am Arm motiviert werden.

In der Regel stammt doch vie aus "unabhängiger Forschung" und wird dann durch ein paar Kniffe patentiert/markenrechtlich geschützt/"umverpackt" und die jeweilige Firma geniest dann den Ruf als Innovator.

Space


Antwort von prime:

Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen." Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
This research was supported by Snap Inc., the Research Centerfor Informatics, grant No. CZ.02.1.01/0.0/0.0/16_019/0000765, and by the Grant Agency of the Czech Technical University in Prague,grant No. SGS19/179/OHK3/3T/13 (Research of Modern ComputerGraphics Methods). Quelle: Die Original Veröffentlichung
https://ondrejtexler.github.io/res/Texl ... g_main.pdf

Siehe Acknowledgements.

Space


Antwort von cantsin:

prime hat geschrieben:
Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen." Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
Weshalb man davon ausgehen kann, dass Patente auf die hier entwickelten Verfahren/Techniken angemeldet wurden und andere Softwarehersteller erst Lizenzen erwerben müssen, um sie in ihren Programmen zu nutzen.

Space


Antwort von prime:

Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.

Space


Antwort von cantsin:

prime hat geschrieben:
Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.
Ja. Mein Einwurf mit den Patenten bezog sich ja nur auf eine mögliche Integration dieser Verfahren in Software wie Resolve und Premiere. In der Slashcam-Meldung klingt Verwunderung an, warum das noch nicht passiert - aber so einfach ist das halt nicht. Snap wird für die Nutzung dieser Verfahren aller Wahrscheinlichkeit nach Lizenzkosten und vertragliche Vereinbarungen verlangen, und Firmen wie Adobe und Blackmagic werden daher erst einmal untersuchen, ob sie ähnliche Ergebnisse auch mit anderen Verfahren erreichen können. Selbst unabhängige bzw. rein universitäre Forschungsergebnisse werden heutzutage häufig patentiert.

Space


Antwort von rudi:

Ich möchte jetzt nicht sagen, dass großen Einblick in die Sache habe, aber Patente sind im Gebiet des Machine Learning eher selten. Nicht nur, weil es sich primär um nicht schützbare mathematische Verfahren handelt. Sondern auch weil man gar nicht genau weiß, was man an einem trainierten Modell schützen sollte. Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem. Zwar ist der Anteil eines Bildes am Algorithmus minimal, aber man kann es nicht mehr aus dem Prozess herausnehmen ohne komplett neu zu trainieren. Aber wir will man diesen Anteil honorieren? Kein Mensch versteht mehr, was in den Millionen Neuronen abläuft.
Schon wenn ich ein paar Gewichte ändere habe ich ein anderes Netz. Und wenn ich ein Netz mit ähnlichen Bildern trainiere, komme ich zu einer vergleichbaren Lösung, aber einem komplett anderen Netz. Wie soll man das schützen?

Space


Antwort von prime:

rudi hat geschrieben:
Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem.
Bei sowas sichert man sich doch immer ab. Überall wo man etwas hochlädt muss man den Platformanbieter nicht-widerrufbare Verwendung-/Verwertungsrechte aller Art übertragen. Wer sowas nicht macht, der schafft sich unnötig Probleme.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Adobe Premiere Elements 2023 mit Styletransfer per KI und schnellerem Start
Audio Design Desk 1.7: Echtzeit-Editing Tool für SFX jetzt mit DAW Synchronisation
Audio Design Desk 1.9: Echtzeit-Editing Tool für Sound-Effekte jetzt mit neuen Funktionen und Lite Version
De-Ageing und Face-Swapping für Hollywood-Filme jetzt in Echtzeit mit KI?
Text-zu-Video KI jetzt auch von Google: Imagen Video
Blackmagic Desktop Video 12.0 - jetzt auch für M1-Macs
Apple iOS 15.1: ProRes Video jetzt auch für native Kamera App auf dem iPhone 13 Pro und Max
Insta360 ONE RS 1-Zoll 360 Edition - größerer Sensor jetzt auch für 360°-Video
Hasselblad Mittelformat-Kameras X1D II 50C und 907X SE können jetzt auch Video (in 2.7K)
Audio Design Desk: Revolutionäres Echtzeit-Editing Tool für Sound-Effekte
Revolutionäres Echtzeit-Editing Tool Audio Design Desk für Sound-Effekte mit kostenloser Version
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
Zeiss CinCraft Scenario vorgestellt für Kamera-Tracking in Echtzeit
Nvidia zeigt Echtzeit Greenscreen Keyer ohne Greenscreen sowie Facetracker
Frame.io plant Cloud-basierte Echtzeit-Workflows von der Kamera bis zum Schnitt
Eine Revolution der Filmproduktion: Die virtuellen Echtzeit-Hintergründe von "The Mandalorian"
Lumen in the Land of Nanite (Unreal 5 Engine Echtzeit Tech Demo auf Playstation 5)
KI synchronisiert Lippen und Audio in Echtzeit




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash