slashCAM
Administrator
Administrator
Beiträge: 11279

KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von slashCAM »


Style Transfer war eine der ersten Deep Learning Anwendungen die der Welt andeutete, dass sich mit künstlicher Intelligenz in den nächsten Jahren so einiges verändern wir...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit



Christian Schmitt
Beiträge: 508

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von Christian Schmitt »

Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Erinnert mich an eine Diskussion mit einem Kapitalismus/DerWettbewerbRegeltDas Verfechter, der meinte ohne finanziellen Anreiz ( = reich werden) würde es keine Innovation geben.
Irgendwie geht in manche Köpfe nicht rein, dass es Menschen gibt, die einfach von sich aus gerne forschen, tüfteln, erfinden, neue Wege begehen, experimentieren und nicht durch nen Ferrari und ne Breitling am Arm motiviert werden.

In der Regel stammt doch vie aus "unabhängiger Forschung" und wird dann durch ein paar Kniffe patentiert/markenrechtlich geschützt/"umverpackt" und die jeweilige Firma geniest dann den Ruf als Innovator.



prime
Beiträge: 1550

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von prime »

Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
This research was supported by Snap Inc., the Research Centerfor Informatics, grant No. CZ.02.1.01/0.0/0.0/16_019/0000765, and by the Grant Agency of the Czech Technical University in Prague,grant No. SGS19/179/OHK3/3T/13 (Research of Modern ComputerGraphics Methods).
Quelle: Die Original Veröffentlichung
https://ondrejtexler.github.io/res/Texl ... g_main.pdf

Siehe Acknowledgements.



cantsin
Beiträge: 16295

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von cantsin »

prime hat geschrieben: Di 06 Okt, 2020 10:41
Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
Weshalb man davon ausgehen kann, dass Patente auf die hier entwickelten Verfahren/Techniken angemeldet wurden und andere Softwarehersteller erst Lizenzen erwerben müssen, um sie in ihren Programmen zu nutzen.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



prime
Beiträge: 1550

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von prime »

Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.



cantsin
Beiträge: 16295

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von cantsin »

prime hat geschrieben: Di 06 Okt, 2020 11:30 Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.
Ja. Mein Einwurf mit den Patenten bezog sich ja nur auf eine mögliche Integration dieser Verfahren in Software wie Resolve und Premiere. In der Slashcam-Meldung klingt Verwunderung an, warum das noch nicht passiert - aber so einfach ist das halt nicht. Snap wird für die Nutzung dieser Verfahren aller Wahrscheinlichkeit nach Lizenzkosten und vertragliche Vereinbarungen verlangen, und Firmen wie Adobe und Blackmagic werden daher erst einmal untersuchen, ob sie ähnliche Ergebnisse auch mit anderen Verfahren erreichen können. Selbst unabhängige bzw. rein universitäre Forschungsergebnisse werden heutzutage häufig patentiert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



rudi
Administrator
Administrator
Beiträge: 1546

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von rudi »

Ich möchte jetzt nicht sagen, dass großen Einblick in die Sache habe, aber Patente sind im Gebiet des Machine Learning eher selten. Nicht nur, weil es sich primär um nicht schützbare mathematische Verfahren handelt. Sondern auch weil man gar nicht genau weiß, was man an einem trainierten Modell schützen sollte. Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem. Zwar ist der Anteil eines Bildes am Algorithmus minimal, aber man kann es nicht mehr aus dem Prozess herausnehmen ohne komplett neu zu trainieren. Aber wir will man diesen Anteil honorieren? Kein Mensch versteht mehr, was in den Millionen Neuronen abläuft.
Schon wenn ich ein paar Gewichte ändere habe ich ein anderes Netz. Und wenn ich ein Netz mit ähnlichen Bildern trainiere, komme ich zu einer vergleichbaren Lösung, aber einem komplett anderen Netz. Wie soll man das schützen?



prime
Beiträge: 1550

Re: KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit

Beitrag von prime »

rudi hat geschrieben: Di 06 Okt, 2020 14:50Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem.
Bei sowas sichert man sich doch immer ab. Überall wo man etwas hochlädt muss man den Platformanbieter nicht-widerrufbare Verwendung-/Verwertungsrechte aller Art übertragen. Wer sowas nicht macht, der schafft sich unnötig Probleme.



 Aktuelle Beiträge [alle Foren]
 
» Star Trek: Third Rate - Fan Film
von Nathanjo - Di 22:35
» DJI Mavic 4 Pro in der Praxis: 10Bit 6K 50p Log, 360° Gimbal – für wen lohnt sich die C2 Drohne?
von Franky3000 - Di 17:26
» Firmware-Updates für die Panasonic Lumix S1RII, S1II und S1IIE
von cantsin - Di 15:37
» Nvidia GeForce RTX 5050 im Anflug - 10 Bit 4:2:2 Decoding für 200 Euro?
von slashCAM - Di 10:24
» Magic Lantern mit deutlichem Lebenszeichen - Frische Motivation und frischer Code
von Da_Michl - Di 9:44
» Bildsensor mit Perowskit verdreifacht mögliche Auflösung
von CotORR - Di 8:48
» 36% mehr DSLMs ausgeliefert im April als im Vorjahr
von iasi - Mo 23:00
» Neuer XAVC-L Standard für ARD/ZDF – Interlacing noch Thema?
von vaio - Mo 21:26
» Higgsfield.ai - Aufwändige Videoeffekte auf Knopfdruck aus der KI-Cloud
von Drushba - Mo 18:34
» Manueller Video Modus nicht mehr erreichbar.
von milesdavis - Mo 15:45
» Rode Wireless Go 3 - Ton zu leise
von rush - Mo 10:49
» BM Micro Studio Camera G2 erhält Pyxis Monitor Kompatibelität
von Darth Schneider - Mo 9:19
» Suche Omnidirektionales Mikrofon-Setup für Sony FX3
von pillepalle - Mo 6:25
» Unzuverlässiger Autofokus HC-X2E
von Jott - So 20:39
» UHD Progressive zu HD Interlaced Workflow - Hardware-Lösung für Preview?
von SonyTony - So 13:06
» Kompakte OM-5 Mark II bekommt zwei neue Bildprofile
von cantsin - So 10:25
» Nikon Z5 II mit interner RAW-Aufzeichnung - Debayering, Rolling Shutter und Dynamik
von cantsin - So 9:09
» Film wurde nur mit Handys gedreht...
von Jott - Sa 20:48
» Insta360 Studio - Bildjustagen verschwunden nach update
von soulbrother - Sa 20:09
» Welche USB-C SSD für 4k120 prores am iPhone 16 Pro?
von Totao - Sa 11:43
» Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...
von Totao - Sa 11:38
» Kleines Schwanenhalsmikro für AVX-Bodypacksenser gesucht
von pillepalle - Fr 16:04
» Magix Video deluxe 2026 und Video Pro X17 mit neuen KI-Funktionen
von slashCAM - Fr 11:45
» Nanlite FM Mount Projektionsaufsatz 18°-36° für präzise Lichtgestaltung
von Darth Schneider - Fr 11:20
» Adobe Firefly jetzt als Smartphone-App - samt Nutzung von Veo 3, Luma und Pika
von peter161170 - Fr 9:14
» Sony FX2 im Praxistest: Erstmalig neigbarer Sucher, Cine-Gehäuse wie FX3, 33 MP Fullframe CMOS
von pillepalle - Fr 7:18
» Panasonic S1RII im Praxistest: Überraschend viele Videofunktionen für Pros
von iasi - Fr 0:18
» Blackmagic Updates für Web Presenter, Video Assist, Cloud und BRAW
von slashCAM - Do 11:27
» Adobe Premiere Pro ab sofort mit 4:2:2 Beschleunigung per Nvidia GPU und mehr
von dienstag_01 - Do 11:03
» Superman | Offizieller Trailer
von 7River - Do 5:11
» Midjourney startet eigene Video-KI V1
von slashCAM - Do 1:09
» DJI RS4 Pro und LiDAR: Bestes AF/Tracking (inkl. Stabilisierung) für Cine-Setups?
von pillepalle - Mi 23:45
» Sigma 17-40mm F1.8 DC | Art für APS-C vorgestellt u.a. mit RF-Mount
von iasi - Mi 23:24
» SIRUI Reparaturen/Customer Service Germany
von gizmotronic - Mi 18:47
» RS4 mit XR AR Brillen als Videomonitor möglich?
von Silentsnoop - Mi 18:45