http://www.tagesschau.de/inland/videos- ... r-101.html Filme, die aussehen, als hätte sie ein Meister gemalt: Ein Student der Freiburger Universität hat ein Programm entwickelt, das Videos genauso wirken lässt. Große Filmstudios sind schon auf ihn und seine Entwicklung aufmerksam geworden.
Es gibt ja schon gute Filter für sowas (seit Jahren), aber diese Qualität ist schon ungewöhnlich gut.
...man merkt gerade bei der Tagesschau das Sommerloch...
Das Ganze ist ein simpler VFX-Filter und kein Trickfilm und der Informatikstudent ist auch kein neuer Shootingstar am VFX-Himmel.
Das Kopieren eines Mal bzw. Zeichenstils wurde in unzähligen Filmen wie "A Scanner Darkly" oder "SinCity" schon vor Jahren umgesetzt.
Wie man in Zeiten von unzähligen VFX-Filtern eine News daraus machen kann, bleibt mir ein Rätsel.
Inhaltlicher Gewinn durch die Bildveränderung ist dabei gleich Null und solche Filter programmiert dir jeder Informatiker, am besten noch über Cuda und dann geht das in Echtzeit und braucht keine Stunde.
Die echten Fachleute und Künstler für Trickfilm trifft man auf den ITFs in Stuttgart oder in Frankreich in Annecy.
Antwort von ruessel:
...also mich begeistert das Ergebnis.
Antwort von Frank B.:
Vielleicht ist das Besondere an dieser Entwicklung, dass man relativ kurzzeitig anhand irgendeines Kunstwerkes den entsprechenden Look haben kann. Ich stelle es mir so vor, dass man z.B. ein Rembrandtbild scannt, dann macht das Programm alles in diesem Look, und man scannt einen Matisse, dann sieht das Video kurze Zeit später aus wie dessen Bilder. Man kann also relativ kurzfristig bestimmte Looks erzeugen, was bisher einen größeren Programmieraufwand bedeutet hat. Keine Ahnung, ich bin kein Experte auf dem Gebiet aber mich beeindrucken die Videos auch. Man könnte so tatsächlich einen "Trickfilm" mit realen Schauspielern erzeugen, ohne dass man gezeichnete Bilder animieren muss.
Antwort von ruessel:
Ich würde der Software lieber gekritzel von mir zur Verfügung stellen, oder alte Werbeanzeigen, oder Mustertapeten, oder .......
Antwort von Frank B.:
Hab ich auch schon dran gedacht. Man könnte auch schnell alte Filmlooks anpassen.
Antwort von jwd96:
@Valentino,
Komisch, dass immer die, die sich nicht mal ansatzweise damit beschäftigt haben gleich schreien wie einfach und langweilig irgendwas ist.
Wo fange ich denn da überhaupt an...
(1) Die Software nutzt bereits CUDA bzw OpenGL backends, dumm gelaufen für dich.
(2) Sie basiert auf dem Neural Style/DeepStyle code, der wiederum Google's TensorFlow (Machine learning bibliothek) nutzt. Schon das ist ziemlich eindrucksvoll, da verschiedene künstlerische Stile auf andere Photos übertragen werden können.
(3) Das Ganze jetzt auf Videos anzuwenden ist eine riesige Herausvorderung, zwar gibt es fertig nutzbare Optical Flow Bibliotheken usw., aber diese dann sinnvoll einzusetzen ist nicht so einfach.
Aber klar, das macht dir jeder Informatikstudent mal eben.
Nur nochmal um das klarzustellen: ich kann das Programm mit einem beliebigen Bild füttern und heraus kommt ein video in ähnlichem Stil. Ich finde das ziemlich eindrucksvoll.
Antwort von cantsin:
Nur nochmal um das klarzustellen: ich kann das Programm mit einem beliebigen Bild füttern und heraus kommt ein video in ähnlichem Stil.
Ja, das ist der wirkliche Unterschied in der Anwendung neuronaler Netzwerke zu irgendwelchen oldschool-Filteralgorithmen mit manuell eincodierten "Mal"-Effekten. Allerdings kommt das in den Demovideos bzw. im Tagesschau-Bericht nicht so deutlich 'rüber.
Antwort von StanleyK2:
Und wozu das Ganze? Wo ist da das Kreative? Oder die Sinnhaftigkeit an sich?
Antwort von Frank B.:
Na zunächst mal ist es Technik. Das Kreative wäre für mich die Umsetzung z.B. in einem Musikvideo. Für ganze Spielfilme seh ich eigentlich auch keinen Sinn. Aber Betätigungsfelder gäbe es ja einige. Siehe oben.
Antwort von cantsin:
Und wozu das Ganze? Wo ist da das Kreative? Oder die Sinnhaftigkeit an sich?
Die Anwendung dieses Algorithmus als Retroeffekt um sattsam bekannte Malstile auf Videos anzuwenden, ist natürlich extrem konventionell. Da der Algorithmus aber mit beliebigen Bildern als Referenz arbeitet, liegt es vor allem an Filmmachern, hier mehr rauszuholen. Im Prinzip lassen sich hiermit nach Belieben sehr einfach und schnell Looks bauen. Auch wenn die Ergebnisse eher psychedelisch sind, könnte das u.a. ein praktisches Tool zur Vorab-Visualisierung von gewünschten Looks sein. Z.B. könnte ein Regisseur ein Foto im ihm vorschwebenden Bildstil einlesen, mit der Software auf Dailies anwenden, um dem Coloristen seine Idee des Gradings zu vermitteln.
Antwort von klusterdegenerierung:
Seit dem Photoshop auch Videos verarbeiten kann, nutze ich auch schon mal die Mal oder Google Filter.
Aber das hier ist wirklich eine andere Nummer und ich kann mir vorstellen, das ein echter Fan,
der sich einem bestimmten Künstler verschrieben hat,
jetzt ein richtig tolles Gefühl hat und das ein bisschen so ist wie als wenn die Beatles doch noch mal eine neue Platte rausgebracht haben! :-)
Antwort von rush:
Passend in dem Zusammenhang vielleicht auch folgendes Musikvideo, welches mit Hilfe der populären Prisma-App in aufwendiger Kleinarbeit frame für frame realisiert wurde...
Antwort von balkanesel:
das war ursprünglich sicher als Beispiel für die Leistungsfähigkeit neuronaler Netzwerke gedacht, daraus eine ernsthafte Anwendung machen zu wollen ist eine eigenartige Idee.
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr InfosVerstanden!