
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronale Netze verändern Videostil (und die VFX-Zukunft)

„Eine Fettecke ist ja nicht deswegen gemacht, um einen Tisch mit Fett zu beschmieren, sondern ... um als Fettecke im Gegensatz zu stehen.“
(Wikipedia zur Fettecke)
Wenn man es nicht so übertrieben macht wie im Beispielvideo, könnte man z.B. das Material von zwei Kameras besser aufeinander abstimmen. Dann müssen die Canonfarben-Liebhaber nicht mehr heulen wenn ihnen das kalte und technische Sony-Bild vorgesetzt wird. Alles ohne große Experimente am Farbendrehregler.StanleyK2 hat geschrieben:Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Vielleicht ist das ja eine praxisnähere Anwendung von solchen Algorithmen für Dich ?StanleyK2 hat geschrieben:Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Sag ich doch die ganze Zeit.Jeder ein Depp, der teures Geld für 4k ausgibt, wenn es auch mit SD und Neuronen geht... oder ginge...
Die Imitation eines technischen Stils ist doch nur ein Vorbild für NN-Anwendungen. Ausserdem geht der viel weiter, als viele hier denken: Es reicht eben, einem NN-Programm ein Beispielbild zu geben, und dann wird ein Filter berechnet, der dessen Bildstil auf ein komplettes Video anwendet. Das können auch selbstgeschossene Bilder sein.StanleyK2 hat geschrieben:Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
cantsin hat geschrieben:Die Imitation eines technischen Stils ist doch nur ein Vorbild für NN-Anwendungen. Ausserdem geht der viel weiter, als viele hier denken: Es reicht eben, einem NN-Programm ein Beispielbild zu geben, und dann wird ein Filter berechnet, der dessen Bildstil auf ein komplettes Video anwendet. Das können auch selbstgeschossene Bilder sein.StanleyK2 hat geschrieben:Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Selbst das Hochrechnen von irgendwelchem uralt-SD-Amateurkamera-Material zu Kinobildern ist damit theoretisch machbar. Das könnte noch massive Auswirkungen auf künftige Kameraentwicklungen haben - dass man nämlich nur noch Handykameras baut, deren Bilder durch NN-Algorithmen zu Alexa-Qualität hochgerechnet werden.
Sieh mal hier: https://arxiv.org/pdf/1501.00092.pdfRudolf Max hat geschrieben:@ WoWu:
Ich glaube es einfach nicht, dass aus solch unscharfen Bildern so viel herauszuholen ist, egal, ob neuronal oder wie auch immer...
Oder auch nicht. Lobbyisten und Politik-Papageien sind Weltmeister im Buzzword-Bullshit-Bingo.cantsin hat geschrieben:...Wir stehen gerade vor einer massiven Revolution durch Deep Learning-KI, die noch ungeahnte Auswirkungen auf Gesellschaft und Wirtschaft haben wird.)
WoWu hat geschrieben:Und was haben solche Philosophischen Fragen mit der Umwandlung von Bildern zu tun ?
Behauptet doch kein Mensch, dass Otto Normalverbraucher das nachvollziehen soll. Schließlich glaubt er ja auch jetzt schon, er bekommt 4K Bildinhalte wo er nur 4K Pixelmenge bekommt.
Selbst so triviale Einzelheiten können also nicht mal nachvollzogen werden und werden trotzdem angewandt.
Das solche Algorithmen (selbst in Deutschland) angekommen sind, hat bereits 2009 die ARD mit der Aufbereitung der Analogmaz aus den 60ern gezeigt "Soweit die Füße tragen".
Das musste auch kein Zuschauer verstehen, warum es in den 60ern schon HDTV gab.
Ja, seh ich genau so.StanleyK2 hat geschrieben: Oder auch nicht. Lobbyisten und Politik-Papageien sind Weltmeister im Buzzword-Bullshit-Bingo.
Deine Screenshots sind ziemlicher Holler. Die stammen von hier:WoWu hat geschrieben:Sag ich doch die ganze Zeit.Jeder ein Depp, der teures Geld für 4k ausgibt, wenn es auch mit SD und Neuronen geht... oder ginge...
Die Bilder sind aus der Videoforensic, also aus intensiven Nachbearbeitungen auf der Basis unterschiedlicher Rekonstruktionsalgorithmen und sind an einer russischen Universität entstanden. (mit dazugehöriger Herleitung)
Auch das folgende Beispiel stammt aus der Forensic einer US Firma.
Da wirst Du auch fündig, wenn Du mal googelst.
Das heisst weder, dass solche Algorithmen in heutigen PCs arbeiten, noch dass sie billig sind aber die Ansätze laufen bereits in den Kameras und erledigen die 4K Subpixelberechnung.
Die folgenden Bilder sind Sceenshots aus einer Videosequenz.
Die Zeit der Pixels ist bald vorbei.
LOL- das UI der Software sieht aus wie von Cineform Studio abgekupfert :-)freezer hat geschrieben:
Deine Screenshots sind ziemlicher Holler. Die stammen von hier:
https://www.motiondsp.com/ikena-forensic/
.
Mag alles sein, aber du solltest tatsächlich etwas vorsichtiger mit deinem Anschauungsmaterial umgehen. Das oben von dir gepostete Beispielbild ist mit der Unterschrift "Up-Scaling" schlicht falsch gekennzeichnet und ziemlich irreführend. Wie freezer schon sagte wurde da gezoomt. Nicht einfach digital ins Bild gefahren. Da hat deine Glaubwürdigkeit gerade einen kleinen Schlag wegbekommen, zumindest bei mir :/WoWu hat geschrieben: Das Gehirn "sieht" eben immer mit und wenn 4K drauf steht, ist für die Meisten auch 4K drin.
War nur ein gut gemeinter Ratschlag. Mach damit was du willst, aber wunder dich nicht.WoWu hat geschrieben: Und von mir aus kann jeder glauben, was er will und Fakten ignorieren, wo und wie er will, insofern hat das wenig mit "Glauben" sondern mehr mit Ignoranz zu tun und das ist nicht mein Problem.
mash_gh4 hat geschrieben:was mich wirklich nervt an dieser ganzen diskussion, ist der schrecklich inflationäre und unreflektierte umgang mit dem titelgebenden "neuronalen netzen", wie er sich in letzter zeit in der slashcam redaktion offenbar breit macht.
ich bestreite nicht, dass AI-zugänge in der bildverarbeitung in letzter zeit einige aufregende neue möglichkeiten eröffnet haben, und neuronale netze schon sehr lange auch in kreativer hinsicht beindruckende möglichkeiten bieten (ich erinnere mich zum beispiel an die installtionen mit selbstlernenden musikrobotern von Anatol Baginsky und http://www.baginsky.de/nen/index.html]sich selbst modifizierenden ausstellungsbildern, die ich schon in den 90er-jahren in rotterdam bewundern durfte, und die mich wirklich nachhaltig beeindruckt haben!), aber trotzdem kann man das nicht alles in einen topf mischen, wahlos darin herumrühren und mit möglichst fremd klingenden schlagwörten, phantasien und wunschvorstellungen um sich werfen.
so haben bspw. die ganzen [blind] deconvolution-lösungen zur nachträglichen aufhebung von bild- und bewegungsunschärfen in den meisten fällen mit neuronalen netzwerken nicht viel gemein. (siehe bspw: http://yuzhikov.com/articles/BlurredIma ... ation1.htm).
mich würde es also wirklich freuen, wenn wenigstens in den redaktionellen beitragen der slashcam verantwortlichen mit diesen dingen ein klein wenig sorgsamer umgegangen wird. anderen kollegen hier im form wird man ihre diesbezügliche gabe zur regelmäßig wiederkehrenden demagogischen irreführung vermutlich ohnehin nie abgewöhnen können...


