DeepFake: Gesichtstausch (nicht nur) in Pornos per einfacher App

// 15:37 Do, 25. Jan 2018von

Schon lange vorhersehbar, wird es jetzt immer realer: die quasi unendlichen Möglichkeiten per KI/Deep Learning Videos mit nur einem Knopfdruck realistisch zu manipulieren. Das neueste Beispiel vereint KI mit den tieferen Trieben zu einem unheimlichen Ergebnis. Es hat sich in einem Reddit SubForum eine eigene Szene gebildet, die es mittels des von einem anonymen Users selbst programmierten Tools FakeApp relativ einfach ermöglicht in Pornofilmen die Gesichter der Darsteller (vorerst sind es nur *innen) gegen diejenigen von Stars auszutauschen und sich so Pornos mit seinen Lieblingsschauspielerinnen selbst zu schaffen. Das Phänomen des Gesichtertauschs per KI hat auch schon einen eigenen Namen: DeepFake - ein Konglomerat aus Deep Learning und Fake.


Aber natürlich sind dem keine Grenzen gesetzt: jeder kann damit in jedem Film jedes Gesicht gegen ein anderes austauschen - je besser die Ergebnisse werden, desto weniger wird man folglich (bewegten) Bilder trauen können. Voraussetzung für einen gelungenen Gesichtstausch samt korrekter Animation der Mimik sind nur ein bis zwei hochqualitativen Videos des einzuwechselnden Der gesamte Prozeß (Extrahierung der Quelldaten bis zur Bild-für-Bild-weisen Auswechslung der Gesichter) dauert monentan - abhängig von der GPU - zwischen 8 und 12 Stunden. User sind jedenfalls schon weltweit am Werk wie sich aus einer Bemerkung des FakeApp-Autors herauslesen läßt ("viele Nutzer hatten anscheindend Probleme mit der App und kyrillischen und chinsischen Schriftzeichen in Verzeichnisnamen").



Bei Stars ist natürlich immer genügend Videomaterial vorhanden. Dank Social Media dürften allerdings auch von vielen gewöhnlichen Menschen genügend öffentlich zugängliche Photos existieren, um realistisch ein Gesicht zu ersetzen - in welchem Kontext auch immer es dann auftauchen wird. Ob und wann Stars juristisch per Recht am eigenen Bild gegen solche Bildmanipulationen vorgehen werden, ist abzuwarten.


FakeApp
FakeApp

Die mögliche Qualität ist jedenfalls beachtlich. wie man am Beispiel der jungen Prinzessin Leia in Rogue One sehen kann - die Ergebnisse des Gesichtstauschs mittels des FakeApp sind mit denen von Hollywood vergleichbar - obwohl nur 1 Tag daran gearbeitet wurde und nicht das Orginalfilmmaterial zur Verfügung standen, sondern nur die Ersetzung quasi nochmals ersetzt wurde.



Noch ist der Subreddit ein seltsamer Mix aus Celebrity-Pornos und Tech-Talk, aber das Tool wird mit jeder Version besser und einfacher zu bedienen sein und wahrscheinlich viele Nachahmer in anderen Bereichen hervorbringen. Das Potential zum Beispiel für DeepFakes im Bereich politischer Fake News sind gewaltig: seien es gefälschte Reden, Pornos oder gewalttätige Szenen - ab sofort kann keinem bewegten Bildmaterial mehr getraut werden, das an die Öffentlichkeit aus obskuren Quellen gerät.



Und vielleicht wird mit der zunehmenden Popularität eines solchen Tools bald jede(r) die Erfahrung machen, mit gefälschten Aufnahmen von sich in den sozialen Netzwerken (oder sonstwo im Netz) konfrontiert zu werden - sei es auch auf spaßige (am Strand an der Seite von Angelina Jolie) oder unschöne Weise (Revenge Porno). Die Produktion von Video-Memen wird jedenfalls ex- und das Vetrauen in die Glaubwürdigkeit von bewegten Bildern implodieren.



Ein weiteres Beispielvideo mit Daisy Ridley:



Die Möglichkeiten eines solchen Tools für professionelle Zwecke ist allerdings auch gewaltig: so könnten damit vielleicht einmal Nachdrehs mit den Originalschauspielern überflüssig gemacht werden oder tote Schauspieler von jedermann durch Erwerb der Bildrechte von den Erben wieder auf die Filmbühne gebracht werden. Oder es werden, um Rechteprobleme zu vermeiden, einfach Gesichter von virtuellen Stars generiert und auf reale Schauspielperformances gemappt. Wir stehen erst ganz am Anfang der Entwicklung (wobei nur ein kleiner Nebeneffekt vermutlich der sein wird, daß Pornoproduzenten durch eine Masse von von Usern selbstgefakten Celebritypornos überflüssig gemacht werden).



Leserkommentare // Neueste
tom  //  15:08 am 30.1.2018
Eine Ergänzung: Nach amerikanischem Recht ist es nur schwer möglich für Prominente oder Normalbürger gegen DeepFakes (wie z.B. Porn) vorzugehen. https://www.wired...weiterlesen
ksingle  //  12:05 am 26.1.2018
Das funktioniert nur bis Körbchengröße "B". Die Dame auf dem Foto ist dafür nicht geeignet :-)
Frank Glencairn  //  12:02 am 26.1.2018
Funktioniert ja super :D https://heise.cloudimg.io/width/350/q75 ... 7c6f67.png
Ähnliche News //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash