Logo Logo
/// News

DeepFake: Gesichtstausch (nicht nur) in Pornos per einfacher App

[15:37 Do,25.Januar 2018 [e]  von ]    

Schon lange vorhersehbar, wird es jetzt immer realer: die quasi unendlichen Möglichkeiten per KI/Deep Learning Videos mit nur einem Knopfdruck realistisch zu manipulieren. Das neueste Beispiel vereint KI mit den tieferen Trieben zu einem unheimlichen Ergebnis. Es hat sich in einem Reddit SubForum eine eigene Szene gebildet, die es mittels des von einem anonymen Users selbst programmierten Tools FakeApp relativ einfach ermöglicht in Pornofilmen die Gesichter der Darsteller (vorerst sind es nur *innen) gegen diejenigen von Stars auszutauschen und sich so Pornos mit seinen Lieblingsschauspielerinnen selbst zu schaffen. Das Phänomen des Gesichtertauschs per KI hat auch schon einen eigenen Namen: DeepFake - ein Konglomerat aus Deep Learning und Fake.



Aber natürlich sind dem keine Grenzen gesetzt: jeder kann damit in jedem Film jedes Gesicht gegen ein anderes austauschen - je besser die Ergebnisse werden, desto weniger wird man folglich (bewegten) Bilder trauen können. Voraussetzung für einen gelungenen Gesichtstausch samt korrekter Animation der Mimik sind nur ein bis zwei hochqualitativen Videos des einzuwechselnden Der gesamte Prozeß (Extrahierung der Quelldaten bis zur Bild-für-Bild-weisen Auswechslung der Gesichter) dauert monentan - abhängig von der GPU - zwischen 8 und 12 Stunden. User sind jedenfalls schon weltweit am Werk wie sich aus einer Bemerkung des FakeApp-Autors herauslesen läßt ("viele Nutzer hatten anscheindend Probleme mit der App und kyrillischen und chinsischen Schriftzeichen in Verzeichnisnamen").

Bei Stars ist natürlich immer genügend Videomaterial vorhanden. Dank Social Media dürften allerdings auch von vielen gewöhnlichen Menschen genügend öffentlich zugängliche Photos existieren, um realistisch ein Gesicht zu ersetzen - in welchem Kontext auch immer es dann auftauchen wird. Ob und wann Stars juristisch per Recht am eigenen Bild gegen solche Bildmanipulationen vorgehen werden, ist abzuwarten.

FakeApp
FakeApp


Die mögliche Qualität ist jedenfalls beachtlich. wie man am Beispiel der jungen Prinzessin Leia in Rogue One sehen kann - die Ergebnisse des Gesichtstauschs mittels des FakeApp sind mit denen von Hollywood vergleichbar - obwohl nur 1 Tag daran gearbeitet wurde und nicht das Orginalfilmmaterial zur Verfügung standen, sondern nur die Ersetzung quasi nochmals ersetzt wurde.

Noch ist der Subreddit ein seltsamer Mix aus Celebrity-Pornos und Tech-Talk, aber das Tool wird mit jeder Version besser und einfacher zu bedienen sein und wahrscheinlich viele Nachahmer in anderen Bereichen hervorbringen. Das Potential zum Beispiel für DeepFakes im Bereich politischer Fake News sind gewaltig: seien es gefälschte Reden, Pornos oder gewalttätige Szenen - ab sofort kann keinem bewegten Bildmaterial mehr getraut werden, das an die Öffentlichkeit aus obskuren Quellen gerät.

Und vielleicht wird mit der zunehmenden Popularität eines solchen Tools bald jede(r) die Erfahrung machen, mit gefälschten Aufnahmen von sich in den sozialen Netzwerken (oder sonstwo im Netz) konfrontiert zu werden - sei es auch auf spaßige (am Strand an der Seite von Angelina Jolie) oder unschöne Weise (Revenge Porno). Die Produktion von Video-Memen wird jedenfalls ex- und das Vetrauen in die Glaubwürdigkeit von bewegten Bildern implodieren.

Ein weiteres Beispielvideo mit Daisy Ridley:

Die Möglichkeiten eines solchen Tools für professionelle Zwecke ist allerdings auch gewaltig: so könnten damit vielleicht einmal Nachdrehs mit den Originalschauspielern überflüssig gemacht werden oder tote Schauspieler von jedermann durch Erwerb der Bildrechte von den Erben wieder auf die Filmbühne gebracht werden. Oder es werden, um Rechteprobleme zu vermeiden, einfach Gesichter von virtuellen Stars generiert und auf reale Schauspielperformances gemappt. Wir stehen erst ganz am Anfang der Entwicklung (wobei nur ein kleiner Nebeneffekt vermutlich der sein wird, daß Pornoproduzenten durch eine Masse von von Usern selbstgefakten Celebritypornos überflüssig gemacht werden).

Link mehr Informationen bei www.theverge.com

  
[8 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
tom    15:08 am 30.1.2018
Eine Ergänzung: Nach amerikanischem Recht ist es nur schwer möglich für Prominente oder Normalbürger gegen DeepFakes (wie z.B. Porn) vorzugehen. https://www.wired...weiterlesen
ksingle    12:05 am 26.1.2018
Das funktioniert nur bis Körbchengröße "B". Die Dame auf dem Foto ist dafür nicht geeignet :-)
Frank Glencairn    12:02 am 26.1.2018
Funktioniert ja super :D https://heise.cloudimg.io/width/350/q75 ... 7c6f67.png
[ Alle Kommentare ganz lesen]

  Vorige News lesen Nächste News lesen 
bildPräsentation des AG DOK Kameratests im Kino bildSmallHD 502 Bright -- Full HD On-Camera Monitor mit 1000nits


verwandte Newsmeldungen:
KI:

AMDs neue Adrenalin Treiber 23.5.1 verdoppeln Rechenleistung in Stable Diffusion 3.Juni 2023
KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation 2.Juni 2023
Japan und Israel mit liberalen Copyright Positionen beim KI-Training 2.Juni 2023
Roll - virtuelles KI-Ministudio für Interviews (iPhone und Web) 1.Juni 2023
Making of - So entstehen die viralen Wes Anderson KI-Videos 29.Mai 2023
Microsoft Olive: Neues kostenloses Tool verdoppelt Performance von Stable Diffusion 24.Mai 2023
Adobe Generative Fill - KI-Bildergänzung in Photoshop, einfach für jedermann! 23.Mai 2023
alle Newsmeldungen zum Thema KI


[nach oben]

















passende Forenbeiträge zur News:

Archive

2023

Juni - Mai - April - März - Februar - Januar

2022
Dezember - November - Oktober - September - August - Juli - Juni - Mai - April - März - Februar - Januar

2021

2020

2019

2018

2017

2016

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000






































update am 4.Juni 2023 - 12:02
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*