Ohne Kontrolle Schauspieler als unfreiwillige Werbefiguren - Die dunkle Seite digitaler KI-Klone

Wer würde nicht gerne mit minimalem Aufwand Geld verdienen? Das haben sich wohl Schauspieler gedacht, die für mehrere tausend Dollar ihren digitalen Doppelgänger an einen Anbieter von KI-Avataren lizenziert haben. Ein unschönes Erwachen allerdings erlebten viele, die dann sehen, wofür ihr Avatar eingesetzt wurde: für fragwürdige Werbung, Scams oder sogar politische Propaganda – und die menschlichen Vorbilder haben keine Möglichkeit mehr, das zu verhindern.



Billige KI-Avatare als Alternative zu echten Drehs

KI-gestützte Dienste wie das mit rund 2 Milliarden Dollar bewertete Synthesia bieten sich als billige Alternative zu Produktionen mit echten Schauspielern an, hauptsächlich für Talking-Heads-Videos, zum Beispiel für Marketing, Social Media oder Videobotschaften. Das Ausgangsmaterial liefern halbtägige Greenscreen-Videodrehs mit echten Schauspielern, die verschiedene Emotionen darstellen müssen. Aus diesem Material werden dann per KI Avatare generiert, die in Videos für die Kunden genutzt werden können. Zwar können Avatare, die wie echte Menschen aussehen, auch rein per KI generiert werden, aber die auf Schauspieler-Scans beruhenden Avatare sollen in Bezug auf die Ausdruckskraft (noch) realistischer wirken.


Synthesia KI-Avatar
Synthesia KI-Avatar

Kunden der Plattform können dann einen von vielen Avataren auswählen und ihn in beliebigen Sprachen und Tonlagen mit eigenen Texte füttern; die KI generiert daraus echt aussehende Talking-Head-Videos.




Weitreichende Verträge

Doch die Verträge, die die Schauspieler unterschrieben haben, haben es in sich: Einige Unternehmen nutzen weitreichende, nicht widerrufliche Lizenzen mit weltweiter Gültigkeit, gegen die nachträglich kein Einspruch eingelegt werden kann. So sind Schauspieler machtlos, wenn ihre digitalen Klone online in fragwürdigen Kampagnen eingesetzt werden.



So kassierte beispielsweise der New Yorker Schauspieler Adam Coy 1.000 Dollar für die Nutzung seines digitalen Avatars, welcher dann als Zeitreisender vor Katastrophen warnte. Der britische Schauspieler Connor Yeates fand sich wieder als Sprachrohr des Präsidenten von Burkina Faso, und der südkoreanische Schauspieler Simon Lee musste feststellen, dass sein virtuelles Ebenbild mal als Gynäkologe, mal als Chirurg auf TikTok und Instagram Werbung für Zitronenmelissentee zum Abnehmen oder Eisbäder gegen Akne auftrat.





Synthesia räumte auf Presseanfragen ein, dass seine Plattform durch zeitweilige Lücken in der Inhaltskontrolle irreführende und propagandistische Clips generiert wurden, und gelobt nun Besserung. Allerdings haben andere KI-Avatar-Plattformen noch lockerere Regeln. Experten fordern daher mehr Transparenz, rechtliche Vorgaben und Aufklärung – denn hinter jedem Avatar steckt ein realer Mensch, der sich mit realen Konsequenzen konfrontiert sehen kann.






Der Kampf um die KI-Klone in Hollywood

Dieser Konflikt spiegelt im Kleinen den großen Kampf um das Recht am eigenen Avatar wider, der auch in einem größeren Maßstab in Hollywood ausgefochten wird, wo Schauspieler im letzten Jahr per Streik durchgesetzt hatten, die Kontrolle über den Einsatz ihrer Avatare sowie Kompensation dafür zu erhalten.



Schauspieler dagegen, die nicht gewerkschaftlich organisiert sind oder mit Avatar-Firmen Verträge abschließen, sollten sich über die Tragweite ihrer Entscheidungen klar sein – ihr Abbild wird ohne ihr Wissen womöglich für Kampagnen eingesetzt, die ihren Ruf schädigen und sich so negativ auf ihre Karriere als Schauspieler auswirken können.


Ähnliche News //
Umfrage
    Mit welchem Programm schneidest Du?














    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash