Schon seit längerem arbeitet Nvidia zusammen mit der finnischen Aalto University an neuronalen Netzen, die verblüffend echt aussehende Gesichter generieren. Im Laufe der Zeit wurde die entsprechende KI - genauer gesagt ein GAN, ein Generative Adversarial Network - immer mehr weiterentwickelt und erlaubte es auch einzelne Aspekte eines Gesichts per "Style Transfer" gezielt zu verändern, also zum Beispiel Geschlecht, Hautfarbe, Frisur, Alter oder Gesichtsausdruck. Eine schöne Demonstration der Technik liefert die Website This Person does not exist, welche bei jedem Aufruf ein neues Gesicht generiert.

Der nächste logische Schritt des StyleGAN2 Algorithmus war eine Animaton dieser neu geschaffenen Gesichter bzw. ein Morphen zwischen Gesichtern mit sich leicht verändernden Parametern. Das sah schon ganz gut aus, die resultierenden Gesichter litten jedoch unter einem speziellen Problem: die Gesichter schienen sich quasi "unter" manchen Merkmalen wie etwa einem Bart oder den Haaren zu ändern, welche wie festgeklebt aussahen.
Die neueste Version Alias-Free GAN macht noch einen entscheidenden Schritt weiter, indem durch eine kleine Verbesserung der Architektur des neuronalen Netzes dieser Fehler ausgebessert wird. Änderungen der Mimik der Gesichter sehen jetzt ebenso wie das sanfte Morphing von Parametern viel besser aus und ermöglichen so die Generierung nicht mehr nur von Photos, sondern von Videos von realistisch aussehenden künstlich geschaffenen Gesichtern.
// Top-News auf einen Blick:
- Fujifilm GFX Eterna 55 erklärt: Aufnahmeformate, Großformat-Open-Gate, Fujinon 32-90
- Neue Vocas Matte Box MB-260 - kompakt und frei konfigurierbar
- Die Canon EOS C50 erklärt - 7K RAW, 120p 4K und Open Gate
- Blackmagic Camera App 3.0 für Android und iOS bringt viele Neuerungen
- Blackmagic DaVinci Resolve 20.2 bringt neben Apple ProRes RAW u.a. ...
- Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
Hier das neue Alias-Free GAN Verfahren wie immer schön erklärt von Károly Zsolnai-Fehér im neuesten Two Minute Papers Video: