[14:22 Mi,30.Dezember 2020 [e] von Rob] |
Dass es noch deutlich besser geht, zeigt Shamook mit seinem auf DeepFake basierten YouTube Clip. Auch für uns stellt Shamooks „Alternativ-Szene“ die deutlich realistischere Version des jungen Skywalkers (Mark Hamill) dar. Die Frage, die sich hierbei aufdrängt lautet: Wieso setzt nicht ILM ebenfalls auf Machine Learning, um solche sogenannten „Faceswaps“ zu berechnen? Das dürfte allerdings nur noch eine Frage der Zeit sein: Zwar existiert unserer Kenntnis nach noch keine DeepFake Software im Produktionsstadium, welche die erforderliche Auflösung und Farbtiefe von aktuellen Blockbustern unterstützt und zeitlich perfekt kohärent ist. Für YouTube-Auflösungen reichen aktuelle Tools wie das populäre DeepFaceLab aus – wer jedoch matchendes DeepFake-Material für die ARRI Alexa LF (Hauptkamera bei The Mandalorian) produzieren muss, steht vor einer ganz anderen Herausforderung. Doch Disney arbeitet bereits mit einem Team der ETH Zürich an ![]() ![]() Es soll nach Angaben von Disney der erste Algorithmus sein, welcher in der Lage ist, Ergebnisse in Megapixel Qualität zu liefern, welche zudem auch zeitlich kohärent sind. Und tatsächlich sehen die Ergebnisse schon sehr gut aus. „Authentizität“ dürfte damit noch begehrter werden – als es dies ohnehin schon ist ;-) ![]() |
![]() |