Halim Alrasihi ist nach eigenen Angaben im Early Access Programm von Kling AI und zeigt auf Twitter sehr deutlich, wohin der KI-Video Hase in den nächsten Monaten laufen wird: Nämlich in Richtung des Trainierens von eigenen Charakteren in KI-Video-Modellen.
Alles, was man im kommenden Interface von Kling AI dafür machen muss, ist ein paar Fotos der zu trainierenden Person hochzuladen. Anschließend lässt sich diese Person dann in eigenen Text-To-Video Prompts "weiterverwerten".
Die gebotene Qualität der resultierenden Videos scheint noch (freundlich formuliert) ein oder zwei Generationen von perfekt nutzbarer Qualität entfernt, jedoch ist die Richtung der Möglichkeiten klar erkennbar.
Dies wiederum ist der Grundstein für eine KI-Vision, die wir auch schon länger kommen sehen: Nämlich, dass man zukünftig für ein Projekt verschiedene Charaktere mit eigenen, eindeutigen Namen in die Videomodelle "eintrainieren" kann. Also die Hauptdarsteller seines Projekts mittels speziellem Finetuning nutzbar machen. Im Prompt kann man diese dann direkt wie eine Variable ansprechen und somit Regieanweisungen für seine virtuellen Schauspieler erteilen, die dann auch konsistent im ganzen Projekt gleich aussehen werden.
Wer immer noch nicht glaubt, dass wir hier eine komplett neue Art des Filmemachens direkt vor unseren Augen entstehen sehen, der kann sich ja noch mal hinlegen. Wir persönlich wetten, dass wir derartige Möglichkeiten bereits in weniger als 12 Monaten nutzen werden können.
2. Next, upload images of your character to Kling AI and create 10 videos where the character’s face is the focus.
— Halim Alrasihi (@HalimAlrasihi) November 4, 2024
Use different backgrounds, expressions and activities, but keeping it simple worked really well for me. pic.twitter.com/tlVBHYlEzn