Die Grundlage für das Video waren Aufnahmen der Tänze der Bandmitglieder,
die Band beim Spielen sowie Foto-Portraits.
Nach einem anfänglich intensiven Austausch mit der Band folgte eine längere Phase,
in der ich rund 300 Clips mit verschiedenen KI-Bild- und Videomodellen generiert habe.
Die Musiker haben das Projekt erst in einem relativ fortgeschrittenen Stadium wieder gesehen.
Das ist ein deutlich anderer Ablauf als bei einer klassischen szenischen Produktion, bei der
die Beteiligten über weite Strecken eng eingebunden sind.
Ein wichtiger Faktor für das Ergebnis waren multimodale Modelle bzw. ein referenzbasierter Workflow,
bei dem sich unterschiedliche Quellen wie Personen, Locations und Objekte innerhalb eines Clips
kombinieren lassen. Zudem war es möglich, die Avatare der Musiker über ihre realen Tanzaufnahmen
zu animieren, wobei modellbedingt die tanzenden Personen kaum mehr zu erkennen sind,
aber mit diesem Kompromiss kann ich leben.
Schnitt und Color Grading in Davinci Resolve Studio.
Da die KI irgendwelche Farben generierte und ich durch ein buntes Tunnelfoto schon mit einem Look
startete, war dies eine Herausforderung, bzw. ziemlich Zeitintensiv.
Alles in allem bin ich erleichtert und froh, etwas realisiert zu haben, das nach meinem Ermessen
einigermassen stimmig ist.
Für mich bringt die Verwendung von KI schon eine wesentliche Erweiterung von Möglichkeiten,
auch wenn es viel Geduld und Energie braucht. Letzteres aber vermutlich weniger, als in einer
realen Produktion.


