Was kostet ein KI-Video-Clip?
Mit der Veröffentlichung von Sora hat OpenAI hat seine Preise deutlich erhöht. Genau genommen war dies zwar gar nicht unbedingt der Fall, denn für die alten Modelle blieben die Preise gleich oder fielen sogar. Doch der Zugriff auf die aktuellen State Of The Art (SOTA)-Modelle wie Sora kostet nun - für viele überraschend - satte 200 Dollar im Monat! Und erst kürzlich verkündete Sam Altman, dass die Abonnenten aufgrund der "Flatrate"-Preisgestaltung die Services noch viel mehr auslasten, als erwartet - und OpenAI deswegen selbst mit 200 Dollar noch nicht einmal kostendeckend arbeiten kann.
Sowohl im Videobereich als auch in der Large-Language-Sektion bekommt man für 200 Dollar bei OpenAI moderne Modelle, die zwar in manchen Fällen besser generieren können als günstigere Konkurrenten, aber nicht unbedingt signifikant besser. Zahlen werden derartige Preise vor allem die Anwender, denen schon ein kleiner Qualitätsvorsprung entsprechend viel wert ist.
Und realistisch betrachtet sind aktuell 200 Euro für maximal 500 Clips /Monat im Latent Space immer noch eine ziemlich günstige Angelegenheit- beziehungsweise zumindest ein realer Preis, bei dem sich generative Video-KI nun einfindet. Beim ebenfalls qualitativ weit vorne agierenden Minimax Hailuo AI kostet ein 5 Sekunden Clip je nach Abo momentan zwischen 20 und 30 Cent. Aktuell schielen potentielle Anwender jedoch besonders auf Google, deren SOTA Modell Veo 2 momentan als aktuell bestes KI-Videomodell gehandelt wird. Noch ist es jedoch nur für ausgewählte Personen nutzbar - und noch ohne ein konkretes Preisschild.
Was darf ein KI-Video-Clip kosten?
Günstiger wird der Spaß sicherlich nicht mehr werden, sofern nur einige Clips auch so gut geraten wie Clips aus einer Stock Footage Datenbank oder sogar der teure Dreh an einem extra hierfür geschaffenen Set. KI muss zudem mittelfristig ja nur "günstiger" sein als ein vergleichbarer Aufwand, um zu den gewünschten Aufnahmen zu gelangen.
Womit der Weg eigentlich schon klar zu sehen ist, über den uns die KI in der Film- und Videoproduktion führen wird: Generative KI-Videoproduktion muss noch teurer werden, um die fehlenden Quäntchen Qualität der generierten VI-Videos weiter zu verbessern. Allerdings werden diese Kosten auch vermehrt von der klassischen Film- und Videoindustrie getragen bzw. bezahlt werden.
Ein bisschen besser = viel teurer?
Es ist bereits an einigen Stellen zu sehen, dass die bisher rasende Entwicklung etwas an Schub verliert, weil ein typisches Phänomen vieler KI-Modelle zuschlägt, das man auch gut aus der Softwareentwicklung im Allgemeinen kennt: Die ersten 90 Prozent eines Projektes sind in der Regel schneller umgesetzt, als die letzten fünf Prozent, in denen sich die "Feinarbeit" befindet. Diese Feinarbeit wird regelmäßig und systematisch unterschätzt. Wir sprechen hier von Spezialfällen, die jedoch oft den entscheidenden Unterschied in der Nutzbarkeit machen. Hierbei handelt es sich in der Regel um Probleme, die eben nicht von dem generellen Algorithmus zufriedenstellend gelöst werden können.
In dieser "5 Prozent Phase" befindet sich seit geraumer Zeit die Industrie der selbst fahrenden Autos. Grundsätzlich funktioniert das autonome Fahren bereits seit Jahren ziemlich gut, aber die zahlreichen kleinen Probleme und Ausnahmen in der Praxis müssen wirklich separat erkannt und gelöst werden. Und dies dauert bereits viel länger, als selbst die Pessimisten aus der Branche ursprünglich angenommen hatten.
Chance für Medienschaffende
Für Medienschaffende bedeutet dies analog, dass sie in naher Zukunft mit immer weniger komplett untauglichen KI-Clips rechnen sollten. Allerdings wird man trotzdem noch längere Zeit mit diversen kleinen "Glitches" in generierten Videoclips leben müssen.
In den nächsten Monaten werden wir daher von den bis dahin verfügbaren KI-Modellen bereits für viele Anwendungsfälle noch bessere, aber nach wie vor sehr selten wirklich fehlerfreie Clips für Projekte bekommen. Und solange die KI nicht wirklich exakt liefern kann, was wir wollen, wird sich das Anforderungsprofil eines Mediengestalters für Bewegtbild klar in eine neue Richtung verschieben:
Denn wer die aktuellen Probleme der KI-Clips in der Postproduktion ausbügeln kann, dürfte in den nächsten zwei Jahren genug zu tun bekommen. Wir denken dabei beispielsweise an das professionelle Hochskalieren von KI-Content. Aber ebenso an das selektive Ausbügeln von fehlerhaften Bereichen in Clips oder die Schaffung einer ausreichend guten Produkt- und Personen-Konsistenz innerhalb eines Projektes. Diese Korrekturen werden zudem immer leichter von der Hand gehen, denn die KI selbst wird uns für diese Tasks sicherlich entsprechend potente Tools zur Verfügung stellen.
Wer also im Angesicht der qualitativen Verbesserung vieler KI-Generatoren sorgenvoll in die Zukunft blickt, sollte vielleicht einfach nur versuchen, sich mit den kommenden Tools möglichst frühzeitig anzufreunden und sich entsprechend einarbeiten. Denn Generative KI wird sich zwar sicher nicht aufhalten, aber noch lange Zeit von Menschen manuell verbessern lassen.