Generative Video-KI Neues Light-Tricks LTX-2 Open Source Video-Modell erstellt 4K-Clips mit synchronem Sound

// 12:09 Sa, 10. Jan 2026von

LTX-2 von Light-Tricks will das erste Open Source KI-Modell für generative Videoerstellung sein, das alle modernen State-of-the-Art-Kernfunktionen in einem Modell vereint: Dies sind synchronisierte Audio- und Video-Ausgabe (in bis zu 4K 50fps, max. 20sec), hohe Wiedergabetreue, mehrere Wiedergabemodi, produktionsfertige Ausgänge, API-Zugriff und eben offener Zugang zu Gewichten und Trainings-Code.


Dadurch ist es prinzipiell möglich, das gesamte Modell auch am heimischen PC laufen zu lassen, allerdings wird von Light-Tricks noch mindestens eine 32GB Nvidia-GPU vorausgesetzt, womit die günstigste Lösung wohl eine Nvidia RTX 5090 darstellt. (Empfohlen wird übrigens eine 80GB GPU). Doch selbst wer ein solches Modell im Rechner hat, sollte mit dem bislang veröffentlichten Code auch noch 64 GB auf der CPU-Seite mitbringen, was bei der aktuellen RAM-Dürre auch nochmal ein kostspieliges Update-Unterfangen bedeuten kann. Ansonsten finden sich sicherlich sehr bald zahlreiche KI-Cloudservices, mit denen man das Modell online (be)nutzen kann.



Light-Tricks LTX-2 is now freely available as an open-source AI video model
Light-Tricks LTX-2 ist als Open Source KI-Video-Modell ab sofort frei verfügbar


Ebenso finden sich im Netz bereits zahlreiche Code-Abwandlungen, welche das Modell durch Gewichtsreduktion/Quantisierung noch kleiner komprimieren - allerdings mit Abstrichen bei den Möglichkeiten und der Qualität. Dies ist insofern interessant, weil man hiermit sehr kostengünstig zuhause ein Video-Prototyping betreiben kann und anschließend gelungene Clips in hoher Qualität in der Cloud erstellen lässt.



Den Entwicklern lag auch eine Day-1-Unterstützung von ComfyUI am Herzen, weshalb erfahrene Anwender hier ohne große Einstiegshürden direkt loslegen können. Trotz Open Source gibt es bereits viel Infrastruktur um das Modell, wie dokumentierte API-Calls oder auch einen Prompting Guide. In ComfyUI-LTX-2-Pipelines hilft der "enhance_prompt"-Parameter, der noch vor der Generation eine automatische Verbesserung des Prompts vornehmen kann.


Wer das Modell für eigene Projekte feintunen will, findet hier bereits Dokumentation und Tipps zum LoRA-Training.



Die Demos zur Open Source Öffnung sehen teilweise schon sehr überzeugend aus:






Als erstes Videofoundation-Modell setzt LTX-2 damit zum Jahresstart die Messlatte für Open Source KI ein gutes Stück höher. Und wenn man bedenkt, was man mittlerweile aus einer (zugegebenermaßen recht teuren) Gaming-Grafikkarte für Videos zaubern kann, darf man schon ein bisschen staunen. Die Entwicklung der neuen Möglichkeiten in der KI-Videografie - seien sie auch größtenteils nur Slop (Schund) - ist zugleich auch immer wieder faszinierend anzusehen.


Ähnliche News //
Umfrage
    Generative Video-KI: Hast du ein Abo?







    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash