Newsmeldung von slashCAM:
Die chinesische Video-KI Kling, die Anfang Juni vorgestellt wurde und seit Ende Juli auch weltweit verfügbar ist, wurde gerade in der neuen Version 1.5 veröffentlicht, ...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kostenlose Video-KI Kling jetzt in Version 1.5 mit 1080p und noch besserer Qualität
Antwort von iasi:
Kling 1.5 ist zum Teil noch etwas Beta, denn der Motion Brush ist zwar ab sofort verfügbar, aber arbeitet momentan nur mit dem Modell 1.0 von Kling zusammen, auch beherrscht Kling 1.5 noch nicht die Kamerasteuerung der Version 1.0.
Kling sollte vielleicht auch mal eine KI über ihre Modellbezeichnungen laufen lassen. :)
Der neue Kling AI Guide?
Ein Link wäre hilfreich.
Die ersten Resultate (auf die man seeeeehr lange warten muss) sind typisch KI schlicht unbrauchbar.
Das schreckt ziemlich davor ab, es mal mit einem bezahlten Monat zu versuchen.
Warum in KI-Angeboten bei der Bedienung immer derart viele Stolpersteine gelegt werden, muss wohl damit zu tun haben, dass man die Massen fernhalten will.
Es besteht offensichtlich ein Bedarf für KI-Webseitengestaltung. :)
Antwort von ChristianG:
Weiß jemand wie man das benutzen kann? Wenn ich Kling öffne, lande ich auf einer englischen Seite. Sobald ich auf "Try it out" drücke, sehe ich nur noch asiatische Schriftzeichen und keine Funktion mehr, die Sprache umzustellen.
Antwort von iasi:
ChristianG hat geschrieben:
Weiß jemand wie man das benutzen kann? Wenn ich Kling öffne, lande ich auf einer englischen Seite. Sobald ich auf "Try it out" drücke, sehe ich nur noch asiatische Schriftzeichen und keine Funktion mehr, die Sprache umzustellen.
Die Registrierung hat bei mir zumindest geklappt.
https://klingai.com/
Umstellen der Sprache war nicht nötig.
An 1 meiner 3 Versuche von gestern Mittag rechnet Kling noch immer herum.
Und die Ergebnisse der anderen 2 5sec-Videos sind mau.
Personen sind unbrauchbar.
Und solch ein Prompt fürhrt zu diesem Ergebnis:
A football-sized spaceship with a dark and shiny surface flies past the moon and towards the earth.
Screenshot 2024-09-22 at 09-18-27 KLING AI Next-Generation AI Creative Studio.png
;)
Wenn man bedenkt, dass man - laut Frank - 20 bis 50 Versuche benötigt, bis etwas brauchbares herauskommt, sind 37$ für 3000 Points teuer.
Will man Qualität, "kostet" ein Versuch schließlich reichlich Points und man hat am Ende vielleicht zwischen 2 und 5 "brauchbare" Clips a´10 Sekunden.
Einen braucheren Clip hab ich leider bisher noch nicht von einer KI erhalten.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Wenn man bedenkt, dass man - laut Frank - 20 bis 50 Versuche benötigt, bis etwas brauchbares herauskommt, sind 37$ für 3000 Points teuer.
"Teuer" ist natürlich relativ.
Was denkst du was es kosten würde, den selben Shot mit Modellen oder in 3D zu machen?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Wenn man bedenkt, dass man - laut Frank - 20 bis 50 Versuche benötigt, bis etwas brauchbares herauskommt, sind 37$ für 3000 Points teuer.
"Teuer" ist natürlich relativ.
Was denkst du was es kosten würde, den selben Shot mit Modellen oder in 3D zu machen?
"Brauchbar" ist leider relativ und bedeutet bei KI letztlich, dass man irgendwann aufgibt und sich mit einem von 20-50 Versuchen zufrieden gibt.
Kling schreibst du "12jähriger Junge" und als Ergebnis bekommt man etwas, das irgendwie einem 6jährigen ähnelt.
Wenn du schreibst, "2 Personen sitzen am Ufer", dann bekommt man eine eher wabrige Figur.
Aus "am Mond vorbei und in Richtung Erde" wird ein blauer Mond.
Man kann ja auch nicht etwas in geringer Qualität gestalten und dann in höherer Qualität wiederholen lassen.
Baut man es mit Modellen oder in 3D hat man die Kontrolle und kann auch gezielte Veränderungen vornehmen.
Diese Prompt-Eingaben sind Quatsch und eher ein Glücksspiel.
Wie es mit Image-Vorlagen funktioniert, kann ich nicht sagen, da die Kling KI sie nunmehr 36 Stunden an meinem ersten Versuch rechnet.
Antwort von Frank Glencairn:
Probier mal die Prompts auf chinesisch zu machen, soweit ich weiß hat Kling ne ziemliche Sprachbarriere.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Probier mal die Prompts auf chinesisch zu machen, soweit ich weiß hat Kling ne ziemliche Sprachbarriere.
Das ist vielleicht mal einen Versuch wert. Wobei hierbei Deepl gefordert ist und ich nur hoffen kann, dass die Übersetzung dann auch etwas taugt.
Antwort von Jalue:
Was du so schilderst, deckt sich mit meinen Erfahrungen (LTX, Morph). Ist es schon schwierig, eine einzelne Einstellung wunschgemäß hinzubekommen, ist spätestens dann Ende-Gelände, wenn man eine Sequenz konsistent erzeugen möchte. Und wenn ich mir vorstelle, dass es sich um einen Kundenauftrag handelt mit X kleinteiligen Abnahmeschleifen ("der Protagonist soll jetzt doch blond gesträhnte Haare haben", "weniger Streifen auf der Krawatte ..."), wird mir ganz anders.
Prompt Eingaben auf Chinesisch! Sollte Kling nur damit funktionieren, wäre das ja wohl ein schlechter Witz! Ich würde mir wünschen, dass die Fachpresse ihre naive KI-Begeisterung mal ablegt und die Anwendungen ganz nüchtern aus praktischer Sicht bewertet.
Antwort von Frank Glencairn:
Im Prinzip genau das was ich die ganze Zeit schon sage:
Zu wenig Kontrolle, zu viel Roulette - Prompts sind das denkbar schlechteste Tool für sowas, und oft ist man mit Unreal deutlich schneller und effektiver - und natürlich ist auch die Qualität um Größenordnungen besser.
Wollte allerdings keiner hören.
Antwort von slashCAM:
"Frank Glencairn" hat geschrieben:
Im Prinzip genau das was ich die ganze Zeit schon sage:
Zu wenig Kontrolle, zu viel Roulette - Prompts sind das denkbar schlechteste Tool für sowas, und oft ist man mit Unreal deutlich schneller und effektiver - und natürlich ist auch die Qualität um Größenordnungen besser.
Wollte allerdings keiner hören.
Und was hältst Du von Video-to-Video für mehr Kontrolle?
Thomas
Antwort von Frank Glencairn:
Im Prinzip scheint das meistens deutlich besser zu funktionieren, allerdings kommt es auch oft zu völlig absurden (morph) Ergebnissen, die mehr nach einem LSD Trip aussehen, als nachdem was man eigentlich wollte. Ich denke das hängt hauptsächlich vom Trainingsmaterial ab. Wenn man was will, das nicht oder kaum Teil des Trainings war, versucht die Ai zwar ihr Bestes, aber die Ergebnisse sind meistens eher psychedelisch.
Hier ein Beispiel, mit dem ich kürzlich zu kämpfen hatte.
Das war zwar Image to Video, aber trotzdem.
Bei Video to Video kann man ja nur den Look ändern, das hilft einem aber meistens nix.
image_2024-09-23_171435774.png
Antwort von Jalue:
Bei mir haben selbst auf den ersten Blick "gute" Ergebnisse fast immer Glitches oder grobe inhaltliche Fehler. So schafft es LTX z.B. nicht, vier wirklich gleiche Flugzeuge in einer Einstellung zu erzeugen. Außerdem sind die Flügelspitzen vermatscht, bei einer fehlt das Cockpit, usw. (s.Anhang)
War übrigens text-to-video und wäre ja auch nicht weiter schlimm, wenn man der KI sagen könnte: "Bild beibehalten und nur dieses und jenes ändern".
Klappt zumindest bei mir überhaupt nicht, denn dann erzeugt sie etwas völlig Neues - mit anderen, neuen Bugs.
Stand jetzt sehe ich eine Anwendung fast nur im Social-Video-Bereich, um schnell mal Themenbilder oder Memes zu basteln,
Auf dem Smartphone-Display "versenden" sich Glitches dann hoffentlich ... aber okay, vielleicht kann "Kling" das ja besser.
Screenshot (14).png