Newsmeldung von slashCAM:
Nachdem SORA und Luma in den letzten Tagen und Monaten als SOTA-Modelle für eine Menge Aufsehen gesorgt haben, meldet sich nun einer der KI-Video Pioniere zu Wort. Runway...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Erste Alpha von Runway Gen-3 vorgestellt - KI-Videogenerator mit Weltmodell
Antwort von rudi:
Hier bei Twitter übrigens ein paar weitere Clips, die nicht auf alle auf der Webseite sind:
https://x.com/minchoi/status/1802702165107937537
Antwort von Alex:
rudi hat geschrieben:
Hier bei Twitter übrigens ein paar weitere Clips, die nicht auf alle auf der Webseite sind:
https://x.com/minchoi/status/1802702165107937537
Krass, wie gut die Ergebnisse der Generatoren mittlerweile auch im Videobereich schon sind. Wenn das in dem Tempo weitergeht, dann glaube auch ich, dass die ersten zusammenhängenden Filme mit konstanten Charakteren und Umgebungen bald täuschend echt möglich sein werden.
Da kommt eine "Brave New World" auf uns zu...
Antwort von Frank Glencairn:
Auf der einen Seite ja, auf der anderen Seite finde ich es ebenfalls krass, was für eine völlig unterirdische Qualität mittlerweile als Ausreichend wahrgenommen wird. Ich meine sowas hätten wir vor 20 Jahren bei CGI zum Beispiel niemals toleriert - die Qualitätsansprüche sind mit AI sowas von in den Keller gegangen.
Antwort von philr:
"Frank Glencairn" hat geschrieben:
Auf der einen Seite ja, auf der anderen Seite finde ich es ebenfalls krass, was für eine völlig unterirdische Qualität mittlerweile als Ausreichend wahrgenommen wird. Ich meine sowas hätten wir vor 20 Jahren bei CGI zum Beispiel niemals toleriert - die Qualitätsansprüche sind mit AI sowas von in den Keller gegangen.
Jup habe ich mir auch gedacht, ich finde es total faszinierend, was da kommt & geht aber die Art und Weise, wie es (insb. auf Linked.in & co) gefeiert wird, vor allem in der Werber-bubble ist ein bisschen befremdlich. Das, wofür einige gute Filmemacher schon in kleinsten details kritisiert wurden und jetzt ein sehr uncanny ergbnis liefert bekommt sofort das "Wow" - wird gefeiert. Es spiegelt auch meine innere Sorge wider, dass die meisten darin eigentlich hoffen ihre eigenen Ergebnisse/Jobs zu prompten und es evtl deshalb etwas anders bewerten.
Antwort von Ridge:
Kann mich den Vorrednern nur anschließen. Hut ab vor den Modellentwicklern, aber da warpt alles ganz schön herum. Gesichter bewegen sich uncanny, Insektenbeine verschwinden, Häuserfassaden ändern ihre Fensteranzahl, usw..., wirkt noch alles sehr SD1.5-mäßig.
Die Marketingleute werden es sicher gerne einsetzen, wie schon bei der Bild-KI. Aber die Frage die ich mir stelle ist, in welchem Bereich ist Video-KI denn tatsächlich sinnvoll einsetzbar? Schaut schlechter aus als Stock Images, es fehlt die Nähe und das "Echte", was für die Werbeleute ja unheimlich wichtig geworden ist.
Erst ab dem Punkt wo alles hochmodifizierbar ist und die Konsistenz bis ins kleinste Detail sitzt, dann könnte man über einen professionellen Einsatz reden. Aber da sind wir sicher noch lange entfernt. Natürlich müssen die Leute die davon profitieren sagen, dass das noch lange nicht das Ende der Fahnenstange ist, aber die generationalen Unterschiede werden immer kleiner und kleiner...
Antwort von medienonkel:
Da sich die Modelle exponentiell weiter entwickeln und auch innerhalb weniger Jahre eine ganze Industrie auf die Berechnung neuronaler Netze umgeschwenkt ist, wird das alles nicht mehr allzulange in den vermeintlichen Kinderschuhen stecken.
Der Wunsch nach feineren Einstellungsmöglichkeiten der Ergebnisse wird vermutlich auch von der KI gelöst werden.
Ein feedbackloop, in dem die Software selbst das Ergebnis überprüft, den Prompt (vor allem die negativprompts) modellagnostisch anpasst, sich selbst dabei weiter trainiert, nebenbei den menschlichen Prompter besser verstehen lernt, könnte zum Karl Klammer der Zukunft werden...
Oder man prompted sich passende Bedienelemente herbei.
Ich rechne in den nächsten 6-12 Monaten mit so einer Entwicklung. Wahrscheinlich wird an sowas auch schon gearbeitet oder das gibt es schon. Das Interwebs ist groß.
Antwort von Frank Glencairn:
Ich denke der erste und wichtigste Schritt dabei ist, sich generell von der Prompt als Input zu verabschieden.
Es war IMHO von Anfang an eine saudumme Idee, da es die denkbar ungünstigste Möglichkeit einer Dateneingabe ist.
Antwort von cantsin:
Die Frage ist, ob generative AI auch unter das Modell des Gartner Hype Cycle fällt:
zum Bild
...und wir langsam sehen, dass generative AI sich eben doch nicht quasi unbegrenzt verbessert, sondern systemischen Beschränkungen unterliegt. Bei den letzten Versionsupdates von ChatGPT zeigte sich bereits, dass die Qualität des Modells nicht linear mitskaliert mit dem quantitativen Wachstum von dessen Berechnungsaufwand.
Und dass man die prinzipielle Schwäche von generativer AI nicht loswird, dass sie (a) pur auf Heuristiken und statistischen Wahrscheinlichkeiten beruht, (b) alle Schwächen und Fehler ihres Trainingsmaterials reproduziert und (c) in der Kombination von a und b Halluzinationen erzeugt.
In Bild- und Filmindustrie könnte die praktische Folge sein, dass generative AI einfach ihr eigener (letztlich erkennbarer) Stil bleibt, so wie Airbrush-Illustration oder gezeichnete Animation, und sich so ins Arsenal von Bildtechniken einreiht.
Antwort von Alex:
Wobei ich mir sehr sicher bin, dass das, was wir aktuell zu sehen bekommen, noch (lange) nicht das Ende der Fahnenstange bedeutet, ganz im Gegenteil.
Auch wenn das so eintreffen sollte, wie Cantsin skizziert, denke ich, wir werden noch ein ganz anderes (und zwar viel höheres) Level erreichen.
Vielleicht skaliert der Fortschritt jetzt nicht mehr ganz so schnell im Verhältnis zur Zeit, aber es wird recht sicher alles noch wachsen und verbessert werden. Viel mehr, denke ich.
Antwort von Frank Glencairn:
Ich denke in 10 Jahren werden wir amüsiert auf solche Sachen wie Prompts und LORAS zurückblicken, wie wir heute auf technische Kuriositäten in 50er Jahre Popular Mechanics Magazinen zurückblicken und sagen - das war ja völlig absurd, was haben die sich (wir uns) nur dabei gedacht?
Antwort von philr:
cantsin hat geschrieben:
Die Frage ist, ob generative AI auch unter das Modell des Gartner Hype Cycle fällt:
zum Bild
...und wir langsam sehen, dass generative AI sich eben doch nicht quasi unbegrenzt verbessert, sondern systemischen Beschränkungen unterliegt. Bei den letzten Versionsupdates von ChatGPT zeigte sich bereits, dass die Qualität des Modells nicht linear mitskaliert mit dem quantitativen Wachstum von dessen Berechnungsaufwand.
Und dass man die prinzipielle Schwäche von generativer AI nicht loswird, dass sie (a) pur auf Heuristiken und statistischen Wahrscheinlichkeiten beruht, (b) alle Schwächen und Fehler ihres Trainingsmaterials reproduziert und (c) in der Kombination von a und b Halluzinationen erzeugt.
In Bild- und Filmindustrie könnte die praktische Folge sein, dass generative AI einfach ihr eigener (letztlich erkennbarer) Stil bleibt, so wie Airbrush-Illustration oder gezeichnete Animation, und sich so ins Arsenal von Bildtechniken einreiht.
Dazu fand ich Ihren (Sasha Luccioni, PhD.
https://huggingface.co/sasha <- viel zum Thema ai & ethik) Ted Talk ganz interessant zu:
https://www.youtube.com/watch?v=eXdVDhOGqoE die evtl. überzogenen Nvidea Aktienkurse sind ja gerade auch ein Zeichen was Bände spricht - in jegliche Richtung.