Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Erste Alpha von Runway Gen-3 vorgestellt - KI-Videogenerator mit Weltmodell



Newsmeldung von slashCAM:



Nachdem SORA und Luma in den letzten Tagen und Monaten als SOTA-Modelle für eine Menge Aufsehen gesorgt haben, meldet sich nun einer der KI-Video Pioniere zu Wort. Runway...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Erste Alpha von Runway Gen-3 vorgestellt - KI-Videogenerator mit Weltmodell


Space


Antwort von rudi:

Hier bei Twitter übrigens ein paar weitere Clips, die nicht auf alle auf der Webseite sind:
https://x.com/minchoi/status/1802702165107937537

Space


Antwort von Alex:

rudi hat geschrieben:
Hier bei Twitter übrigens ein paar weitere Clips, die nicht auf alle auf der Webseite sind:
https://x.com/minchoi/status/1802702165107937537
Krass, wie gut die Ergebnisse der Generatoren mittlerweile auch im Videobereich schon sind. Wenn das in dem Tempo weitergeht, dann glaube auch ich, dass die ersten zusammenhängenden Filme mit konstanten Charakteren und Umgebungen bald täuschend echt möglich sein werden.
Da kommt eine "Brave New World" auf uns zu...

Space


Antwort von Frank Glencairn:

Auf der einen Seite ja, auf der anderen Seite finde ich es ebenfalls krass, was für eine völlig unterirdische Qualität mittlerweile als Ausreichend wahrgenommen wird. Ich meine sowas hätten wir vor 20 Jahren bei CGI zum Beispiel niemals toleriert - die Qualitätsansprüche sind mit AI sowas von in den Keller gegangen.

Space


Antwort von philr:

"Frank Glencairn" hat geschrieben:
Auf der einen Seite ja, auf der anderen Seite finde ich es ebenfalls krass, was für eine völlig unterirdische Qualität mittlerweile als Ausreichend wahrgenommen wird. Ich meine sowas hätten wir vor 20 Jahren bei CGI zum Beispiel niemals toleriert - die Qualitätsansprüche sind mit AI sowas von in den Keller gegangen.
Jup habe ich mir auch gedacht, ich finde es total faszinierend, was da kommt & geht aber die Art und Weise, wie es (insb. auf Linked.in & co) gefeiert wird, vor allem in der Werber-bubble ist ein bisschen befremdlich. Das, wofür einige gute Filmemacher schon in kleinsten details kritisiert wurden und jetzt ein sehr uncanny ergbnis liefert bekommt sofort das "Wow" - wird gefeiert. Es spiegelt auch meine innere Sorge wider, dass die meisten darin eigentlich hoffen ihre eigenen Ergebnisse/Jobs zu prompten und es evtl deshalb etwas anders bewerten.

Space


Antwort von Ridge:

Kann mich den Vorrednern nur anschließen. Hut ab vor den Modellentwicklern, aber da warpt alles ganz schön herum. Gesichter bewegen sich uncanny, Insektenbeine verschwinden, Häuserfassaden ändern ihre Fensteranzahl, usw..., wirkt noch alles sehr SD1.5-mäßig.
Die Marketingleute werden es sicher gerne einsetzen, wie schon bei der Bild-KI. Aber die Frage die ich mir stelle ist, in welchem Bereich ist Video-KI denn tatsächlich sinnvoll einsetzbar? Schaut schlechter aus als Stock Images, es fehlt die Nähe und das "Echte", was für die Werbeleute ja unheimlich wichtig geworden ist.
Erst ab dem Punkt wo alles hochmodifizierbar ist und die Konsistenz bis ins kleinste Detail sitzt, dann könnte man über einen professionellen Einsatz reden. Aber da sind wir sicher noch lange entfernt. Natürlich müssen die Leute die davon profitieren sagen, dass das noch lange nicht das Ende der Fahnenstange ist, aber die generationalen Unterschiede werden immer kleiner und kleiner...

Space


Antwort von medienonkel:

Da sich die Modelle exponentiell weiter entwickeln und auch innerhalb weniger Jahre eine ganze Industrie auf die Berechnung neuronaler Netze umgeschwenkt ist, wird das alles nicht mehr allzulange in den vermeintlichen Kinderschuhen stecken.
Der Wunsch nach feineren Einstellungsmöglichkeiten der Ergebnisse wird vermutlich auch von der KI gelöst werden.
Ein feedbackloop, in dem die Software selbst das Ergebnis überprüft, den Prompt (vor allem die negativprompts) modellagnostisch anpasst, sich selbst dabei weiter trainiert, nebenbei den menschlichen Prompter besser verstehen lernt, könnte zum Karl Klammer der Zukunft werden...
Oder man prompted sich passende Bedienelemente herbei.

Ich rechne in den nächsten 6-12 Monaten mit so einer Entwicklung. Wahrscheinlich wird an sowas auch schon gearbeitet oder das gibt es schon. Das Interwebs ist groß.

Space


Antwort von Frank Glencairn:

Ich denke der erste und wichtigste Schritt dabei ist, sich generell von der Prompt als Input zu verabschieden.
Es war IMHO von Anfang an eine saudumme Idee, da es die denkbar ungünstigste Möglichkeit einer Dateneingabe ist.

Space


Antwort von cantsin:

Die Frage ist, ob generative AI auch unter das Modell des Gartner Hype Cycle fällt:


zum Bild


...und wir langsam sehen, dass generative AI sich eben doch nicht quasi unbegrenzt verbessert, sondern systemischen Beschränkungen unterliegt. Bei den letzten Versionsupdates von ChatGPT zeigte sich bereits, dass die Qualität des Modells nicht linear mitskaliert mit dem quantitativen Wachstum von dessen Berechnungsaufwand.

Und dass man die prinzipielle Schwäche von generativer AI nicht loswird, dass sie (a) pur auf Heuristiken und statistischen Wahrscheinlichkeiten beruht, (b) alle Schwächen und Fehler ihres Trainingsmaterials reproduziert und (c) in der Kombination von a und b Halluzinationen erzeugt.

In Bild- und Filmindustrie könnte die praktische Folge sein, dass generative AI einfach ihr eigener (letztlich erkennbarer) Stil bleibt, so wie Airbrush-Illustration oder gezeichnete Animation, und sich so ins Arsenal von Bildtechniken einreiht.

Space



Space


Antwort von Alex:

Wobei ich mir sehr sicher bin, dass das, was wir aktuell zu sehen bekommen, noch (lange) nicht das Ende der Fahnenstange bedeutet, ganz im Gegenteil.
Auch wenn das so eintreffen sollte, wie Cantsin skizziert, denke ich, wir werden noch ein ganz anderes (und zwar viel höheres) Level erreichen.
Vielleicht skaliert der Fortschritt jetzt nicht mehr ganz so schnell im Verhältnis zur Zeit, aber es wird recht sicher alles noch wachsen und verbessert werden. Viel mehr, denke ich.

Space


Antwort von Frank Glencairn:

Ich denke in 10 Jahren werden wir amüsiert auf solche Sachen wie Prompts und LORAS zurückblicken, wie wir heute auf technische Kuriositäten in 50er Jahre Popular Mechanics Magazinen zurückblicken und sagen - das war ja völlig absurd, was haben die sich (wir uns) nur dabei gedacht?

Space


Antwort von philr:

cantsin hat geschrieben:
Die Frage ist, ob generative AI auch unter das Modell des Gartner Hype Cycle fällt:


zum Bild


...und wir langsam sehen, dass generative AI sich eben doch nicht quasi unbegrenzt verbessert, sondern systemischen Beschränkungen unterliegt. Bei den letzten Versionsupdates von ChatGPT zeigte sich bereits, dass die Qualität des Modells nicht linear mitskaliert mit dem quantitativen Wachstum von dessen Berechnungsaufwand.

Und dass man die prinzipielle Schwäche von generativer AI nicht loswird, dass sie (a) pur auf Heuristiken und statistischen Wahrscheinlichkeiten beruht, (b) alle Schwächen und Fehler ihres Trainingsmaterials reproduziert und (c) in der Kombination von a und b Halluzinationen erzeugt.

In Bild- und Filmindustrie könnte die praktische Folge sein, dass generative AI einfach ihr eigener (letztlich erkennbarer) Stil bleibt, so wie Airbrush-Illustration oder gezeichnete Animation, und sich so ins Arsenal von Bildtechniken einreiht.
Dazu fand ich Ihren (Sasha Luccioni, PhD. https://huggingface.co/sasha <- viel zum Thema ai & ethik) Ted Talk ganz interessant zu: https://www.youtube.com/watch?v=eXdVDhOGqoE die evtl. überzogenen Nvidea Aktienkurse sind ja gerade auch ein Zeichen was Bände spricht - in jegliche Richtung.

Space






Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Runway Gen-1 jetzt verfügbar- teurer KI-Videogenerator für die ersten Schritte
KI-Videogenerator der zweiten Generation - Runway Gen-2 Zugang jetzt offen
Runway Gen-3 Alpha Text to Video jetzt für alle Nutzer verfügbar
Runway Gen-1 für iOS: KI-Videos einfach am Handy erstellen
Längere KI-Videos: Runway Gen-2 generiert jetzt bis zu 18-sekündige Clips
KI-Videos: Runway Gen-2 macht weiteren Qualitätssprung nach Update
Als die Bilder laufen lernten - Motion Brush bald in Runway Gen-2
Runway Gen-2 Style Presets, Motion Brush und verbesserte Kamerakontrolle
CES 2023 Laptop Lineup von MSI - 13.Gen Intel und RTX 40 von Nvidia
Kwai stellt KI-Videogenerator KLING vor - direkte Konkurrenz für Sora?
Noch mehr Konkurrenz für OpenAI Sora: KI-Videogenerator Luma Dream Machine
Sony stellt wegen Chipmangel die Produktion von Sony Alpha 7 II, Alpha 6100/6400 und PXW-Z190 ein
3.-5. Februar: GEN:48 - KI-Filmwettbewerb mit Zeitrahmen von 48 Stunden
Sony präsentiert Alpha 6600 mit IBIS für Filmer sowie Alpha 6100
Sony stellt kompakte Alpha 7C II und Alpha 7C R Vollformat-DSLMs mit 33 und 61 MP vor
Samsung stellt mit T9 erstmalig SSD mit USB 3.2 Gen 2x2 mit bis zu 2.000 MB/s vor
Erste Panasonic S5 II und S5 IIX Cages von Zacuto und SmallRig vorgestellt
Akkulaufzeit für Videoaufnahme Alpha | sony alpha 7 iii




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash