Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // KI-Videogenerator der zweiten Generation - Runway Gen-2 Zugang jetzt offen



Newsmeldung von slashCAM:



Nach der Ankündigung von Gen-2 vor drei Monaten hat Runway gestern nun auch diese zweite Version seine KI-Videogenerators für jedermann freigeschaltet.

Damit lassen ...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
KI-Videogenerator der zweiten Generation - Runway Gen-2 Zugang jetzt offen


Space


Antwort von Steelfox:

Hab es selbst nicht ausprobiert. Das Gesehene reicht, um zu sagen: Abo? Wofür?

Das Video mit den Clowns grenzt schon an Kunst, ist zugleich aber auch leicht verstörend.

Space


Antwort von Jalue:

Nach Sichtung dieses und ein paar anderer Filme: Ja, die Clips haben eine eigene, expressionistische Ästhetik, wirken aber auch irgendwie ... erratisch? So als hätte man einem Rudel unter Drogen stehender Motion Designer per Textnachricht einen vagen Arbeitsauftrag gegeben, den sie dann frei Schnauze umsetzen - Feintuning nicht erwünscht, vielleicht auch nicht möglich, Tiefe von Fabel und Plot nahe dem Grundrauschen. Hinzu kommt der schon erwähnte, verstörende Effekt duch die Gliches, nicht wenige Betrachter dürften sie sogar als eklig empfinden - und der leichte Wow-Effekt, der sich einstellt, dürfte sich sehr schnell abnutzen: "Gähn, Gliches ... halt noch so ein KI-Video."

Zum jetzigen Zeitpunkt scheinbar nur für "künstlerisch-experimentelle" Clips geeignet, wobei ich mich frage, worin denn der künstlerische Wert liegt, wenn ein Großteil der kreativen Leistung auf dem Niveau eines wirr plappernden Papageien von einer Maschine erbracht wird.

Space


Antwort von Rick SSon:

Jalue hat geschrieben:
Nach Sichtung dieses und ein paar anderer Filme: Ja, die Clips haben eine eigene, expressionistische Ästhetik, wirken aber auch irgendwie ... erratisch? So als hätte man einem Rudel unter Drogen stehender Motion Designer per Textnachricht einen vagen Arbeitsauftrag gegeben, den sie dann frei Schnauze umsetzen - Feintuning nicht erwünscht, vielleicht auch nicht möglich, Tiefe von Fabel und Plot nahe dem Grundrauschen. Hinzu kommt der schon erwähnte, verstörende Effekt duch die Gliches, nicht wenige Betrachter dürften sie sogar als eklig empfinden - und der leichte Wow-Effekt, der sich einstellt, dürfte sich sehr schnell abnutzen: "Gähn, Gliches ... halt noch so ein KI-Video."

Zum jetzigen Zeitpunkt scheinbar nur für "künstlerisch-experimentelle" Clips geeignet, wobei ich mich frage, worin denn der künstlerische Wert liegt, wenn ein Großteil der kreativen Leistung auf dem Niveau eines wirr plappernden Papageien von einer Maschine erbracht wird.
Das is wie mit Computerspielen, die eigentlich nur ne super Grafik haben. Nach 30 Min. hast du dich dran gewöhnt und dann merkst du, ob das Storytelling / Gameplay taugt, oder nicht.

Ich habs auch getestet, mit den prompts „cat chasing a dog“ oder „dog chasing a cat“ habe ich nicht mal zwei verschiedene Tiere bekommen. Eher so ein Wesen, dass mich an „Das Ding aus einer anderen Welt“ erinnert hat. Guter Film.

Space


Antwort von rudi:

Man muss die Möglichkeiten nur inhaltlich zu nutzen wissen:

https://www.youtube.com/watch?v=aZUqzeA-PRU

Space


Antwort von Jalue:

Okay, das funktioniert schon besser. Allerdings scheint es noch nicht möglich zu sein, einzelne Charaktere in verschiedenen Clips zu reproduzieren - und ohne Protagonisten stößt man schnell an Grenzen beim Storytelling.

Space


Antwort von Frank Glencairn:

Solange die AI noch noch nicht mal 2 konsistenten Bilder hintereinander erzeugen kann (geschweige denn einen ganzen Clip), mach ich mir (noch) keine Sorgen.

Space


Antwort von Jalue:

"Frank Glencairn" hat geschrieben:
Solange die AI noch noch nicht mal 2 konsistenten Bilder hintereinander erzeugen kann (geschweige denn einen ganzen Clip), mach ich mir (noch) keine Sorgen.
Ich ahne, "wir" (soweit ich mich erinnere, sind wir in ähnlichen Bereichen tätig) müssen uns eh keine Sorgen machen. Sobald das mit der Konsistenz und ohne Gliches hinhaut, können wir solche Tools nutzen, um für Kunden preisgünstig animierte Explainer zu erzeugen. Und rein privat könnte ich mir vorstellen, eigene Animationsfilm-Projekte aufzusetzen. Wenn mit Hilfe solcher KI's jeder sein eigenes Drehbuch problemlos umsetzen könnte, vielleicht zum Preis eines CC-Abos, wäre das schon eine imposante Demokratisierung des Filmschaffens.

Space


Antwort von rudi:

"Frank Glencairn" hat geschrieben:
Solange die AI noch noch nicht mal 2 konsistenten Bilder hintereinander erzeugen kann (geschweige denn einen ganzen Clip), mach ich mir (noch) keine Sorgen.
Klar ist noch nicht perfekt, aber mehr als zwei konsistente Bilder gehen in vielen Fällen schon erstaunlich gut und ich mach mir Sorgen ;)

https://www.youtube.com/watch?v=kwcGc96HwPI

Space



Space


Antwort von GaToR-BN:

Neben der vollen Generierung, wird die Assistenz bei Arbeiten Vieles einfacher machen. Dann spielt die Kamera zur Aufnahme wahrscheinlich weniger eine Rolle. Sie nimmt nur ein Bewegungsmuster auf und der Rest wird berechnet.

Ich frage mich, was das mit unserer Gesellschaft macht, wenn die Medien noch weiter auseinanderdriften und vielleicht jeder eine andere, individuelle Version einer Serie gesehen hat. Gerade bei den Menschen, die eine ganz einfache Wahrheit/Lösung bevorzugen (siehe USA) und leicht zu täuschen sind.

Space


Antwort von Darth Schneider:

Wenn der Rest berechnet wird und die Kamera nur noch Bewegungsmuster aufnimmt, ist das keine echte Kamera mehr..Nur noch ein Computer mit Sensoren.

Aber sicher kann man die Möglichkeiten von solchen Technologien sinnvoll nutzen….
Gruss Boris

Space


Antwort von Frank Glencairn:

GaToR-BN hat geschrieben:
Neben der vollen Generierung, wird die Assistenz bei Arbeiten Vieles einfacher machen. Dann spielt die Kamera zur Aufnahme wahrscheinlich weniger eine Rolle. Sie nimmt nur ein Bewegungsmuster auf und der Rest wird berechnet.
Kann ich mir kaum vorstellen - "Kamera Bewegungsmuster" sind so trivial, daß du noch nicht mal ne AI dazu brauchst.
GaToR-BN hat geschrieben:
Gerade bei den Menschen, die eine ganz einfache Wahrheit/Lösung bevorzugen (siehe USA) und leicht zu täuschen sind.
.. oder hierzulande, wo ungefähr so 80% der Bevölkerung aus diesem Holz geschnitzt sind.

Space


Antwort von Hayos:

Hier ist noch ein Test (eine Art Trailer) von dem Martin Haerlin, der das obige Video erstellt hat:

https://www.instagram.com/p/CslVrm6Af1M/?hl=de

Space


Antwort von Darth Schneider:

Die Menschen im Trailer haben etwas sehr unmenschliches an sich, ich denke das wird auch noch jahrelang so bleiben.
Auch wenn die KI Bilder und auch die Menschen sicher bald fast perfekt aussehen und sich bewegen werden.
Aber eben halt nur fast..;)
Gruss Boris

Space


Antwort von Jalue:

"Darth Schneider" hat geschrieben:
Die Menschen im Trailer haben etwas sehr unmenschliches an sich, ich denke das wird auch noch jahrelang so bleiben.
Auch wenn die KI Bilder und auch die Menschen sicher bald fast perfekt aussehen und sich bewegen werden.
Aber eben halt nur fast..;)
Gruss Boris
Ich gebe dir ja Recht, aber letztlich ist auch das nur eine Frage des Geschmacks, wie z.B. bei Pixar-Filmen. Ich kenne Leute, die lieben Pixar-Produktionen, ich persönlichen kann diesen aseptischen Kram nicht ausstehen und ziehe allemal traditionell animierte Filme wie Chicken Run vor. Bei KI-animierten Filmen stört mich zudem, dass dahinter eben keine denkenden, fühlenden, reflektierenden Menschen stehen, sondern zu 80% ein "digitaler Papagei" (aka "KI"). Heißt vielleicht aber auch nur, dass ich alt werde.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Runway Gen-1 jetzt verfügbar- teurer KI-Videogenerator für die ersten Schritte
Sony stellt neues 24-70GM der zweiten Generation vor...
Erste Alpha von Runway Gen-3 vorgestellt - KI-Videogenerator mit Weltmodell
Runway zeigt mit Gen-4 die nächste KI-Video Generation
Längere KI-Videos: Runway Gen-2 generiert jetzt bis zu 18-sekündige Clips
Runway Gen-3 Alpha Text to Video jetzt für alle Nutzer verfügbar
Populäre Video-KI Runway Gen-3 kann jetzt auch End-Frame Animation
Runway Gen-1 für iOS: KI-Videos einfach am Handy erstellen
KI-Videos: Runway Gen-2 macht weiteren Qualitätssprung nach Update
Als die Bilder laufen lernten - Motion Brush bald in Runway Gen-2
Runway Gen-2 Style Presets, Motion Brush und verbesserte Kamerakontrolle
Runway Gen-3 Video-KI wurde an tausenden, ausgesuchten YouTube-Videos trainiert
Runway Gen-3 Alpha Video-zu-Video - Spezialeffekte für jedermann im Handumdrehen
Blackmagic Camera 8.5 Public Beta - mit Cloud Zugang für die URSA Broadcast G2
RØDE NT1 5th Generation - Studio-Mikrofon jetzt mit XLR/USB-C und 32 Bit Floating-Point
Kwai stellt KI-Videogenerator KLING vor - direkte Konkurrenz für Sora?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash