Mmh, naja, das ist nix Neues ;-) Außer vielleicht, dass es sich um ein optimiertes, schnelles Open-Source-Modell für Embodied AI handelt. Physik-Engines auf Deep-Learning Basis nutzt man doch seit bald 20 Jahren.
Gerade im Doku Bereich sehen ich da ein sehr weites Feld von Anwendungsmöglichkeiten.Natürlich nicht jede Art von Video - im Dokumentarischen und bei Live-Inhalten wird KI höchstens assistieren, und wir sind uns ziemlich sicher, dass die meisten von uns auch in Spielfilmen echt agierende Menschen den kommenden KI-Marionetten vorziehen werden. Die rechtliche Situation bei kommerzieller Verwendung von KI-generierten ist ebenfalls noch nicht geklärt.
ich würds auch gern nutzen, aber es is genau wie mit generative fill in photoshop. Immer wenn ich es nutzen möchte kommt nur mist hinten raus.Wingis hat geschrieben: ↑Fr 20 Dez, 2024 10:46 Wie ich schon seit Anbeginn der KI-Panikmache sage: Es ist ein Werkzeug! Und natürlich wird es permanent besser und das in nahezu beängstigender Geschwindigkeit. Und für manche Einsatzzwecke ist dieses Werkzeug, schneller, leistungsfähiger oder kostengünstiger als andere. Aber es wird noch lange nicht jeden Kameramann, CG-Artist, Drehbuchautoren und Schauspieler arbeitslos machen. Dazu liegen zwischen Prompt und Ergebnis einfach zu viele Interpretationsspielräume, die eine KI nur mit Erfahrungswerten füllen kann. Dabei kommt eben bisher noch recht inkonsistenter oft unfreiwillig komischer Murks zustande. Ich hab keine Angst davor - ich freue mich über die Möglichkeiten und das ich nun in manche Projekte bereits Shots integrieren kann, die ansonsten aus Budgetgründen oft garnicht möglich gewesen wären. Deshalb würde ich sie aber dennoch immer anders lösen, wenn das Budget das hergibt. Als Previz-Tool finde ich KI auch sehr angenehm.
Ja, das aktuelle Ratio für Production Ready ist momentan bei etwa 50:1.
und genau das ist eben das Problem. Sowohl ich als auch der Kunde versprechen sich davon einen verringerten Aufwand und entsprechend verringerte Kosten. Wenn dann aber die Automatik, egal welche, bei der Produktion versagt, dann hast du immer diese unangenehme Kommunikations- und Erfahrungssituation für beide Seiten - und das bleibt halt auch auf beiden Seiten als Eindruck hängen. Das Fazit der Kunden ist nämlich niemals: „naja, ich wollte sparen und wusste um das Risiko“, sondern „Sie sind doch der Profi, Sie hätten mich besser beraten müssen!“Frank Glencairn hat geschrieben: ↑Fr 20 Dez, 2024 13:00Ja, das aktuelle Ratio für Production Ready ist momentan bei etwa 50:1.
Ach ok. Ich hab gestern die ganzen KI News von Google angesehen und das Genesis wurde mir von YouTube so in Timeline gepackt, dass ich dachte das wäre eine weitere Google Geschichte.philr hat geschrieben: ↑Do 19 Dez, 2024 21:10 P.S: Genesis hat nix mit Google zu tun! https://genesis-embodied-ai.github.io/ Meinst du evtl Gemini?
Ja, beim aktuellen Stand der Technik können wir das leider noch vergessen - man muß das eher noch als experimental verstehen.
das hat sich auch zum Großteil sowieso schon total demokratisiert.Frank Glencairn hat geschrieben: ↑Fr 20 Dez, 2024 15:00Ja, beim aktuellen Stand der Technik können wir das leider noch vergessen - man muß das eher noch als experimental verstehen.
In ein paar Jahren vielleicht.
Was die Kosten betrifft, seh ich da allerdings keine Hoffnung, ab nem gewissen Zeitpunkt müssen die wahren Kosten durchgereicht werden, und dann ist Schluß mit "billiger".
Ja, je nachdem was man macht stimmt das, aber AI hat hier natürlich gerade ein ganz neues Feld auf gemacht.
ich verstehe tatsächlich das „gerade im Dokubereich“ nicht.Frank Glencairn hat geschrieben: ↑Sa 21 Dez, 2024 06:36Ja, je nachdem was man macht stimmt das, aber AI hat hier natürlich gerade ein ganz neues Feld auf gemacht.
Bei den beiden aktuellen Doku Produktionen hätte ich mir schon manchmal ne 20K GPU gewünscht, um das hier lokal ohne irgendwelche künstlichen Restriktionen laufen zu lassen.
Ganz oft bin ich in Situationen rein gelaufen, bei denen die AI die Arbeit komplett verweigert hatte, weil die Prompt gegen irgendwelche dubiosen internen Regeln verstößt. Sowas macht das ganze dann natürlich komplett unbrauchbar für eine Produktion.
Dabei wäre das gerade im Doku Bereich eine echte Bereicherung.
Wobei die größte Bremse natürlich momentan die Sender selbst sind.
Kommt halt auf das Thema an. Die beiden Folgen die ich gerade gemacht habe, beschäftigen sich mit mit Sachen die man nicht so einfach filmen kann.
verstehe. Klar, bei Fabelwesen machts total Sinn, aber bei historischen Feldschlachten hättest du wahrscheinlich schon wieder das Problem, dass Rüstungen & Co nicht historisch korrekt sind, oder? Das könnte dann shitstorm geben.Frank Glencairn hat geschrieben: ↑Sa 21 Dez, 2024 08:42Kommt halt auf das Thema an. Die beiden Folgen die ich gerade gemacht habe, beschäftigen sich mit mit Sachen die man nicht so einfach filmen kann.
Beispiel: Vlad der Pfähler (Dracula) - der seine Feinde ja bekanntlich aufgespießt hat.
Schwer zu filmen (kein entsprechendes Budget), es gibt genau 2 historische Holzschnitte mit zweifelhafter Rechtesituation, für die internationale Auswertung - ich muß aber 52 Minuten bebildern (natürlich nicht durchgängig).
Oder eine Gruppe französischer Dragoner aus dem 17. Jahrhundert, die Wölfe jagen, etc
Da wäre AI schon praktisch, um ein paar zusätzliche Bilder zu erzeugen. Leider verstößt das Generieren von aufgespießten Feinden und so manches andere den Regeln.
Was ich meine sind also z.B. alle möglichen historischen Szenen, bei denen für das Reenactment kein Budget da ist. Aber auch alles andere was nicht so einfach zu machen ist (in unserem Fall Geister, Werwölfe, Monster, historische Feldschlachten, oder auch nur ganz einfach Persönlichkeiten von denen es keine Fotos gibt, weil zu lange her. etc.).
Ja, das stimmt - deshalb sage ich ja - not production ready.
Wir stellen vor: The Heist - unter der Regie von Jason Zada. Jede Aufnahme dieses Films wurde per Text-to-Video mit Google Veo 2 erstellt. Es dauerte Tausende von Generationen, bis der endgültige Film fertig war, aber ich bin absolut begeistert von der Qualität, der Konsistenz und der Einhaltung der ursprünglichen Aufforderung. Als ich „düsteres NYC in den 80ern“ beschrieb, wurde das in höchstem Maße erfüllt - und zwar durchgängig. Es ist zwar immer noch nicht perfekt, aber es ist mit Abstand das beste Modell zur Videoerstellung, das es gibt. Außerdem ist es wichtig, hinzuzufügen, dass keine VFX, kein Clean Up, keine Farbkorrektur hinzugefügt wurden. Alles ist direkt aus Veo 2. Google DeepMind
Das gesamte Sounddesign (das war ein Unterfangen!), der Schnitt, die Musik und das Prompting stammen von Jason Zada. Tools wie dieses beweisen, dass in den Händen talentierter Filmemacher, die die Technik verstehen, alles möglich ist. Ich kann es kaum erwarten, Ihnen zu zeigen, was nächstes Jahr bei Secret Level auf dem Programm steht.