Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 11:48
@philr
Das hat aber nichts mit der AI und mit dem Internet zu tun.
Es sind immer Menschen die am Schluss entscheiden.
Ich hatte ja damals vor 30 Jahren genau aus dem selben Grund (wie du da oben antönst) aufgehört beim Fernsehen zu arbeiten.
Weil ich absolut keinen Bock hatte irgendwelche todlangweiligen TV Sendungen zu filmen oder zu schneiden. Über Themen die mich nicht nicht die Bohne interessierten.
Dann nach Jahren selbständig Auftragsfimchen machen, genau dasselbe.
Ich hatte überhaupt keine Lust Hochzeiten, Vernissagen, Image Videos, Technoparty Videos und billig TV Werbespots für irgendwelche Möbelfirmen und Bauunternehmer zu drehen….
das ist ja auch dein gutes recht. aber eventuell gibt es ja even diese leute, deren lust es ist, genau das zu tun. oder deren lust es war, über wochen bis monate lang 3d-modelle, character-compositings zu machen. auch nicht meins, aber ich respektiere und wertschätze sie und deren arbeit und mache sie mir nicht aus gier zu eigen. bei ki sind wir an einem punkt, wo wir ein werkzeug haben, das genau das in allen formen kann. einige branchen haben da jetzt lobby und schutz, dass sie nicht missbraucht werden können. haben wir oder die künstler die?
ich hab mir als beispiel pixar filme immer angeschaut mit dem wissen das dahinter monatelang harte arbeit steckte nicht nur weil da am conputer entsnadene pixel rumschwirren und das hat einen grossteil meiner emotionen und genuss auch diese filme zu schaetzen ausgemacht
Ja klar, ich hab auch grössten Respekt vor solchen CGI Künstlern.
Aber die AI kann ja ihnen auch helfen, eben nicht Wochenlang modellieren, texturieren und alles mit der Maus stagen/bewegen zu müssen…
Und nicht zu vergessen, je genauer ein talentierter und erfahrener Mensch etwas selber entwirft. Desto besser setzt das die AI auch um…
Arbeitslos werden die guten CGI Leute/Artists auch mit der AI nicht.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 12:16
Ja klar, ich hab auch grössten Respekt vor solchen CGI Künstlern.
Aber die AI kann ja ihnen auch helfen, eben nicht Wochenlang modellieren, texturieren und alles mit der Maus stagen/bewegen zu müssen…
Und nicht zu vergessen, je genauer ein talentierter und erfahrener Mensch etwas selber entwirft. Desto besser setzt das die AI auch um…
Arbeitslos werden die guten CGI Leute/Artists auch mit der AI nicht.
hmm naja da gibt es vermutlich eine grenze zwischen künstlicher intelligenz als gesamtkonzept und den vielen kleineren modellen, die man als "ki-tools" bezeichnet. im grunde existiert aber die ki einzeln so als tools aber auch so gar nicht, denn selbst für ein einzelnes plugin/tool etc… etwa beim rigging oder bei der animation muss das darunterliegende tensorflow…oder pytorch etc… system zunächst mit trainingsdaten daten gefüttert werden und dabei bewegt man sich oft bereits in einer rechtlichen grauzone, weil die datenquellen urheberrechtlich geschützt oder nicht eindeutig lizenziert sind (daher gibts dann vendor firmen die das machen und man verschleiert das einfach bis ins geht nicht)
in einer vorlesung an der tu im letzten frühjahr gabs das thema, dass das hauptinteresse vieler entwicklungen darin liegt, modelle zu erschaffen, die dann selbstständig lernen können, also reinforcement learning und sogenannte world models. ziel seies, die derzeit große menge an datenarbeiterinnen und -arbeitern, vendor firmen usw… (btw ki bubble!!!) , die über diverse dienstleister die modelle trainieren, langfristig auch zu ersetzen.
ich habe eindfach das gefühl im zentrum von den bigtechies steht nicht die entwicklung von tools für oder kreative arbeit, sondern die schaffung großmöglich gewinnbringender produkte. genau vor dieser verschiebung von forschung zu profitorientierung warnen ja auch die ki-skeptiker (die wirklich wissen wovon sie reden nicht die zerkoksten fanbos auf linkedin und youtube…). wenn nvidia jensen mal wieder wirtschaftlich motiviert aggressive, profitorientierte wirtschaftslogik und wissenschaftliche verantwortung auf klempner reduzieren will… dann auch nur weil er entweder die arbeitswelt nicht komplett durchblickt oder eben doch und nur kein bock auf konkurrenz hat?
P.S: das hier ist dazu wirklich sehenswert!:
Zuletzt geändert von philr am Mo 10 Nov, 2025 12:40, insgesamt 1-mal geändert.
Was fehlt sind also nicht zig neue Plugins aber eine komplette CGI/3D AI Suite.
Inklusive intuitivem Eingabegerät wo man halt auch entsprechend manuell möglichst überall im AI Prozess eingreifen kann…
Sowas müsste wenn es dann wirklich professionell nutzbar sein soll nicht von Altman und Co kommen, sondern direkt von CGI Profis wie Maxon, oder Autodesk.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 12:40
Was fehlt sind weniger zig neue Plugins aber eine komplette CGI/3D AI Suite.
Inklusive intuitivem Eingabegerät wo man halt auch entsprechend manuell möglichst überall im AI Prozess eingreifen kann…
Sowas müsste wenn es dann wirklich professionell nutzbar sein soll nicht von Altman und Co kommen, sondern direkt von CGI Profis wie Maxon, oder Autodesk.
Womöglich arbeiten die schon längst an sowas.
die rechenleistung für die guten & zuverlässlicheren modelle dahinter ist so teuer, dass es sich für so "kleine" firmen selten lohnt so aufwendige Modelle dahinter laufen und trainieren zu lassen. deswegen kaufen viele "ki startups" auch nur die modelle zu und laufen dann als gpt-wrapper basis etc… das rehcnet sich zZ für OAI, meta & google noch nich so dolle, daher greifen die an und wollen da mehr vom endkunden kuchen. und das was lokal läuft etc. oder sich auf huggingface finden lässt (achtung wir reden hier nicht vom trainieren! da reichen auch einige 40/5090 & macminis nicht!) ist open source und darf nicht kommerziell verwertet werden.
Zuletzt geändert von philr am Mo 10 Nov, 2025 12:57, insgesamt 1-mal geändert.
Super das wusste ich nicht mal.
Pixar ist Disney und ILM haben die ja dann wegen Star Wars eigentlich auch….
Gibt es eigentlich noch etwas in Hollywood was Disney nicht gehört ?
Und am Schluss wird der ganze Hollywood Kuchen von Altman aufgekauft….;)))
Weil die sich ein Beispiel an Medienonkel nehmen können und zwischezeitlich, während die Ki arbetet, Flaschensammeln gehen konnen, wenn ihnen nicht besseres einfällt
;-)
Das mit dem Flaschen sammeln ist für mich so ein running Gag, der mal bei einer betriebsbedingten Kündigung entstanden ist.
Da wurde ich von Kollegen gebeten, wenn ich jetzt dann Flaschen sammeln gehen werde, das doch bitte nicht in der Umgebung ihres Ladens zu machen. Nicht, dass mich noch Kunden sehen.
Das lässt die Firma evtl. schlecht dastehen ;-)
Medienleute halt. Das war natürlich nur als "Spaß" gemeint.
Seit LTX flutschen die KI Videos so schnell ausm Rechner, dass man kaum nen Kaffee machen kann. Man kommt ja kaum noch raus.
Das Gigolo-Dasein wurde ja von der Hausverwaltung verboten. Die Böden schwingen zu sehr.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 14:04
Wie auch immer.
Aber diese Kelly, oder ihre AI hat SF Design echt drauf.
Ne mal ehrlich, das wirkt doch nicht billig…
Was genau hat die Kunstfigur deiner Meinung nach drauf, außer mit Hilfe von evtl. selbst trainierten loras die Bilder konsistent zu halten?
KI ist ne Lotterie. Von 30 Videos ist eines halbwegs brauchbar. Es ist kaum Können, es ist einfach nur Rechenleistung.
Sogar die Ideen für so Kurzfilme kann man sich vom gpt schreiben lassen.
Hier ging es mir nicht um irgend eine Kunstfigur, eine Story, Konsistenz oder was auch immer filmisches sondern rein nur ums tolle SF Design.
Daran hätte auch ein Chris Foss seine Freude gehabt.
Ach ja, geht auch ganz anders mit AI, als komplettes funny Music Video mit Konsistenz…
Man muss sowas nicht cool finden.
Aber wenn jemand sowas in echt und mit CGI machen will braucht er ein sehr hohes Budget.
Zuletzt geändert von Darth Schneider am Mo 10 Nov, 2025 15:02, insgesamt 1-mal geändert.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 14:04
Wie auch immer.
Aber diese Kelly, oder ihre AI hat SF Design echt drauf.
Ne mal ehrlich, das wirkt doch nicht billig…
die grundlage dieser arbeiten stammt meiner empfindung nach aus dem japan der 80, 90er und frühen 2000er jahre einer ära in der künstler wie masamune shirow (ghostbin the shell etc) katsuhiro otomo yoji shinkawa (metal gear solid concept srt) und hajime sorayama oft gemeinsam mit designern und kreativen teams visionäre welten erschufen. mit traditionellen werkzeugen wie copic markern tusche und airbrush entwickelten sie genau diese detaillierte stadtlandschaften maschinen und charaktere die bis heute das bild des futuristischen japans prägen... the backstory. und jetzt das da freuen die sich bestimmt drueber.. again... im gegensatz dazu wirken viele der heutigen ai interpretationen (fuer mich! zb) oft wie eine bloße mischung ähnlicher stile schnell zusammengeworfen und ohne das handwerkliche fundament das diese klassiker einst auszeichnete. das authentische zusammenspiel aus technischer präzision erzählerischer tiefe und analoger farbführung ist dabei weitgehend verloren gegangen meiner meinung nach. naja aber egal jetzt
Zuletzt geändert von philr am Mo 10 Nov, 2025 15:10, insgesamt 1-mal geändert.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 15:09
Ne, die Grundlage von diesen Designs sehen eindeutig nach Chris Foss aus, auch die Japaner hatten von ihm abgeschaut.
Genau so wie der George Lucas zum Teil auch und zig andere…
Der hat halt schon lange vor den SF Mangas und Star Wars/Dune/Alien Filmen gemalt.
Und war seiner Zeit um Lichtjahre voraus.
Seine Designs wirken heute noch modern.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 15:14
Der hat halt schon lange vor den SF Mangas und Star Wars/Dune/Alien Filmen gemalt.
Und war seiner Zeit um Lichtjahre voraus.
Seine Designs wirken heute noch modern.
naja however, irgendwie versteh ich so langsam, warum unser dachdecker vier sprachen gesprochen hat und mal programmieren konnte…(ohne ki..)
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 14:58
Hier ging es mir nicht um irgend eine Kunstfigur, eine Story, Konsistenz oder was auch immer filmisches sondern rein nur ums tolle SF Design.
Daran hätte auch ein Chris Foss seine Freude gehabt.
Das kann man echt nicht Design nennen. Zumindest kein Eigenständiges. Vermutlich fand sich in dem Prompt für die Videos/Bilder sicher der Chris Foss ;-)
Wie macht Ihr das eigentlich? Direkt in der Video KI prompten oder erst ein Bild als Vorlage generieren lassen?
Ich machs über Bilder, dann hat man ungefähr eine Kontrolle darüber, was raus kommt.
Man kommt aber echt nicht hinterher, was es täglich für neue Workflows gibt.
Man sollte sich auch mal alle möglichen comfyui workflows, die nodes und modelle runterladen. Falls das plötzlich alles was kostet.
Auch gut zu wissen, dass die ganzen mini oder distilled Varianten diverser Modelle hypothetisch Teil des großen "Ausbruchs" der KI aus ihrem Rechenzentrumsgefängnis sein werden. Gibt da schon relativ alte Szenarien.
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 14:58
Hier ging es mir nicht um irgend eine Kunstfigur, eine Story, Konsistenz oder was auch immer filmisches sondern rein nur ums tolle SF Design.
Daran hätte auch ein Chris Foss seine Freude gehabt.
Das kann man echt nicht Design nennen. Zumindest kein Eigenständiges. Vermutlich fand sich in dem Prompt für die Videos/Bilder sicher der Chris Foss ;-)
Wie macht Ihr das eigentlich? Direkt in der Video KI prompten oder erst ein Bild als Vorlage generieren lassen?
Ich machs über Bilder, dann hat man ungefähr eine Kontrolle darüber, was raus kommt.
Man kommt aber echt nicht hinterher, was es täglich für neue Workflows gibt.
Man sollte sich auch mal alle möglichen comfyui workflows, die nodes und modelle runterladen. Falls das plötzlich alles was kostet.
Auch gut zu wissen, dass die ganzen mini oder distilled Varianten diverser Modelle hypothetisch Teil des großen "Ausbruchs" der KI aus ihrem Rechenzentrumsgefängnis sein werden. Gibt da schon relativ alte Szenarien.
Wenigstens die Sukkulenten blühen zur Zeit.
Ich hab gerade auf n8n ’nen neuen iasi gebaut und ihn mit diffundiertem genAi und Comfyui Halbwissen gefüttert. Ich lass ihn bald von der Leine der kann das dann am besten mit dir diskutieren.
Zum Thema, wenn auch indirekt.
Was ich etwas seltsam finde ist das man solche Kabel scheinbar sogar einfach mit einem Anker durchtrennen kann.
Und wie die Franzosen mit einer Handvoll Tauchrobotern und ein paar Schiffen Tausende Km Kabel am Meeresgrund sichern wollen weiss ich auch nicht….
Das kann man echt nicht Design nennen. Zumindest kein Eigenständiges. Vermutlich fand sich in dem Prompt für die Videos/Bilder sicher der Chris Foss ;-)
Wie macht Ihr das eigentlich? Direkt in der Video KI prompten oder erst ein Bild als Vorlage generieren lassen?
Ich machs über Bilder, dann hat man ungefähr eine Kontrolle darüber, was raus kommt.
Man kommt aber echt nicht hinterher, was es täglich für neue Workflows gibt.
Man sollte sich auch mal alle möglichen comfyui workflows, die nodes und modelle runterladen. Falls das plötzlich alles was kostet.
Auch gut zu wissen, dass die ganzen mini oder distilled Varianten diverser Modelle hypothetisch Teil des großen "Ausbruchs" der KI aus ihrem Rechenzentrumsgefängnis sein werden. Gibt da schon relativ alte Szenarien.
Wenigstens die Sukkulenten blühen zur Zeit.
Ich hab gerade auf n8n ’nen neuen iasi gebaut und ihn mit diffundiertem genAi und Comfyui Halbwissen gefüttert. Ich lass ihn bald von der Leine der kann das dann am besten mit dir diskutieren.
Ob der auch 10 Bier in 3 Stunden schafft?
Ei daudid.
Bin ja gespannt, ich hoffe der digitale iasi löst keine Krise in Hollywood aus.
Alle Filmschaffenden dort völlig am verhungern weil das Catering komplett abgeschafft wird…;))))
Darth Schneider hat geschrieben: ↑Mo 10 Nov, 2025 16:38
Bin ja gespannt, ich hoffe der digitale iasi löst keine Krise in Hollywood aus.
Alle Filmschaffenden dort völlig am verhungern weil das Catering komplett abgeschafft wird…;))))
Da kannst du keine Krise mehr auslösen… die meisten sind dieses Jahr schon an anderen Dingen verhungert oder von ICE verpackt & in irgendein Land auch ohne Bezug geflogen worden.
Also ich musste mich jetzt doch einmal hier anmelden, nachdem ich gelegentlich mal reingelesen habe, weil ich manches davon, was ich hier lese nicht fassen kann. Es ist sicher richtig, daß man große Entwicklungen nicht aufhalten wird. Wie unfassbar blauäugig manche aber den LLM Wahn reflektieren ist ein anderes Thema. Zu meinem Background: Ich bin Motion Designer und was ich derzeit erlebe ist etwas anderes als der Untergang, aber es ist natürlich auch nicht frohlocken in der Branche, was aber ehrlich gesagt in der Hauptsache mit anderen Problemen zu tun hat (Wirtschaft, Politik etc.).
Derzeit arbeite ich für einen der größten Konzerne der Erde und baue auch Ergebnisse von deren eigenen "KI" (na ohne Bullshit Filter wäre es nur eine LLM) in meine Animationen ein. Von mehrarmigen Menschen bis hin zu Tastaturen mit Fantasielayouts und Hieroglyphen statt Zeichen ist alles noch immer in Hülle und Fülle vorhanden, selbst nach hunderten von Prompts.
Wohl gemerkt: Wir haben einen direkten Account zu deren neuesten "KI" Modell und unbegrenzte Credits. Zu unseren Aufgaben gehört auch, diese genannten Fehler zu korrigieren, ganz klassisch und zeitaufwendig und es sind nur die offensichtlichsten Fehler, die wir fixen. Was liegen bleibt sind Probleme wie mieseste Bildqualität wenn man genauer hinschaut, flirrende Details, fehlende Konsistenz innerhalb eines Objekts / Tieres, d.h. jedes Bildelement (Augen, Nase, Unterkiefer etc,) z.B. eines Tigers bewegt sich im Grunde wie ein Puzzle bei dem die Einzelteile nicht exakt ineinandergreifen. Das sieht man meist nicht, aber sobald man Videos zeitlich verzerrt, fliegt einem das Bild evtl. auseinander. Generell bewegen sich Lebewesen i.d.R. quasi immer ruckelig/roboterhaft - und das wurde tatsächlich zum Thema bei uns, es wurde sogar angefragt ob wir den Kopf eines Hundes korrekt bewegen lassen könnten. Wer wie einige hier nun meint: Ach, das ist in 2 Jahren erledigt, sollte wissen, daß alle LLM Anbieter jegliches Material von hier bis zum Mond bereits zum trainieren aufgebraucht haben - und woher bitte soll neues Material noch herkommen, wenn die wehrlosen kleinen Einzelkünstler bereits von LLM Slop ersetzt wurden, deren Arbeit gestohlen und nur die Konzerne wie Disney und Co. Zähne zeigen, also deren Kunst von diesen Hyänen unberührt bleibt?
Was manche hier ausserdem nicht checken ist - wenn LLMs tatsächlich (überspitzt gesagt) die einzigen Quellen für jegliche Form von Kunst (Bild/Film/Ton/Text) werden würden, dann freut euch auf eine Zukunft, die in alle Ewigkeiten auf den Stand bis ca. 2020 eingefroren bleibt. Denn wie gesagt, es wird niemand mehr etwas ins Netz stellen.
Während einige hier, in einem Forum für Filmer das alles nicht so eng sehen, bemerke ich aber, wie bei mittlerweile 100% aller LLM generierter Beiträge (egal ob Video, Text etc. und ganz egal ob Facebook, Insta, Youtube etc.) immer Warnungen von anderen Usern stehen, daß es sich NUR um KI/AI Slop handelt. Da komme ich dann auch zum nächsten, ganz massiven Problem, daß dieses Zeug verursacht: Der totalen Verlust vom allerletzten, kümmerlichen Bißchen Vertrauen in Medien. Das Gespenst vom "Dead Internet" wird auch, aber nicht nur, von diesen Inhalten stark vorangetrieben.
Ein Beispiel aus der Musik: Bereits jetzt wird laut des Musikstreamers "Deezer" von bis zu 28% aller Musik-Uploads versucht LLM generierte Musik auf deren Plattform zu laden, allerdings war der Anteil an allen Abrufen für derartige "Musik" nur 0,5%, von denen wieder 70% von bots kamen, die also versucht haben Deezer zu betrügen um Geld für die Abspiele zu generieren - für all dies hat Deezer Mechanismen eingeführt, die das fast vollständig unterbinden.
Ich bin allerdings kein Heuchler. Natürlich nutze ich ML und auch LLM, was beides dann von Sülzköpfen wie Sam Altman als "AI/KI" verkauft wird. Mir ist allerdings klar, wie eng umrissen der Einsatz sein kann und darf, bevor die Ergebnisse gänzlich unbrauchbar werden. D.h., z.B. ein paar Autos aus dem Bild entfernen lassen ist relativ zuverlässig machbar und wird auch kaum jemanden jucken, wenn man das automatisieren lässt. Wer aber glaubt, man könne von solchen Systemen wirklich ganze Abläufe überflüssig machen und am Ende ein Kunstwerk erhalten, akzeptiert den visuellen Durchfall den einem Coca Cola nun schon zum zweiten Weihnachten serviert. Was sie mit derartigen Spielchen allenfalls erreichen ist, daß sie bei einem Teil ihrer Kunden für Abscheu und Gelächter sorgen, den meisten dürfte es egal sein, aber wen wundert es - welcher Mensch mit Verstand trinkt heute noch Cola? Allgemein setzen sich Unternehmen, die sich mit LLM Slop ihre Werbung zusammenbasteln lassen dem sehr reellen Risiko aus, als Billigmarke wahrgenommen zu werden, die keinerlei Substanz mehr besitzt. Wenn die Menschen schon immer weniger ins Kino gehen, weil die Filme "nur noch" CGI / VFX sind und die schon zum hundertsten Mal mit Wasser verdünnte Suppe ist - warum sollte das bei Werbung und Co. bitte anders sein?
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.