Bei dem " wird immer schlauer" gern immer im Hinterkopf behalten, dass gerade massiv viel nur durch Aktionäre getragen, mitfinanziert bzw. subventioniert wird. Die Hardware-Kosten, die zurzeit für LLMs in ihrer jetzigen Form verheizt werden, rechnen sich bei weitem noch nichtDarth Schneider hat geschrieben: ↑Di 12 Mai, 2026 17:31 Natürlich nicht, aber eben es wird Leute Jobs kosten. Und die AI wird ja auch immer schlauer.
Billig ist das auch nicht - das ist schon klar.philr hat geschrieben: ↑Di 12 Mai, 2026 16:55
Aber selbst mit einem echt guten ComfyUI Workflow zahlst du dich bei Seedance 2.0 dumm und dämlich, bis etwas wirklich qualitativ Brauchbares rauskommt etwas, mit dem man auch eine Story erzählen kann, die ein bisschen mehr als ein TikTok-Kanal taugt und landest trotzdem nur auf DDR-Mondbasis niveau und… wozu? Um am Ende nen Produkt in nem Werbespot zu bewerben der nicht echt ist und nen Animationsartists zu sparen weil man glaubt man kann jetzt alles selbst *pfuschen*… Aber achso… gut Anke1982 kann jetzt Ohrwümer über gestrandete Wale posten… das ersetzt aber maximal Richetrin Barbara Salesch & Bauer sucht Frau…
Limitierungen bei Seedance lassen sich druch ein Grid über die Bildvorgabe einfach umgehen…iasi hat geschrieben: ↑Di 12 Mai, 2026 17:40Billig ist das auch nicht - das ist schon klar.philr hat geschrieben: ↑Di 12 Mai, 2026 16:55
Aber selbst mit einem echt guten ComfyUI Workflow zahlst du dich bei Seedance 2.0 dumm und dämlich, bis etwas wirklich qualitativ Brauchbares rauskommt etwas, mit dem man auch eine Story erzählen kann, die ein bisschen mehr als ein TikTok-Kanal taugt und landest trotzdem nur auf DDR-Mondbasis niveau und… wozu? Um am Ende nen Produkt in nem Werbespot zu bewerben der nicht echt ist und nen Animationsartists zu sparen weil man glaubt man kann jetzt alles selbst *pfuschen*… Aber achso… gut Anke1982 kann jetzt Ohrwümer über gestrandete Wale posten… das ersetzt aber maximal Richetrin Barbara Salesch & Bauer sucht Frau…
Aber man muss auch nicht eine ganze Story mit KI erzählen. Es genügen schon kurze Einstellungen oder auch nur Veränderungen an Filmaufnahmen.
Ich hab bisher nur mit Kling 3.0 Versuche gemacht - mit z.T. erstaunlich guten Ergebnissen. Natürlich gibt es Limitierungen, weshalb ich auch nicht sehe, wie man damit einen ganzen Film ohne Realaufnahmen generieren könnte.
Seedance 2.0 möchte ich nun auch testen. Wobei ich von Limitierungen bei den Bildvorgaben gehört habe.
Kling 3.0 generiert nun übrigens auch in 4k - was natürlich noch mehr credits kostet. :)
Die Arena der Harkonnen war auch keine echte Location.Darth Schneider hat geschrieben: ↑Di 12 Mai, 2026 17:49 @iasi
Ich sehe da zig Gründe warum der Regisseur von Dune immer noch immer Schauspieler an echten Sets/Locations,
beziehungsweise immer Schauspieler zusammen mit voll zu 100% kontrollierbarer CGI nur dort wo es zwingend nötig ist, jeder KI jederzeit vorzieht.
Weil man hat nur so die volle Kontrolle und trotzdem kreative Möglichkeiten ohne Ende über absolut alles…
Die AI schränkt eigentlich nur ein, zumindest wenn es um Kommunikation geht…
Kommunikation die bei jedem Film wo viele völlig verschiedene Menschen mitarbeiten absolut essentiell ist..
Mit der AI kann man nun mal überhaupt nicht auf gleicher Ebene reden wie mit einem echten Menschen…
Alleine darum wäre für mich die AI die zum Beispiel Effekte macht bei einem Film ein völliges NoGo.
Wie meinst du das?philr hat geschrieben: ↑Di 12 Mai, 2026 17:43Limitierungen bei Seedance lassen sich druch ein Grid über die Bildvorgabe einfach umgehen…iasi hat geschrieben: ↑Di 12 Mai, 2026 17:40
Billig ist das auch nicht - das ist schon klar.
Aber man muss auch nicht eine ganze Story mit KI erzählen. Es genügen schon kurze Einstellungen oder auch nur Veränderungen an Filmaufnahmen.
Ich hab bisher nur mit Kling 3.0 Versuche gemacht - mit z.T. erstaunlich guten Ergebnissen. Natürlich gibt es Limitierungen, weshalb ich auch nicht sehe, wie man damit einen ganzen Film ohne Realaufnahmen generieren könnte.
Seedance 2.0 möchte ich nun auch testen. Wobei ich von Limitierungen bei den Bildvorgaben gehört habe.
Kling 3.0 generiert nun übrigens auch in 4k - was natürlich noch mehr credits kostet. :)
Und erneut: Nein. Der größte Coup der KI Promoter war/ist den Leuten vorzumachen daß ein LLM eine Art "Intelligenz" ist. LLMs greifen "nur" auf Zeug zurück, das sie in ihrer "Datenbank" haben. Ein Freund fragte z.B. mal, warum KI nicht in der Lage ist einen funktionierenden Fusionsreaktor zu entwickeln und ich meinte, daß sie das nicht kann, weil die Lösung dazu bisher keiner kennt und sie sie daher nicht stehlen konnten. Zudem: Füttere genug Müll in KIs und es kommt nur noch Müll heraus. Es ist ziemlich bescheuert, denn was noch obendrauf kommt ist, daß die Fehleranfälligkeit systemimannent ist, denn es gibt ein oberes Limit in jeder KI, die nicht überschritten werden darf/kann, ansonsten bricht sie ab oder spinnt - das geht auch gar nicht anders, weil das System sonst endlos weiterrechnen würde. Aber es braucht noch nicht einmal das, denn KI`s haben keinerlei Ahnung von dem Zeug, das sie da generieren. Versuch doch z.B. mal das Bild von etwas mittlerweile derart banalem wie einer Steadicam von ChatGPT, Grok oder Magnific generieren zu lassen und lach Dich kaputt.Darth Schneider hat geschrieben: ↑Di 12 Mai, 2026 17:31 Natürlich nicht, aber eben es wird Leute Jobs kosten. Und die AI wird ja auch immer schlauer.
Genau so ist es!MaxSchreck hat geschrieben: ↑Di 12 Mai, 2026 18:49Und erneut: Nein. Der größte Coup der KI Promoter war/ist den Leuten vorzumachen daß ein LLM eine Art "Intelligenz" ist. LLMs greifen "nur" auf Zeug zurück, das sie in ihrer "Datenbank" haben. Ein Freund fragte z.B. mal, warum KI nicht in der Lage ist einen funktionierenden Fusionsreaktor zu entwickeln und ich meinte, daß sie das nicht kann, weil die Lösung dazu bisher keiner kennt und sie sie daher nicht stehlen konnten. Zudem: Füttere genug Müll in KIs und es kommt nur noch Müll heraus. Aber es braucht noch nicht einmal das, denn KI`s haben keinerlei Ahnung von dem Zeug, welches sie da generieren. Versuch doch z.B. mal das Bild von etwas mittlerweile derart banalem wie einer Steadicam von ChatGPT, Grok oder Magnific generieren zu lassen und lach Dich kaputt.Darth Schneider hat geschrieben: ↑Di 12 Mai, 2026 17:31 Natürlich nicht, aber eben es wird Leute Jobs kosten. Und die AI wird ja auch immer schlauer.
Die Jobs, die wirklich in Gefahr sind, sind endlos repetetive Routinearbeiten, für die die Technik bisher gefehlt hatte. Callcenter wo es um einfache Probleme geht ("mein Internet geht nicht") und sowas, die moderne Entsprechung von der Vermittlung beim Telefon, wo Menschen noch Stecker stöpseln mussten um Leute miteinander zu verbinden. Bei mir erst kürzlich hat der Producer Claude Coworking benutzt um dutzende von Playouts von Werbespots anhand einer Excel Tabelle auf korrekt übernommene Parameter zu checken (Codec, Länge, Pixelabmessungen etc.) was es erstaunlich gut gemacht hat. Das ist ein ätzender Arbeitspunkt, den kein kreativer gerne macht und manuell extrem fehleranfällig ist.
Unten als Bonus mein Lieblingsbild einer KI Steadicam...
Wenn du ein Grid (Gitter) über dein Input-Bild legst (entweder aufwendig mit Photoshop, oder einfach direkt in Comfyui oder touchdesigner oder co mit node & python script...), dann erkennt es zwar die Pixelstruktur als visuelle Inspiration, aber nicht mehr, dass es sich um einen Menschen bzw. ein Gesicht handelt.(Du manipulierst quasi weil die weights des Bilderkennungsmodells was die Eingabe sonst blockiert nicht auf Bildern mit Gittern trainiert worden sind, mehr dazu unten im Video) denn Bilderkennung und Diffusionsmodell sind zwei unterschiedliche KI-Modelle, die nur zusammengeklebt hinter Ki Bildgeneratoren arbeiten ;-)
Danke für den Tipp.philr hat geschrieben: ↑Di 12 Mai, 2026 19:23Wenn du ein Grid (Gitter) über dein Input-Bild legst, erkennt es zwar die Pixelstruktur als visuelle Inspiration, aber nicht mehr, dass es sich um einen Menschen bzw. ein Gesicht handelt. Denn Bilderkennung und Diffusionsmodell sind zwei unterschiedliche KI-Modelle, die nur zusammengeklebt hinter Ki Bildgeneratoren arbeiten ;-)
Die Objekterkennung sagt dem Modell, was es ist, ein LLM (Sprachmodell) deutet das in einen Prompt um, und ein Diffusionsmodell erstellt daraus das Pixelbild. So kurz zusammengefasst funktionieren die meisten KI-Bildgeneratoren. Natürlich untermauert mit Trainingsdaten, auf die es zurückgreift & anderes langes thema... im prinzip nutzt ki einfach deinen input und fuegt dann basierend auf wahrscheinlichkeiten auf die es trainiert und evaluiert wurde was der naechste Pixel, Buchstabe etc sein wird etc.Bei riesen Trainingsdaten... kann es damit aber trotzdem "nur!" wiederholen. Auch wenn es dir das glaubwuerdig genug verkauft weil wir uns oft selbst nur innerhalb von Wahrscheinlichkeiten bewegen. Ganz haeufig kommt als naechstes das & daher liegt es sehr wahrscheinlich damit Richtig. Ganz simpel mal einfache Neuronale Netze anschauen wie diese funktionieren im kleinen genauso wie im Grossen!
Ich sag’s gerne nochmal: Wer sich ernsthaft und tiefgründig mit KI auseinandersetzen möchte, sollte sich mit Hugging Face beschäftigen. In dem Forum schreiben Leute, die an den Modellen arbeiten und dann vergeht euch schnell sehr viel Zauber...
Nochmal in ganz einfach:
das ist richtig, nur ist dein Verwendungszweck, wie viele andere, bereits lange eingepreist und hat gar keinen Bezug zur aktuellen Marktbewertung von KI mehr. Diese ist aber nötig, um die immensen Trainingsdaten und auch die Leute, die das Training durchführen, zu bezahlen. Von der Laufleistung, Chipproduktion und Stromverbrauch der Rechenzentren ganz zu schweigen. Daher wurden gerade auch erst einige der massiven Rechenzentrumsprojekte in den USA wieder eingestanpft/abgesagt.iasi hat geschrieben: ↑Di 12 Mai, 2026 19:59Danke für den Tipp.philr hat geschrieben: ↑Di 12 Mai, 2026 19:23
Wenn du ein Grid (Gitter) über dein Input-Bild legst, erkennt es zwar die Pixelstruktur als visuelle Inspiration, aber nicht mehr, dass es sich um einen Menschen bzw. ein Gesicht handelt. Denn Bilderkennung und Diffusionsmodell sind zwei unterschiedliche KI-Modelle, die nur zusammengeklebt hinter Ki Bildgeneratoren arbeiten ;-)
Die Objekterkennung sagt dem Modell, was es ist, ein LLM (Sprachmodell) deutet das in einen Prompt um, und ein Diffusionsmodell erstellt daraus das Pixelbild. So kurz zusammengefasst funktionieren die meisten KI-Bildgeneratoren. Natürlich untermauert mit Trainingsdaten, auf die es zurückgreift & anderes langes thema... im prinzip nutzt ki einfach deinen input und fuegt dann basierend auf wahrscheinlichkeiten auf die es trainiert und evaluiert wurde was der naechste Pixel, Buchstabe etc sein wird etc.Bei riesen Trainingsdaten... kann es damit aber trotzdem "nur!" wiederholen. Auch wenn es dir das glaubwuerdig genug verkauft weil wir uns oft selbst nur innerhalb von Wahrscheinlichkeiten bewegen. Ganz haeufig kommt als naechstes das & daher liegt es sehr wahrscheinlich damit Richtig. Ganz simpel mal einfache Neuronale Netze anschauen wie diese funktionieren im kleinen genauso wie im Grossen!
Ich sag’s gerne nochmal: Wer sich ernsthaft und tiefgründig mit KI auseinandersetzen möchte, sollte sich mit Hugging Face beschäftigen. In dem Forum schreiben Leute, die an den Modellen arbeiten und dann vergeht euch schnell sehr viel Zauber...
Nochmal in ganz einfach:
Von viel Zauber bin ich sowieso nicht ausgegangen. Aber als Werkzeug wird KI besser und auch einsetzbar.
Wenn ich an die 6 Finger zurückdenke, hat sich durchaus etwas getan.
Anfang- und Endframe, Referenzbilder und Videovorgaben grenzen die Variationsmenge zumindest etwas ein. Wenn man dann mit einer kurzen Einstellung als Ergebnis zufrieden ist, bekommt man schon etwas geboten.
Ich bin ja immer wieder erstaunt, dass viele immer gleich ganze Sequenzen generieren lassen wollen - oder gar ganze Szenen oder komplette Filme.
Dabei kann eine gute KI-Einstellung in einer Realfilmszene schon einer enorme Wirkung erzeugen.
Ich finde zudem die Bearbeitung von Filmaufnahmen schon einen sinnvollen Einsatz:
Vishal Sikka und sein Sohn Varin Sikka, Vater ist im Aufsichtsrat von Oracle, BMW und GSK, Sohn ist an der Stanford, gemeinsam brachten mathematische Beweise für das, was ich weiter oben schrieb (die Schwelle, die KI nicht berühren kann) und sagten auch, was Du schriebst: "If OpenAI is truly on the verge of AGI, why are so many senior employees leaving to start their own companies? You're months away from the biggest technological breakthrough in human history and you're going to take equity in a risky startup instead? These people see the ceiling. And they're positioning accordingly".
Das Ding ist halt, keiner verteufelt KI, weil sie an sich böse wäre etc. blabla.MaxSchreck hat geschrieben: ↑Di 12 Mai, 2026 20:40Vishal Sikka und sein Sohn Varin Sikka, Vater ist im Aufsichtsrat von Oracle, BMW und GSK, Sohn ist an der Stanford, gemeinsam brachten mathematische Beweise für das, was ich weiter oben schrieb (die Schwelle, die KI nicht berühren kann) und sagten auch, was Du schriebst:...Man kann jeden nur davor warnen, sich auf diesen Schund zu 100% zu verlassen.
Nun ja - dass Sora eingestellt wurde, sollte zur Aufhübschung vor dem Börsengang dienen.philr hat geschrieben: ↑Di 12 Mai, 2026 20:14das ist richtig, nur ist dein Verwendungszweck, wie viele andere, bereits lange eingepreist und hat gar keinen Bezug zur aktuellen Marktbewertung von KI mehr. Diese ist aber nötig, um die immensen Trainingsdaten und auch die Leute, die das Training durchführen, zu bezahlen. Von der Laufleistung, Chipproduktion und Stromverbrauch der Rechenzentren ganz zu schweigen. Daher wurden gerade auch erst einige der massiven Rechenzentrumsprojekte in den USA wieder eingestanpft/abgesagt.iasi hat geschrieben: ↑Di 12 Mai, 2026 19:59
Danke für den Tipp.
Von viel Zauber bin ich sowieso nicht ausgegangen. Aber als Werkzeug wird KI besser und auch einsetzbar.
Wenn ich an die 6 Finger zurückdenke, hat sich durchaus etwas getan.
Anfang- und Endframe, Referenzbilder und Videovorgaben grenzen die Variationsmenge zumindest etwas ein. Wenn man dann mit einer kurzen Einstellung als Ergebnis zufrieden ist, bekommt man schon etwas geboten.
Ich bin ja immer wieder erstaunt, dass viele immer gleich ganze Sequenzen generieren lassen wollen - oder gar ganze Szenen oder komplette Filme.
Dabei kann eine gute KI-Einstellung in einer Realfilmszene schon einer enorme Wirkung erzeugen.
Ich finde zudem die Bearbeitung von Filmaufnahmen schon einen sinnvollen Einsatz:
Das Hauptverkaufsargument von KI für wirtschaftliche Zwecke und den Daten- und Trainingsbedarf ist die Überwachungstechnik. In Filmsprache, die Hoffnung von Palantir als Minority Report und der gläserne Bürger, den man an Staat und Werbung verkaufen kann. Diese Rechnung ist sehr naja, anderes Thema kompliziert. Zu vorsichtig ausgedrückt wäre sie untertrieben.
Und um diesen Wahnsinn mitzufinanzieren, braucht es für Big Tech leider den Glauben vieler Leute an den Zauber, damit diese ihr Geld in die Unternehmen investieren, damit diese sich die enormen laufenden Kosten dafür gerade noch am Leben halten können. Wir als Beiwerk der Medienproduktion sind nicht profitabel genug dafür. Deshalb wurde ja auch Sora und Co längst wieder eingestellt. Damit ki noch besser wird brauch man noch mehr Investitionen... dabei laufen wir seit Monaten bereits gegen eine Wand die nur mit Zaubertricks und "Mythen" aufrecht gehalten wird. Kombinieren von LLM's als Agntic ai, MCP's etc.Die Amis haben da gerade literally ihr ganzes Wirtschaftssystem an ne viel zu duenne Angelschnurr gehangen. Und deshalb hauen auch immer mehr prominente KI Researcher ab trotz ultra wilden Gehaeltern.
du warst jetzt beinahe ganz kurz davor die nicht vorhandene Logik zwischen Markt und Produkt korrekt zusammenzubringen und dann rutscht du doch wieder ab.iasi hat geschrieben: ↑Di 12 Mai, 2026 21:09Nun ja - dass Sora eingestellt wurde, sollte zur Aufhübschung vor dem Börsengang dienen.philr hat geschrieben: ↑Di 12 Mai, 2026 20:14
das ist richtig, nur ist dein Verwendungszweck, wie viele andere, bereits lange eingepreist und hat gar keinen Bezug zur aktuellen Marktbewertung von KI mehr. Diese ist aber nötig, um die immensen Trainingsdaten und auch die Leute, die das Training durchführen, zu bezahlen. Von der Laufleistung, Chipproduktion und Stromverbrauch der Rechenzentren ganz zu schweigen. Daher wurden gerade auch erst einige der massiven Rechenzentrumsprojekte in den USA wieder eingestanpft/abgesagt.
Das Hauptverkaufsargument von KI für wirtschaftliche Zwecke und den Daten- und Trainingsbedarf ist die Überwachungstechnik. In Filmsprache, die Hoffnung von Palantir als Minority Report und der gläserne Bürger, den man an Staat und Werbung verkaufen kann. Diese Rechnung ist sehr naja, anderes Thema kompliziert. Zu vorsichtig ausgedrückt wäre sie untertrieben.
Und um diesen Wahnsinn mitzufinanzieren, braucht es für Big Tech leider den Glauben vieler Leute an den Zauber, damit diese ihr Geld in die Unternehmen investieren, damit diese sich die enormen laufenden Kosten dafür gerade noch am Leben halten können. Wir als Beiwerk der Medienproduktion sind nicht profitabel genug dafür. Deshalb wurde ja auch Sora und Co längst wieder eingestellt. Damit ki noch besser wird brauch man noch mehr Investitionen... dabei laufen wir seit Monaten bereits gegen eine Wand die nur mit Zaubertricks und "Mythen" aufrecht gehalten wird. Kombinieren von LLM's als Agntic ai, MCP's etc.Die Amis haben da gerade literally ihr ganzes Wirtschaftssystem an ne viel zu duenne Angelschnurr gehangen. Und deshalb hauen auch immer mehr prominente KI Researcher ab trotz ultra wilden Gehaeltern.
Dass die Börsen heiß laufen, liegt an den Börsen und nicht an der Technik oder realen Wirtschaftsdaten.
Überwachungstechnik ist nicht der einizige wirtschaftliche Zweck von KI. Genausowenig, wie das Knacken der Bitcoin-Chain der Grund für die Entwicklung von Quantencomputern ist.
Es ist ja auch nicht so, dass KI nicht wirtschaftlich genutzt werden könnte. Ob die Gewinnerwartungen erfüllt werden können, die die Börsen (also die Aktienkäufer haben), steht auf einem anderen Blatt. An den Börsen geht es nur um Kursgewinne, nicht um reale Gewinne. Die Leute treiben auch die Kurse von Kryptowährungen in die Höhe, auch wenn deren realer Wert kaum existent ist.
Es ist mit KI wie mit dem AF von Kameras. Mittlerweile kann man sie einsetzen.
Ich bin von Kling 3.0 schon ziemlich angetan und sehe Möglichkeiten, wie und wann man es nutzen kann. Seedance 2.0 soll ja nun nochmal besser sein.
Ich finde dies hier einen spannenden Ansatz:
https://www.yahoo.com/entertainment/mov ... 48303.html
Übrigens kann man einen Impact auf Mensch, Gesellschaft, Natur und Kultur auch als Fortschritt bezeichnen. Da reiht sich KI auch nur in eine lange Kette ein.
Würg. Schon schlimm, daß das so viele nicht checken. Ich merke sofort an dieser seltsamen, unerträglichen Aussprache, daß das generiert ist. Das fiel mir auch bei Darren Aronofsky`s Schundwerk "1776" auf.Jan hat geschrieben: ↑Di 12 Mai, 2026 21:12 Roland Emmerich meint wohl, mit KI kann man die Kosten für einen Film stark senken und die Masse wird das Ergebnis gut finden. Es ist inzwischen auch die Frage nach Hunderttausend Filmen, ob irgendeinem Menschen etwas komplett neues magisches einfällt. Auf die Datenbank dieser Hunderttausend Filme kann KI auch zurück greifen und einen neuen Film wurschteln.
Bei diesen Milionenfach geklickten neuen KI Video haben 99% überhaupt nicht gerafft, dass das nicht echt ist. Auch Tränen, die im Gesicht an der selben Stelle bleiben, sind kaum einem aufgefallen.
Absolut... das die sich nicht wundern das die my Wife says...TaiChi ads die davor laufen nicht die selbe Stimme hat... manchmal bin Ich aber innerlich auch immer wieder kurz davor mir meine Rente von den Boomern auf diese Weise zurueck zu safen.MaxSchreck hat geschrieben: ↑Di 12 Mai, 2026 21:25Würg. Schon schlimm, daß das so viele nicht checken. Ich merke sofort an dieser seltsamen, unerträglichen Aussprache, daß das generiert ist. Das fiel mir auch bei Darren Aronofsky`s Schundwerk "1776" auf.Jan hat geschrieben: ↑Di 12 Mai, 2026 21:12 Roland Emmerich meint wohl, mit KI kann man die Kosten für einen Film stark senken und die Masse wird das Ergebnis gut finden. Es ist inzwischen auch die Frage nach Hunderttausend Filmen, ob irgendeinem Menschen etwas komplett neues magisches einfällt. Auf die Datenbank dieser Hunderttausend Filme kann KI auch zurück greifen und einen neuen Film wurschteln.
Bei diesen Milionenfach geklickten neuen KI Video haben 99% überhaupt nicht gerafft, dass das nicht echt ist. Auch Tränen, die im Gesicht an der selben Stelle bleiben, sind kaum einem aufgefallen.
Einer der schlimmsten Auswüchse unserer Zeit, die es zwar auch schon früher gab, aber nicht derart heftig, ist das unentwegte und komplett schamlose Verbreiten von Angst und Panik - und wir reden hier von existentieller Angst, nicht das Spielchen von früher a la "die Kommunisten kommen!!" wo es einen klar umrissenen Feind gab. Es wird mit dieser diffusen Technologie den Menschen auf breitestmöglicher Front von komplett geisteskranken (Thiel, Altmann, Zuckerberg, Musk etc.) medial eingehämmert, daß der Mensch in jeglicher Form völlig überflüssig und ersetzbar ist, außer natürlich als hirnloses Konsumvieh. Der amerikanische Autor und Satiriker H.L. Mencken sagte mal über Amerikaner, was heute aber auf jegliche Nationalität anwendbar wäre: "American society defended the right of the businessman to seek out the morons and make them still more moronic." -philr hat geschrieben: ↑Di 12 Mai, 2026 20:49 Und das liegt nicht an der Technologie allein, sondern an fehlender Ethik, Luegen und respektlosen, wirtschaftlichen Umgang damit. Und dagegen bin ich aus den genannten Gründen persoenlich schon sehr, weil Ich bin mal beim Film gelandet weil Kunst & Kritik gesellschaftlich wichtig waren.
Nicht nur die Aussprache, sondern auch das Verhalten der Menschen ist doch selbst für diese Show viel zu melodramatisch.MaxSchreck hat geschrieben: ↑Di 12 Mai, 2026 21:25 Ich merke sofort an dieser seltsamen, unerträglichen Aussprache, daß das generiert ist.
Das "Modell" ist nur eine LUT, die kennt nur fixe Werte.philr hat geschrieben: ↑Di 12 Mai, 2026 21:14du warst jetzt beinahe ganz kurz davor die nicht vorhandene Logik zwischen Markt und Produkt korrekt zusammenzubringen und dann rutscht du doch wieder ab.iasi hat geschrieben: ↑Di 12 Mai, 2026 21:09
Nun ja - dass Sora eingestellt wurde, sollte zur Aufhübschung vor dem Börsengang dienen.
Dass die Börsen heiß laufen, liegt an den Börsen und nicht an der Technik oder realen Wirtschaftsdaten.
Überwachungstechnik ist nicht der einizige wirtschaftliche Zweck von KI. Genausowenig, wie das Knacken der Bitcoin-Chain der Grund für die Entwicklung von Quantencomputern ist.
Es ist ja auch nicht so, dass KI nicht wirtschaftlich genutzt werden könnte. Ob die Gewinnerwartungen erfüllt werden können, die die Börsen (also die Aktienkäufer haben), steht auf einem anderen Blatt. An den Börsen geht es nur um Kursgewinne, nicht um reale Gewinne. Die Leute treiben auch die Kurse von Kryptowährungen in die Höhe, auch wenn deren realer Wert kaum existent ist.
Es ist mit KI wie mit dem AF von Kameras. Mittlerweile kann man sie einsetzen.
Ich bin von Kling 3.0 schon ziemlich angetan und sehe Möglichkeiten, wie und wann man es nutzen kann. Seedance 2.0 soll ja nun nochmal besser sein.
Ich finde dies hier einen spannenden Ansatz:
https://www.yahoo.com/entertainment/mov ... 48303.html
Übrigens kann man einen Impact auf Mensch, Gesellschaft, Natur und Kultur auch als Fortschritt bezeichnen. Da reiht sich KI auch nur in eine lange Kette ein.
Aber ein gutes Realbeispiel warum es nichts bringt zu kleine Modelle mit schweren Weights zu beladen wenn die physische Rechenleistung nicht gegeben ist.
Spricht da der ganz große Marktversteher? :)philr hat geschrieben: ↑Di 12 Mai, 2026 21:14du warst jetzt beinahe ganz kurz davor die nicht vorhandene Logik zwischen Markt und Produkt korrekt zusammenzubringen und dann rutscht du doch wieder ab.iasi hat geschrieben: ↑Di 12 Mai, 2026 21:09
Nun ja - dass Sora eingestellt wurde, sollte zur Aufhübschung vor dem Börsengang dienen.
Dass die Börsen heiß laufen, liegt an den Börsen und nicht an der Technik oder realen Wirtschaftsdaten.
Überwachungstechnik ist nicht der einizige wirtschaftliche Zweck von KI. Genausowenig, wie das Knacken der Bitcoin-Chain der Grund für die Entwicklung von Quantencomputern ist.
Es ist ja auch nicht so, dass KI nicht wirtschaftlich genutzt werden könnte. Ob die Gewinnerwartungen erfüllt werden können, die die Börsen (also die Aktienkäufer haben), steht auf einem anderen Blatt. An den Börsen geht es nur um Kursgewinne, nicht um reale Gewinne. Die Leute treiben auch die Kurse von Kryptowährungen in die Höhe, auch wenn deren realer Wert kaum existent ist.
Es ist mit KI wie mit dem AF von Kameras. Mittlerweile kann man sie einsetzen.
Ich bin von Kling 3.0 schon ziemlich angetan und sehe Möglichkeiten, wie und wann man es nutzen kann. Seedance 2.0 soll ja nun nochmal besser sein.
Ich finde dies hier einen spannenden Ansatz:
https://www.yahoo.com/entertainment/mov ... 48303.html
Übrigens kann man einen Impact auf Mensch, Gesellschaft, Natur und Kultur auch als Fortschritt bezeichnen. Da reiht sich KI auch nur in eine lange Kette ein.
Aber ein gutes Realbeispiel warum es nichts bringt zu kleine Modelle mit schweren Weights zu beladen wenn die physische Rechenleistung nicht gegeben ist.
iasi hat geschrieben: ↑Mi 13 Mai, 2026 19:05Spricht da der ganz große Marktversteher? :)philr hat geschrieben: ↑Di 12 Mai, 2026 21:14
du warst jetzt beinahe ganz kurz davor die nicht vorhandene Logik zwischen Markt und Produkt korrekt zusammenzubringen und dann rutscht du doch wieder ab.
Aber ein gutes Realbeispiel warum es nichts bringt zu kleine Modelle mit schweren Weights zu beladen wenn die physische Rechenleistung nicht gegeben ist.
Aber mal ganz praktisch und nüchtern die KI betrachtet:
Es gibt keinen großen Unterschied zwischen diesen zwei Szenarien:
1. Ich schicke einem Effekthaus die Aufnahmen und schreibe ihnen die Anforderungen und meine Erwartungen an das Ergebnis.
2. Ich füttere eine KI indem ich prompte und lade die Aufnahmen hoch.
Ein Effektspezialist arbeitet auch auf Basis seiner bisherigen Arbeiten und dem von ihm Gesehenen.
Das ist aber ein interessantes Beispiel, das du für einen Effektspezialisten hier anführst. ;)philr hat geschrieben: ↑Mi 13 Mai, 2026 23:28iasi hat geschrieben: ↑Mi 13 Mai, 2026 19:05
Spricht da der ganz große Marktversteher? :)
Aber mal ganz praktisch und nüchtern die KI betrachtet:
Es gibt keinen großen Unterschied zwischen diesen zwei Szenarien:
1. Ich schicke einem Effekthaus die Aufnahmen und schreibe ihnen die Anforderungen und meine Erwartungen an das Ergebnis.
2. Ich füttere eine KI indem ich prompte und lade die Aufnahmen hoch.
Ein Effektspezialist arbeitet auch auf Basis seiner bisherigen Arbeiten und dem von ihm Gesehenen.
Du hättest diesen Film auch - falls dir die SD-Bildauflösung ausreicht - beim

