News-Kommentare Forum



VFX-Plattform Beeble bekommt Background Remover



Kommentare / Diskussionen zu aktuellen Newsmeldungen auf slashCAM
Antworten
slashCAM
Administrator
Administrator
Beiträge: 11279

VFX-Plattform Beeble bekommt Background Remover

Beitrag von slashCAM »


Die KI-gestützte VFX-Plattform Beeble hat ihre bisherigen On- und Offline-Tools durch einen Background Remover ergänzt, der mittels KI ausgewählte Objekte in Form von Alp...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
VFX-Plattform Beeble bekommt Background Remover



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

Für mich bleibt immer die Frage:
Wie gut funktioniert es dann auch?

Also wie gut sind die erreichbaren Resultate.

Und jedes mal schließen sich dann solche Fragen an:
Welches Abo-Modell ist dafür dann notwendig?
Wie viel kosten dann die Resultate effektiv?
Denn irgendwelche credits per month sagen eigentlich nichts aus.
Es spielt auch eine große Rolle, wie viele Versuche es braucht, um ein ordentliches Resultat zu erhalten.

Bei
SwitchX
sind max. 240 Frames pro Video möglich - bei 30fps also 8 sec.
30 frames = 10 credits
8 sec verlangen also nach 80 credits.
Die 540 aus dem creator-Abo reichen also für 6 Videos a 8 sec.
Daher ist schon wichtig, wie viele Versuche es braucht, um zum gewünschten Resultat zu kommen.



MaxSchreck
Beiträge: 319

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von MaxSchreck »

iasi hat geschrieben: Fr 10 Apr, 2026 15:43 Für mich bleibt immer die Frage:
Wie gut funktioniert es dann auch?

Also wie gut sind die erreichbaren Resultate.

Und jedes mal schließen sich dann solche Fragen an:
Welches Abo-Modell ist dafür dann notwendig?
Wie viel kosten dann die Resultate effektiv?
Denn irgendwelche credits per month sagen eigentlich nichts aus.
Es spielt auch eine große Rolle, wie viele Versuche es braucht, um ein ordentliches Resultat zu erhalten.

Bei
SwitchX
sind max. 240 Frames pro Video möglich - bei 30fps also 8 sec.
30 frames = 10 credits
8 sec verlangen also nach 80 credits.
Die 540 aus dem creator-Abo reichen also für 6 Videos a 8 sec.
Daher ist schon wichtig, wie viele Versuche es braucht, um zum gewünschten Resultat zu kommen.
Bist doch sonst so ein völliger KI Fanatiker... aber hier hast Du eines der vielen Probleme, besonders mit denen die Online laufen, angesprochen. Völlige Intransparenz und erhebliche Unsicherheiten was die Planung/Budgetierung angeht. Hier reden wir dabei "nur" von Roto. Ich habe persönlich schon Fälle erlebt, die für mich KI mäßig relativ simpel aussahen, sich dann aber als recht zeitaufwändig herausstellten und (Ironie) komplett manuell gemacht werden mussten...

Das Modell hat aber System. Hypen und anfixen, für einfache Sachen reicht es ja, aber in der Zukunft wird der Dienst immer teurer. Erleben wir ja zusehends bei den vielen Abomodellen, die zu Beginn auch total erschwinglich waren, allen voran Adobe und da wird es für kleine Nutzer immer schmerzhafter - und natürlich flechtet Adobe nun auch inner mehr KI ganz tief in ihr Angebot hinein - maximal Intransparent, natürlich! Da springt man ein paar Mal zwischen generativer KI (vielleicht noch die drittanbietern), denoise, upscale usw. hin und her und hat keinen blassen Schimmer, daß grad Tonnen am Credits verheizt wurden...



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

MaxSchreck hat geschrieben: Fr 10 Apr, 2026 16:41
iasi hat geschrieben: Fr 10 Apr, 2026 15:43 Für mich bleibt immer die Frage:
Wie gut funktioniert es dann auch?

Also wie gut sind die erreichbaren Resultate.

Und jedes mal schließen sich dann solche Fragen an:
Welches Abo-Modell ist dafür dann notwendig?
Wie viel kosten dann die Resultate effektiv?
Denn irgendwelche credits per month sagen eigentlich nichts aus.
Es spielt auch eine große Rolle, wie viele Versuche es braucht, um ein ordentliches Resultat zu erhalten.

Bei
SwitchX
sind max. 240 Frames pro Video möglich - bei 30fps also 8 sec.
30 frames = 10 credits
8 sec verlangen also nach 80 credits.
Die 540 aus dem creator-Abo reichen also für 6 Videos a 8 sec.
Daher ist schon wichtig, wie viele Versuche es braucht, um zum gewünschten Resultat zu kommen.
Bist doch sonst so ein völliger KI Fanatiker... aber hier hast Du eines der vielen Probleme, besonders mit denen die Online laufen, angesprochen. Völlige Intransparenz und erhebliche Unsicherheiten was die Planung/Budgetierung angeht. Hier reden wir dabei "nur" von Roto. Ich habe persönlich schon Fälle erlebt, die für mich KI mäßig relativ simpel aussahen, sich dann aber als recht zeitaufwändig herausstellten und (Ironie) komplett manuell gemacht werden mussten...

Das Modell hat aber System. Hypen und anfixen, für einfache Sachen reicht es ja, aber in der Zukunft wird der Dienst immer teurer. Erleben wir ja zusehends bei den vielen Abomodellen, die zu Beginn auch total erschwinglich waren, allen voran Adobe und da wird es für kleine Nutzer immer schmerzhafter - und natürlich flechtet Adobe nun auch inner mehr KI ganz tief in ihr Angebot hinein - maximal Intransparent, natürlich! Da springt man ein paar Mal zwischen generativer KI (vielleicht noch die drittanbietern), denoise, upscale usw. hin und her und hat keinen blassen Schimmer, daß grad Tonnen am Credits verheizt wurden...
Wobei man sich nichts vormachen sollte. Es braucht eine nicht unerhebliche Einarbeitung, um die Leistungsfähigkeit eines KI-Angebots voll ausreizen zu können.
Ich bin z.B. gerade bei Kling 3.0 dran, mir für verschiedene Anforderungen den bestmöglichen Workflow zu erarbeiten.
Allein mit Prompts kommt man nicht weit.
Anhand von Bildern kann man bei Kling 3.0 z.B. zunächst Anfangs- und Endframes generieren und - mit zusätzlich Bildern für den Charakter - dann das Video generieren.

Credits muss man jedenfalls immer reichlich einplanen.
Mit 720p muss man ja schon gar nicht anfangen.
Und die genutzen Videocodecs für den Download sind auch nicht berauschend.

Es wäre jedenfalls schon mal sehr hilfreich, wenn man von Informationen zu guten und kontrollierbaren Workflows von KI-Angeboten nutzen könnte. Sich selbst immer einzuarbeiten, um überhaupt abschätzen zu können, ob ein KI-Angebot sich lohnt, ist aufwendig.



ffm
Beiträge: 395

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von ffm »

Die Antwort ist nicht nur 42. Die Antwort ist auch Bauträger. Und zwar reichlich. Und eine E-Gitarre ist keine Akustik-Gitarre. Und sich selbst nichts vormachen!



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

iasi hat geschrieben: Fr 10 Apr, 2026 17:43
MaxSchreck hat geschrieben: Fr 10 Apr, 2026 16:41

Bist doch sonst so ein völliger KI Fanatiker... aber hier hast Du eines der vielen Probleme, besonders mit denen die Online laufen, angesprochen. Völlige Intransparenz und erhebliche Unsicherheiten was die Planung/Budgetierung angeht. Hier reden wir dabei "nur" von Roto. Ich habe persönlich schon Fälle erlebt, die für mich KI mäßig relativ simpel aussahen, sich dann aber als recht zeitaufwändig herausstellten und (Ironie) komplett manuell gemacht werden mussten...

Das Modell hat aber System. Hypen und anfixen, für einfache Sachen reicht es ja, aber in der Zukunft wird der Dienst immer teurer. Erleben wir ja zusehends bei den vielen Abomodellen, die zu Beginn auch total erschwinglich waren, allen voran Adobe und da wird es für kleine Nutzer immer schmerzhafter - und natürlich flechtet Adobe nun auch inner mehr KI ganz tief in ihr Angebot hinein - maximal Intransparent, natürlich! Da springt man ein paar Mal zwischen generativer KI (vielleicht noch die drittanbietern), denoise, upscale usw. hin und her und hat keinen blassen Schimmer, daß grad Tonnen am Credits verheizt wurden...
Wobei man sich nichts vormachen sollte. Es braucht eine nicht unerhebliche Einarbeitung, um die Leistungsfähigkeit eines KI-Angebots voll ausreizen zu können.
Ich bin z.B. gerade bei Kling 3.0 dran, mir für verschiedene Anforderungen den bestmöglichen Workflow zu erarbeiten.
Allein mit Prompts kommt man nicht weit.
Anhand von Bildern kann man bei Kling 3.0 z.B. zunächst Anfangs- und Endframes generieren und - mit zusätzlich Bildern für den Charakter - dann das Video generieren.

Credits muss man jedenfalls immer reichlich einplanen.
Mit 720p muss man ja schon gar nicht anfangen.
Und die genutzen Videocodecs für den Download sind auch nicht berauschend.

Es wäre jedenfalls schon mal sehr hilfreich, wenn man von Informationen zu guten und kontrollierbaren Workflows von KI-Angeboten nutzen könnte. Sich selbst immer einzuarbeiten, um überhaupt abschätzen zu können, ob ein KI-Angebot sich lohnt, ist aufwendig.
Kann es sein, dass du Aufwand grundsätzlich scheust?



MaxSchreck
Beiträge: 319

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von MaxSchreck »

medienonkel hat geschrieben: Fr 10 Apr, 2026 19:12 Kann es sein, dass du Aufwand grundsätzlich scheust?
Auch wenn die Frage an iasi ging: Wenn ich mir schon persönliche Erfahrungen mit "einfachen" Bildgeneratoren wie firefly, freepik, leonardo etc. und dann die Kommentare von Usern von hoch komplexen wie Seedance usw. anschaue ist nicht von der Hand zu weisen, daß der Aufwand diese richtig zu verstehen oftmals erheblich ist - ganz besonders, da sich ALLE permanent verändern, manchmal von Woche zu Woche. Ich verstehe derzeit nicht, wie das nachhaltig sein soll, denn teilweise funktionieren bestimmte Dinge von einer "Version" nicht mehr oder komplett anders.



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

MaxSchreck hat geschrieben: So 12 Apr, 2026 09:39
medienonkel hat geschrieben: Fr 10 Apr, 2026 19:12 Kann es sein, dass du Aufwand grundsätzlich scheust?
Auch wenn die Frage an iasi ging: Wenn ich mir schon persönliche Erfahrungen mit "einfachen" Bildgeneratoren wie firefly, freepik, leonardo etc. und dann die Kommentare von Usern von hoch komplexen wie Seedance usw. anschaue ist nicht von der Hand zu weisen, daß der Aufwand diese richtig zu verstehen oftmals erheblich ist - ganz besonders, da sich ALLE permanent verändern, manchmal von Woche zu Woche. Ich verstehe derzeit nicht, wie das nachhaltig sein soll, denn teilweise funktionieren bestimmte Dinge von einer "Version" nicht mehr oder komplett anders.
Ich weiß.
Das ist ja genau mein Punkt. "KI" ist kein Wundermittel. Dieser ständige Wandel, es ist tatsächlich sehr chaotisch.

Und wenn du wirklich so etwas wie Kontrolle haben möchtest, wächst die Lernkurve exponentiell.
Immerhin wird man irgendwann firm mit der Installation von GitHub und den unendlichen Möglichkeiten ein komplettes System zu zerschießen, wenn man mal eben was neues ausprobiert.

Da ich eh mit Strom heize, bevorzuge ich die lokale Installation. Klingt komisch, aber meine normale Heizung kann nichts berechnen...

Ich bleibe einfach ein halbes Jahr bei dem, was ich kapiert habe.
Meine letzte große Neuerung war, dass jetzt auch Dialog zum Video sehr gezielt geprompted werden kann.



freezer
Beiträge: 3847

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von freezer »

Ich würde ja diesen Plattformen anbieten, dass sie kostenlos die Videos für die Filmprojekte erstellen und sich dafür unternehmerisch am Film beteiligen. Diese Beamtenmentalität der Videoplattformen ist kaum auszuhalten und typisch US - wollen immer gleich Geld auf die Hand für die Leistung, statt sich einzubringen und den Entrepreneursgedanken zu leben. Deswegen werden die immer nur handwerkliche Zulieferer im sicheren Schoß der regelmäßigen Bezahlung bleiben, anstatt endlich mal als Gesellschafter kreativ zu werden und wirklich Großes zu leisten.
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com



MaxSchreck
Beiträge: 319

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von MaxSchreck »

freezer hat geschrieben: So 12 Apr, 2026 12:44 Ich würde ja diesen Plattformen anbieten, dass sie kostenlos die Videos für die Filmprojekte erstellen und sich dafür unternehmerisch am Film beteiligen. Diese Beamtenmentalität der Videoplattformen ist kaum auszuhalten und typisch US - wollen immer gleich Geld auf die Hand für die Leistung, statt sich einzubringen und den Entrepreneursgedanken zu leben. Deswegen werden die immer nur handwerkliche Zulieferer im sicheren Schoß der regelmäßigen Bezahlung bleiben, anstatt endlich mal als Gesellschafter kreativ zu werden und wirklich Großes zu leisten.
Du Schelm... ;-)



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

freezer hat geschrieben: So 12 Apr, 2026 12:44 Ich würde ja diesen Plattformen anbieten, dass sie kostenlos die Videos für die Filmprojekte erstellen und sich dafür unternehmerisch am Film beteiligen. Diese Beamtenmentalität der Videoplattformen ist kaum auszuhalten und typisch US - wollen immer gleich Geld auf die Hand für die Leistung, statt sich einzubringen und den Entrepreneursgedanken zu leben. Deswegen werden die immer nur handwerkliche Zulieferer im sicheren Schoß der regelmäßigen Bezahlung bleiben, anstatt endlich mal als Gesellschafter kreativ zu werden und wirklich Großes zu leisten.
KI-Unternehmen sind nicht im sicheren Schoß der regelmäßigen Bezahlung - vielmehr wird reichlich investiert. Dabei ist gerade das Ziel, die KI durch eine breite Anwenderschar so weit zu entwickeln, dass am Ende die großen Geschäfte gemacht werden können.
Da darf dann der VFX-Artist die subventionierten Bilder und Videos generieren, um die KI weiter zu entwickeln, damit er dann am Ende ersetzt eben der VFX-Artist werden kann,

Disney hatte dies schon mit OpenAI so geplant.

Netflix investiert fleißig.

Nun zeigt OpenAI mit dem Stop von Sora, dass sie an den kleinen Kunden weniger Interesse haben, als an den großen Firmenkunden bzw Kooperationen.
Es geht den KI-Unternehmen doch nicht um die um regelmäßige Bezahlung, sondern um Marktübernahmen.

Der VFX-Artist und mit ihm seine VFX-Software werden durch KI ersetzt. Und das geht erstaunlich schnell voran.

Wer in seiner Beamtenmentalität denkt, er könne seinen Lebenunterhalt weiterhin durch die gewohnte Arbeit verdienen, sollte gewarnt sein und sich besser in die KI-Nutzung einarbeiten.



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

Irgendwann wird eh festgestellt, dass alle Inhalte den Plattformen gehören und dann geht das nachträgliche Löhnen abhängig vom erzielten Umsatz ab.

Z.b. Demonetarisierung von einschlägigen Inhalten. Das Geld geht dann vollständig und direkt an die Plattformen.

Auch ein Grund, warum ich das alles lokal mache.
Denkt ihr wirklich eure Prompts werden nicht ausgewertet?



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

iasi hat geschrieben: So 12 Apr, 2026 13:18
freezer hat geschrieben: So 12 Apr, 2026 12:44 Ich würde ja diesen Plattformen anbieten, dass sie kostenlos die Videos für die Filmprojekte erstellen und sich dafür unternehmerisch am Film beteiligen. Diese Beamtenmentalität der Videoplattformen ist kaum auszuhalten und typisch US - wollen immer gleich Geld auf die Hand für die Leistung, statt sich einzubringen und den Entrepreneursgedanken zu leben. Deswegen werden die immer nur handwerkliche Zulieferer im sicheren Schoß der regelmäßigen Bezahlung bleiben, anstatt endlich mal als Gesellschafter kreativ zu werden und wirklich Großes zu leisten.
KI-Unternehmen sind nicht im sicheren Schoß der regelmäßigen Bezahlung - vielmehr wird reichlich investiert. Dabei ist gerade das Ziel, die KI durch eine breite Anwenderschar so weit zu entwickeln, dass am Ende die großen Geschäfte gemacht werden können.
Da darf dann der VFX-Artist die subventionierten Bilder und Videos generieren, um die KI weiter zu entwickeln, damit er dann am Ende ersetzt eben der VFX-Artist werden kann,

Disney hatte dies schon mit OpenAI so geplant.

Netflix investiert fleißig.

Nun zeigt OpenAI mit dem Stop von Sora, dass sie an den kleinen Kunden weniger Interesse haben, als an den großen Firmenkunden bzw Kooperationen.
Es geht den KI-Unternehmen doch nicht um die um regelmäßige Bezahlung, sondern um Marktübernahmen.

Der VFX-Artist und mit ihm seine VFX-Software werden durch KI ersetzt. Und das geht erstaunlich schnell voran.

Wer in seiner Beamtenmentalität denkt, er könne seinen Lebenunterhalt weiterhin durch die gewohnte Arbeit verdienen, sollte gewarnt sein und sich besser in die KI-Nutzung einarbeiten.
Nein, sie werden nicht ersetzt. Ihnen wird das Leben bei Routinen erleichtert. ;-)

Und das kann echt nur jemand schreiben, der noch nie in seinem Leben "VFX" gemacht hat.



MaxSchreck
Beiträge: 319

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von MaxSchreck »

iasi hat geschrieben: So 12 Apr, 2026 13:18 Nun zeigt OpenAI mit dem Stop von Sora, dass sie an den kleinen Kunden weniger Interesse haben, als an den großen Firmenkunden bzw Kooperationen.
Du erwähntest doch selbst Disney und deren OpenAI Träume - die sind doch auch geplatzt. Aus meiner Sicht zeigt sich schon jetzt, daß (zumindest derzeit) absolut niemand etwas "sichereres" mit diesen ganzen KI Anbietern aufbauen kann.
iasi hat geschrieben: So 12 Apr, 2026 13:18 Der VFX-Artist und mit ihm seine VFX-Software werden durch KI ersetzt. Und das geht erstaunlich schnell voran.
Nicht wirklich.
iasi hat geschrieben: So 12 Apr, 2026 13:18 Wer in seiner Beamtenmentalität denkt, er könne seinen Lebenunterhalt weiterhin durch die gewohnte Arbeit verdienen, sollte gewarnt sein und sich besser in die KI-Nutzung einarbeiten.
So eine Denke hat es noch nie gegeben. Natürlich gab und gibt es Leute, die nicht offen für den Wandel sind, aber die fanden dann halt irgendwie anders ihren Weg. Wir reden heute aber von etwas anderem, nämlich einer enormen Menge von Unsinn, der versprochen wird. Während beim Wechsel von optischem zu digitalen compositing ein enormer Qualitäts- und Zeitgewinn entstand, zusammen mit extrem hoher Kontrolle, ist bei KI keine Rede davon, daß man z.B. nun einfach jemanden vor grün aufnimmt und dann quasi per Knopfdruck ein perfektes composite (Key mit allen feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. mit einem gedrehten Hintergrund erhält - was aus meiner Sicht das sein sollte, was KI ermöglichen sollte. Bisher habe ich aber nichts derartiges gesehen außer einem Experiment von den Jungs von Corridor digital mit begrenzter Nutzbarkeit, welches auch nur ein neuer Keyer ist.

Bei Kreaturen, also dem Gegenstück zu CG reden wir von einem derart komplexen Feld wo ich noch nicht einmal im Ansatz sehe, wie man damit jemals das Äquivalent zu sehr präzise kontrollierbaren Ergebnissen wie mit CG in sehr geringer Zeit erhalten soll.

KI nimmt uns aber (wie Medienonkel auch schon sagte) Routinen ein ganzes Stück weit ab. Für diese Tools bin ich extrem dankbar, weil ich sehr viel mehr autark umsetzen kann.



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45
iasi hat geschrieben: So 12 Apr, 2026 13:18 Nun zeigt OpenAI mit dem Stop von Sora, dass sie an den kleinen Kunden weniger Interesse haben, als an den großen Firmenkunden bzw Kooperationen.
Du erwähntest doch selbst Disney und deren OpenAI Träume - die sind doch auch geplatzt. Aus meiner Sicht zeigt sich schon jetzt, daß (zumindest derzeit) absolut niemand etwas "sichereres" mit diesen ganzen KI Anbietern aufbauen kann.

Es zeigt nur, dass OpenAI noch größeres Potential in Unternehmensanwendungen sieht und bzgl. Sora vor der Konkurrenz kapituliert.
Bei Disney wiederum ist man sich der KI-Entwicklung bewußt.

iasi hat geschrieben: So 12 Apr, 2026 13:18 Der VFX-Artist und mit ihm seine VFX-Software werden durch KI ersetzt. Und das geht erstaunlich schnell voran.
Nicht wirklich.
iasi hat geschrieben: So 12 Apr, 2026 13:18 Wer in seiner Beamtenmentalität denkt, er könne seinen Lebenunterhalt weiterhin durch die gewohnte Arbeit verdienen, sollte gewarnt sein und sich besser in die KI-Nutzung einarbeiten.
So eine Denke hat es noch nie gegeben. Natürlich gab und gibt es Leute, die nicht offen für den Wandel sind, aber die fanden dann halt irgendwie anders ihren Weg. Wir reden heute aber von etwas anderem, nämlich einer enormen Menge von Unsinn, der versprochen wird. Während beim Wechsel von optischem zu digitalen compositing ein enormer Qualitäts- und Zeitgewinn entstand, zusammen mit extrem hoher Kontrolle, ist bei KI keine Rede davon, daß man z.B. nun einfach jemanden vor grün aufnimmt und dann quasi per Knopfdruck ein perfektes composite (Key mit allen feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. mit einem gedrehten Hintergrund erhält - was aus meiner Sicht das sein sollte, was KI ermöglichen sollte. Bisher habe ich aber nichts derartiges gesehen außer einem Experiment von den Jungs von Corridor digital mit begrenzter Nutzbarkeit, welches auch nur ein neuer Keyer ist.
Mir ist das bei ersten Tests und Versuchen mit Kling 3.0 schon in beide Richtungen erstaunlich gut gelungen.
1. Personen (ohne Greenscreen) in ein anderes Setting versetzen.
2. Eine Person durch eine Kreatur ersetzen.

Dabei war nur das Video der Person und ein Bild der Kreatur nötig. Dabei hat die KI nicht nur ausgeschnitten und ersetzt, sondern unter Berücksichtigung von feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. eingesetzt. Die Bewegungen der Person wurden dabei detailiert übernommen. Selbst eine Anschlußeinstellung mit einem Start-Image war erstaunlich gut zu realisieren.
MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45 Bei Kreaturen, also dem Gegenstück zu CG reden wir von einem derart komplexen Feld wo ich noch nicht einmal im Ansatz sehe, wie man damit jemals das Äquivalent zu sehr präzise kontrollierbaren Ergebnissen wie mit CG in sehr geringer Zeit erhalten soll.

KI nimmt uns aber (wie Medienonkel auch schon sagte) Routinen ein ganzes Stück weit ab. Für diese Tools bin ich extrem dankbar, weil ich sehr viel mehr autark umsetzen kann.
Und auch hier sind meine Erfahrungen mit Kling 3.0 andere. Durch die Vorgabe der Kreatur als Bild war ein Ergebnis möglich, das sonst nur mit enormem Aufwand erreicht werden könnte.

Und dabei soll Seedance 2.0 nochmal sehr viel besser sein, als Kling 3.0.
Perfekt sind alle Ergebnisse, die Kling 3.0 bisher liefert, zwar noch nicht, aber irgendwann wird Kling 4.0 herauskommen.

Das Video entstand aus dem letzten Frame eines Videos als Start-Frame und einem Foto der Kreatur.
Es war der zweite Versuch, nachdem ich beim ersten das Foto der Kreatur noch weggelassen hatte.
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.05_[2026.04.12_14.34.15].jpg
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.34.58].jpg
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.35.29].jpg
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.07_[2026.04.12_14.35.58].jpg
Die Bewegungen im Video wirken übrigens absolut natürlich, obwohl es hier keine Videovorlage gab.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



Darth Schneider
Beiträge: 27736

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von Darth Schneider »

Ja wirkt absolut natürlich..😂😂😂
Was zum Teufel ist das ?
Ein Monster Vogel ohne Flügel dafür mit haarigen Strapsen ?



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

Darth Schneider hat geschrieben: So 12 Apr, 2026 14:50 Ja wirkt absolut natürlich..😂😂😂
Was zum Teufel ist das ?
Ein Monster Vogel ohne Flügel dafür mit haarigen Strapsen ?
Das ist der Nachtkrabb. :)

Es sieht jedenfalls schon mal weniger nach einer Puppe aus wie dieses Monster hier: 😂

Bild



Darth Schneider
Beiträge: 27736

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von Darth Schneider »

Der aus Star Wars war toll gemacht, Puppe hin oder her und funny mit seinem Grinsen…



Darth Schneider
Beiträge: 27736

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von Darth Schneider »

Sieht immer noch besser aus mit Puppen als mit AI.



Bluboy
Beiträge: 5726

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von Bluboy »

iasi hat geschrieben: So 12 Apr, 2026 14:42
MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45
Du erwähntest doch selbst Disney und deren OpenAI Träume - die sind doch auch geplatzt. Aus meiner Sicht zeigt sich schon jetzt, daß (zumindest derzeit) absolut niemand etwas "sichereres" mit diesen ganzen KI Anbietern aufbauen kann.

Es zeigt nur, dass OpenAI noch größeres Potential in Unternehmensanwendungen sieht und bzgl. Sora vor der Konkurrenz kapituliert.
Bei Disney wiederum ist man sich der KI-Entwicklung bewußt.



Nicht wirklich.


So eine Denke hat es noch nie gegeben. Natürlich gab und gibt es Leute, die nicht offen für den Wandel sind, aber die fanden dann halt irgendwie anders ihren Weg. Wir reden heute aber von etwas anderem, nämlich einer enormen Menge von Unsinn, der versprochen wird. Während beim Wechsel von optischem zu digitalen compositing ein enormer Qualitäts- und Zeitgewinn entstand, zusammen mit extrem hoher Kontrolle, ist bei KI keine Rede davon, daß man z.B. nun einfach jemanden vor grün aufnimmt und dann quasi per Knopfdruck ein perfektes composite (Key mit allen feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. mit einem gedrehten Hintergrund erhält - was aus meiner Sicht das sein sollte, was KI ermöglichen sollte. Bisher habe ich aber nichts derartiges gesehen außer einem Experiment von den Jungs von Corridor digital mit begrenzter Nutzbarkeit, welches auch nur ein neuer Keyer ist.
Mir ist das bei ersten Tests und Versuchen mit Kling 3.0 schon in beide Richtungen erstaunlich gut gelungen.
1. Personen (ohne Greenscreen) in ein anderes Setting versetzen.
2. Eine Person durch eine Kreatur ersetzen.

Dabei war nur das Video der Person und ein Bild der Kreatur nötig. Dabei hat die KI nicht nur ausgeschnitten und ersetzt, sondern unter Berücksichtigung von feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. eingesetzt. Die Bewegungen der Person wurden dabei detailiert übernommen. Selbst eine Anschlußeinstellung mit einem Start-Image war erstaunlich gut zu realisieren.
MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45 Bei Kreaturen, also dem Gegenstück zu CG reden wir von einem derart komplexen Feld wo ich noch nicht einmal im Ansatz sehe, wie man damit jemals das Äquivalent zu sehr präzise kontrollierbaren Ergebnissen wie mit CG in sehr geringer Zeit erhalten soll.

KI nimmt uns aber (wie Medienonkel auch schon sagte) Routinen ein ganzes Stück weit ab. Für diese Tools bin ich extrem dankbar, weil ich sehr viel mehr autark umsetzen kann.
Und auch hier sind meine Erfahrungen mit Kling 3.0 andere. Durch die Vorgabe der Kreatur als Bild war ein Ergebnis möglich, das sonst nur mit enormem Aufwand erreicht werden könnte.

Und dabei soll Seedance 2.0 nochmal sehr viel besser sein, als Kling 3.0.
Perfekt sind alle Ergebnisse, die Kling 3.0 bisher liefert, zwar noch nicht, aber irgendwann wird Kling 4.0 herauskommen.

Das Video entstand aus dem letzten Frame eines Videos als Start-Frame und einem Foto der Kreatur.
Es war der zweite Versuch, nachdem ich beim ersten das Foto der Kreatur noch weggelassen hatte.
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.05_[2026.04.12_14.34.15].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.34.58].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.35.29].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.07_[2026.04.12_14.35.58].jpg

Die Bewegungen im Video wirken übrigens absolut natürlich, obwohl es hier keine Videovorlage gab.

Species vehungert in Treppenhaus ?



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

Ich poste nun einfach mal das hier, weil der junge Mann zumindest in eine sehr vielversprechende Richtung arbeitet.
Und man tatsächlich am Ende des Tages auch ein wenig können muss, um überhaupt zu Ergebnissen zu kommen.



Ich finde vor allem die Depth-Map, die mit dem ersten Workflow erstellt wird um Welten besser, als das, was aus resolve kommt.
Alleine damit kann man schon so viel anfangen. Weiß gerade nicht, wie weit Nuke da ist (ich muss mal wieder Bäume bauen...natürlich nur als Hobbyist)

Das von MaxSchreck angesprochene Compositing mit guter Integration (für einfach mal aufn Knopf drücken) und Ergänzung von durch die Freistellung (Wabbelmaske, Erode +- 20) fehlender Elemente (in Micks Beispiel Haare, die OHNE, dass es beabsichtigt gewesen wäre, ergänzt wurden) hat den Herrn Mumpitz selbst überrascht.


Kontrolle: von fast Null bis ziemlich viel.
Ausgang: überrascht, dass es überhaupt so gut geht.
Was ja immer noch die Hauptfaszination an der KI Sache ausmacht.

Auch die restlichen vorgestellten Projekte und workflows für comfyui sind von außergewöhnlicher Qualität und sind in dieser gesamten Diskussion beachtenswert.

Man sieht aber auch, dass man nicht einfach was prompted und gut ist. Auch nicht mit Start- und Endbild.
Das Modell kann dir jederzeit den Finger zeigen und dir was komplett vom Prompt abweichendes dazwischen juckeln.

Wenn für eine Produktion ein klassischer Workflow steht ist die Menschenzeit im AI Workflow natürlich kürzer. Man ist aber einfach Beifahrer des Prozesses und schaut noch öfter dumm ausm Fenster.

Dagegen kannst du in einem klassischen Workflow an deinem 8 Stunden Tag mit klar definierten Werten und mathematisch transparenten Algorithmen UND recht schnell erstellten flipbooks (ich bin soooo alt) absolut präzise und widerholbar über Nacht deine 4 shots rausrendern, in layern. EXR ist ja ein reines Canale Grande.
Und viel wichtiger: Du kannst in ALLES manuell eingreifen. Am spannendsten sind da natürlich die Momente, wenn man was umsetzen soll, was man noch nie gemacht hat. Das ist dann dieses Kreative.

Die reine Animationsvorschau geht in zigfacher Echtzeit. Dann in voller Auflösung ein paar keyshots gerendert und ab dafür.
Die Transferleistung aus Vorschau und Testrendering übernimmt dann dieser Artist. Er weiß dann einfach, wie das Ergebnis aussehen wird.
Dann wird der berühmte Knopf gedrückt und du machst dein Bier auf.

Es soll Leute geben, die fangen dank Bildsequenz schon mit dem compen des shots an, während die Szene noch gerendert wird. Da schraubste dann Bildtechnisch alles so hin, wie du willst, entdeckst eventuelle Fehler und die Timeline wird immer länger und länger....und du kannst schon mal ein paar Stills zur Vorabnahme schicken. Nach 1-2 Stunden, je nach Komplexität der Renderings (in Hollywood natürlich 2+n Stunden pro Frame...) kann so ein shot schon fertig sein.
Ab da kann eine Änderung einfach in 20 Minuten erledigt sein. Nicht nochmal 2 Stunden.

Passt ein layer/Kanal nicht, wird nur dessen Inhalt neu gerechnet. Wenn das irgendein isoliertes Fuzzelding im Hintergrund ist, rechnest du das mit ner ROI in 100x100 Pixeln in Nullkommajosef neu raus und der Käse ist verspeist.

Mag sein, dass das irgendwann auch mit KI geht. Aber, bis dir eine KI ein 4K Frame auf sämtliche Inhalte untersucht und diese in ein noch nicht definiertes Format ausgibt. Dauerts noch lange, wenn es sich überhaupt lohnt.
Irgendwer muss der KI natürlich ständig sagen, dass das Superman ist und kein Vogel oder Flugzeug.
Das haben ja nicht mal Zeitzeugen geschafft.


In einem anderen Post habe ich das bzgl. color grading anders bewertet. Aber aus ner Kamera kommt idR. nur ein Layer ohne Kanäle raus. Okay RGB, aber das ist nicht gemeint.
Daher ja auch die umfangreichen Maskierungstools in grading softwares. Weswegen man ja auch mit 10.... ach 8 bit schon viel anfangen kann. Die interne Chromaglättung (4:2:0 zu 4:2:2 convoluten gibt´s schon ewig) hilft auch. Man muss auch bei nem modernen 8bit Codec schon Einiges umbauen wollen, um es hässlich zu machen.
Der Zuschauer checkts zu 95% eh nicht. Oder der Shot fliegt im Schnitt halt raus. Soll ja ab und zu vorkommen.
Da muss man dann flexibel und agil reagieren können.

Technisch möglich ist das natürlich alles. Die Frage ist auch, inwiefern man einen Menschen mit einer KI vergleicht?

Wir lernen hier ja ständig, dass man das alles aus wirtschaftlicher Sichtweise betrachten muss.

Ich rechne das mal kurz nach der iasi Methode rein sachlich durch und nutze dafür eine wohlbekannte Parabel
(Spoiler Alarm! Es wird Essen vorkommen!):

Der Mensch strahlt ca. 100 Watt Wärme ab. Er setzt also an einem Arbeitstag ein gutes KW um und braucht dafür eine Hand voll Reis, als Zeichen der Prosperität. Nennen wir Ihn einfach Brabang.

Herr Brabang ist indischer 3d Künstler und konkurriert mit einer KI der Firma Quelle.
Herr Brabang hat kunstlastig studiert und kann mit Stift und Papier eine Woche lang konzeptuelle Kunst erstellen und so der Produktion seine Handschrift geben. Herrn Brabang kann man in branchenüblicher Lingo Dinge schnell und effektiv erklären.
Herr Brabang hat eine 70 Stunden Woche.
Das Training von Herrn Brabang haben seine Eltern finanziert. Diese Kosten interessieren höchstens volkswirtschaftlich.
Nicht den Betriebswirt.

Er verbraucht also 7 KW in einer Woche. Eine Hand voll Reis nehme ich mal mit 200 g an. Machen wir also in der Woche 2 kg Reis, er soll ja nicht vom Stangerl fallen. Das Kostet in Indien einen knappen Euro. Wir gönnen ihm natürlich auch einen Obstkorb und ein wenig Hühnerfleisch. Sagen wir einen Fünfer kostet er uns energetisch.

Die KI kann natürlich 24/7 hustlen. Gehen wir mal von ner Moderaten 5900er GPU aus. Die ist natürlich Spielzeug in dem Bereich, aber wir wollen ja nichts trainieren.

Ergebnis einer schnellen KI Recherche:
Der Verbrauch eines Servers mit dem AMD Ryzen 9 5900X (oft fälschlich als RTX 5900 bezeichnet) variiert stark je nach Konfiguration und BIOS-Einstellungen, wobei Leerlaufwerte zwischen 40 W und 160 W typisch sind. In optimierten Setups (z. B. mit B550-Mainboards, korrekten Energiespar-Settings und leiser Kühlung) wurden ca. 40 W im Leerlauf gemessen, während Systeme mit X570-Chipsätzen oder automatischen Übertaktungsmodi (wie ASUS XMP/EXPO-OC) oft 130–160 W im Leerlauf erreichen.
Okay, ich schätze mal 1000 Watt. Also 1 kW pro Stunde. Das 10-fache also.
Macht 168 kWh die Woche.
Das sind sogar bei indischen Stromkosten ca. 10 Euro!
Also das Doppelte.
Aber nun kommts: einen Herrn Brabang braucht es aber dennoch.
Die KI macht ja nichts von selbst. Und muss geprüft werden.... usw.

Das is so ein wenig 6/7...

Jetzt geht aber die Firma Quelle pleite.
Der Herr Brabang ist schon längst weiter gezogen.
Er biegt sich wie das Bambusrohr im Wind und arbeitet nun als Restaurator in der Schweiz. Er konnte sich mit seinen originären Entwürfen einen Namen machen und kennt noch alte Techniken, die nun plötzlich heißbegehrt sind.

Sein vorheriger Auftraggeber, wollte wie eine Eiche im Sturm auf die KI und die immer wieder wechselnden Prompthaserl setzen, seine gesenkten Kosten für die Kunden konnte er nicht einfach so erhöhen (die gehen dann nämlich einfach zur Konkurrenz!).
Die Eiche wurde zu Bruchholz und den Ganges der Geschichte hinuntergetrieben.

Herr Brabang setzte auf Fähigkeiten, nicht auf schnelle Ergebnisse für möglichst wenig Geld.



Dem iasi ist vermutlich auch nicht bewusst, dass zwar unglaublich viele Tätigkeiten problemlos mit Industrieller Fertigungstechnik zu bewerkstelligen wäre, aber dennoch stehen da immer noch diese lästigen, Kostenverursachenden Lohnsklaven an den Fertigungsstraßen.

Auch ein iasi wird irgendwann ersetzt werden.
Wieso die Produktion nicht von ner KI planen lassen?
Drehbuch rein, ein paar gescoutete Drehorte. Quatsch, das macht natürlich die KI per google maps über diverse Schattendatenbanken.

Den Rest macht der Rechenknecht.... Suche der Darsteller, Umgestaltung der Dramaturgie abhängig vom Budget, Genehmigungen einholen, Requisiten auf ebay recherchieren und bestellen, dynamische Drehpläne (gibt´s ja schon längst), Continuity auf Pixelpeeping Niveau (man braucht dann jemanden, der die Warnungen ständig wegclickt und die Kamera entsperrt) Buchhaltung, Spesenkontrolle, Steuererklärung...

Man selbst sitzt dann nur noch mit zwei HD Monitoren Kaffee trinkend am Set und clickt einen grünen oder einen roten Button. Hin und wieder textet man der KI, was man gerne anders hätte.

Die verwickelt einen dann in endlose Diskussionen um technische Details und auch so wird´s wieder nichts werden...

Es ist schon ein Kreuz.



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

iasi hat geschrieben: So 12 Apr, 2026 14:42
MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45
Du erwähntest doch selbst Disney und deren OpenAI Träume - die sind doch auch geplatzt. Aus meiner Sicht zeigt sich schon jetzt, daß (zumindest derzeit) absolut niemand etwas "sichereres" mit diesen ganzen KI Anbietern aufbauen kann.

Es zeigt nur, dass OpenAI noch größeres Potential in Unternehmensanwendungen sieht und bzgl. Sora vor der Konkurrenz kapituliert.
Bei Disney wiederum ist man sich der KI-Entwicklung bewußt.



Nicht wirklich.


So eine Denke hat es noch nie gegeben. Natürlich gab und gibt es Leute, die nicht offen für den Wandel sind, aber die fanden dann halt irgendwie anders ihren Weg. Wir reden heute aber von etwas anderem, nämlich einer enormen Menge von Unsinn, der versprochen wird. Während beim Wechsel von optischem zu digitalen compositing ein enormer Qualitäts- und Zeitgewinn entstand, zusammen mit extrem hoher Kontrolle, ist bei KI keine Rede davon, daß man z.B. nun einfach jemanden vor grün aufnimmt und dann quasi per Knopfdruck ein perfektes composite (Key mit allen feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. mit einem gedrehten Hintergrund erhält - was aus meiner Sicht das sein sollte, was KI ermöglichen sollte. Bisher habe ich aber nichts derartiges gesehen außer einem Experiment von den Jungs von Corridor digital mit begrenzter Nutzbarkeit, welches auch nur ein neuer Keyer ist.
Mir ist das bei ersten Tests und Versuchen mit Kling 3.0 schon in beide Richtungen erstaunlich gut gelungen.
1. Personen (ohne Greenscreen) in ein anderes Setting versetzen.
2. Eine Person durch eine Kreatur ersetzen.

Dabei war nur das Video der Person und ein Bild der Kreatur nötig. Dabei hat die KI nicht nur ausgeschnitten und ersetzt, sondern unter Berücksichtigung von feinen Details, Angleichung von Farbe, Helligkeit, Kontrast, Schärfe, Grain usw. eingesetzt. Die Bewegungen der Person wurden dabei detailiert übernommen. Selbst eine Anschlußeinstellung mit einem Start-Image war erstaunlich gut zu realisieren.
MaxSchreck hat geschrieben: So 12 Apr, 2026 13:45 Bei Kreaturen, also dem Gegenstück zu CG reden wir von einem derart komplexen Feld wo ich noch nicht einmal im Ansatz sehe, wie man damit jemals das Äquivalent zu sehr präzise kontrollierbaren Ergebnissen wie mit CG in sehr geringer Zeit erhalten soll.

KI nimmt uns aber (wie Medienonkel auch schon sagte) Routinen ein ganzes Stück weit ab. Für diese Tools bin ich extrem dankbar, weil ich sehr viel mehr autark umsetzen kann.
Und auch hier sind meine Erfahrungen mit Kling 3.0 andere. Durch die Vorgabe der Kreatur als Bild war ein Ergebnis möglich, das sonst nur mit enormem Aufwand erreicht werden könnte.

Und dabei soll Seedance 2.0 nochmal sehr viel besser sein, als Kling 3.0.
Perfekt sind alle Ergebnisse, die Kling 3.0 bisher liefert, zwar noch nicht, aber irgendwann wird Kling 4.0 herauskommen.

Das Video entstand aus dem letzten Frame eines Videos als Start-Frame und einem Foto der Kreatur.
Es war der zweite Versuch, nachdem ich beim ersten das Foto der Kreatur noch weggelassen hatte.
kling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.05_[2026.04.12_14.34.15].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.34.58].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.06_[2026.04.12_14.35.29].jpgkling_20260403_作品_Ultra_real_850_0.mp4_snapshot_00.07_[2026.04.12_14.35.58].jpg

Die Bewegungen im Video wirken übrigens absolut natürlich, obwohl es hier keine Videovorlage gab.
Soso.... eine Person ohne Greenscreen freigestellt.... hmmm.... das sieht irgendwie so nach.... wie soll ich sagen:
Einer Einrichtung aus.
Hattet Ihr Projekttag?

Aber cool, du scheinst ja noch richtig beweglich zu sein ;-)



medienonkel
Beiträge: 1255

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von medienonkel »

Eigentlich war ich für heute raus.
Aber da kommt corridor crew mit nem Video daher.

Ich hatte deren keyer "damals" auf der Liste. Und noch nicht ausprobiert. Der Mumpitz kam dazwischen.
Dass da so schnell ne App dazu entwickelt wird, ist schon krass.

Und jetzt wurde ein Davinci Plugin gedroppt:



Aber jetzt, wo man greenscreen nicht mehr braucht (iasi) kommt das wohl einfach zu spät ;-)



iasi
Beiträge: 30514

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von iasi »

medienonkel hat geschrieben: So 12 Apr, 2026 23:44 Eigentlich war ich für heute raus.
Aber da kommt corridor crew mit nem Video daher.

Ich hatte deren keyer "damals" auf der Liste. Und noch nicht ausprobiert. Der Mumpitz kam dazwischen.
Dass da so schnell ne App dazu entwickelt wird, ist schon krass.

Und jetzt wurde ein Davinci Plugin gedroppt:



Aber jetzt, wo man greenscreen nicht mehr braucht (iasi) kommt das wohl einfach zu spät ;-)
Das hatte ich auch gedacht. ;)

Und außerdem kam mir noch Magic Mask in den Sinn. :)

Vor allem aber dachte ich mir: Die reden alle so viel und machen auf gute Laune, während ich doch eigentlich vor allem sehen möchte, welche Ergebnisse es liefert. Einzelne Frames sagen z.B. noch nicht wirklich viel aus.



Darth Schneider
Beiträge: 27736

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von Darth Schneider »

Scheinbar hatten die bei Dune gar keine Greenscreen benutzt, sondern sandfarbene Hintergründe zum keyen, das ganz ohne AI.



CameraRick
Beiträge: 4908

Re: VFX-Plattform Beeble bekommt Background Remover

Beitrag von CameraRick »

Darth Schneider hat geschrieben: Mo 13 Apr, 2026 07:02 Scheinbar hatten die bei Dune gar keine Greenscreen benutzt, sondern sandfarbene Hintergründe zum keyen, das ganz ohne AI.
Ja, das ist das was sie in den Interviews erzählen. Wie damals bei Lt. Dan in Forrest Gump, mit den blauen Socken. Die Wahrheit ist, dass das am Ende des Tages alles Roto ist. Ja: das Licht usw ist durch die Sandscreens viel besser als durchblutet von Spill, aber gekeyed werden da höchstens die Haare.
ich schreibe hier nur in pausen auf der arbeit.



 Aktuelle Beiträge [alle Foren]
 
» Kann man noch MUTIG Filme produzieren? MARTIN MOSZKOWICZ
von MaxSchreck - Fr 6:01
» DaVinci Resolve 21 Photo - Der Anfang vom Ende für Adobe Lightroom?
von rob - Fr 0:18
» GoPro MISSION 1 Pro - 8K-Actioncams mit 1-Zoll-Sensor und MFT-Mount
von iasi - Do 23:12
» DJI Osmo Pocket 4 kommt noch im April - interner Speicher und neue Pro-Version
von Jörg - Do 23:04
» Was schaust Du gerade?
von Darth Schneider - Do 22:21
» Nikon teasert erste Cine lens (mit AF)
von pillepalle - Do 21:41
» Kinefinity VISTA: Kompakte Cine-Cam erklärt: Sensor, Formate, Verfügbarkeit und Preis
von MarcusG - Do 21:05
» Was hast Du zuletzt gekauft?
von Funless - Do 20:07
» DJI Lite X1 und Lite 1 - Neue Einsteiger-Drohnen mit 360°-Hinderniserkennung
von slashCAM - Do 18:21
» DaVinci Resolve 21 Photo ausführlich im Screencapture Workshop erklärt
von slashCAM - Do 17:09
» Handbrake oder gibt es ne bessere Möglichkeit?
von cantsin - Do 16:27
» Cartoni Hyperroll - modulares Roll-Rig für kreative Kamerafahrten
von Darth Schneider - Do 15:18
» Flusskreuzfahrt Teil 4: Braunschweig
von Riki1979 - Do 14:51
» DIY: DJI Pocket 4 Controller?
von ruessel - Do 13:45
» FILMFÖRDERUNG FÜR ALLE?
von Nigma1313 - Do 12:24
» BlackRAW Visor App - .braw-Dateien von SSD am iPhone sichten, graden und mehr
von slashCAM - Do 11:57
» Sony HXR-NX80 auf v Mount Anschliessen
von rush - Mi 22:30
» 1000€ Richtmikro für Hochzeitsfilme
von johnnycash89 - Mi 22:26
» Musikvideo mit KI und realen Aufnahmen
von Serge - Mi 20:32
» SmallRig: Gut durchdachtes neues Schulterrig und mobiles Effektlicht erklärt
von Darth Schneider - Mi 18:34
» Adobe erklärt die Details zum neuen Premiere Color Mode
von berlin123 - Mi 18:15
» Kinefinity Vista - kompakte 6K-Vollformat Cine-Cam gesichtet
von Darth Schneider - Mi 18:05
» Flusskreuzfahrt Teil 3: Minden
von Riki1979 - Mi 17:51
» Sennheiser HD 480 PRO - neuer geschlossener Referenzkopfhörer für Studio und Live
von Pianist - Mi 16:22
» Insta360 Mic Pro - Funkmikro mit farbigem E-Ink-Display und 32-Bit Audio Float
von ruessel - Mi 12:17
» Flusskreuzfahrt, Teil 2: Bremen
von Bildlauf - Mi 11:19
» Gerald Undone geht in Pension
von Rick SSon - Mi 11:17
» Panasonic LUMIX S 40mm F2 - neues, kompaktes Standardobjektiv
von Rick SSon - Mi 11:11
» Der Combo Stand
von pillepalle - Mi 10:15
» Blackmagic im Interview: Resolve Photo, Fairlight Live und Camera App Update erklärt
von Jott - Mi 9:49
» Warum Netzwerken wichtiger ist als Talent! FILMREIF
von 7River - Mi 9:39
» RØDELink II vorgestellt - 32-Bit-Float, UHF-Übertragung von Lectrosonics
von rush - Mi 7:04
» SD+HD Bearbeitung/Restauration/Digitalisierung mit VD1/2
von Jens65 - Di 23:01
» Wo liegen die Schwachstellen bei meinem System?
von blacktopfieber - Di 21:08
» NAB 2026 ...dies und das
von Jörg - Di 15:25