Für diesen Workshop ist bis auf weiteres noch die spezielle, aktuelle Betaversion von Adobes Photoshop aus der Cloud vonnöten, denn in einer finalen Version sind die neuen KI-Funktionen noch nicht zu finden. Alternativ lässt sich dieses Verfahren auch mit Stable Diffusion nutzen, jedoch haben wir den Eindruck, dass unsere Leser eher die Adobe Creative Cloud als Stable Diffusion zur Hand haben. Bein entsprechendem Interesse können wir die notwendigen, alternativen Schritte in Stable Diffusion aber noch in einem eigenen Workshop nachreichen...
Die besagte Funktion in der aktuellen Photoshop Beta nennt sich "Generative Fill" und basiert auf einem generativen KI-Modell, welches maskierte Bereiche in einem Bild schlüssig ergänzen kann. Wie bei Stable Diffusion kann man hiermit nicht nur Objekte löschen oder verändern. Ein Bild kann hiermit ebenso über seinen Rahmen hinaus erweitert werden - indem Adobes KI das präsentierte Bildmotiv optisch "weiterspinnt".
Bei Bewegtbildern funktioniert eine solche Erweiterung allerdings nicht, weil hier für jeden Frame eines Videos ein anderer Inhalt erfunden wird - was die zeitliche konsistente Abfolge der Einzelbilder (zer)stört. Das Video wirkt im besten Falle sehr unruhig, im schlechtesten Fall bekommt man eine Abfolge unzusammenhängender Einzelbilder präsentiert.
Rahmenbedingungen
Was jedoch durchaus funktioniert, ist eine fiktive Rahmenerweiterung, solange die Kameraposition statisch ist - sprich mit einem Stativ aufgenommen wurde. Solange keine Objekte wie z.B. Vögel oder Schatten in den ursprünglichen Rahmen eintreten oder diesen verlassen, kann ein statischer Bereich um das Video "erfunden" werden. Zur Verfeinerung kann man noch mit virtuellen Kamerabewegungen die gefühlte Authentizität erhöhen. Theoretisch lässt sich dabei auch ein beliebig großer Rahmen erfinden, dessen virtuelle Zoomfahrt erst zum Schluss in einem wirklich bewegten Video endet.
Wie das recht einfach funktioniert, wollen wir nun einmal Schritt für Schritt exemplarisch erklären.
Statt das Video in Photoshop zu öffnen, könnte man auch diesen Weg gehen:
1. In Resolve ein Standbild aus dem Video speichern.
2. Das Standbild in Photoshop erweitern lassen...weiterlesen
Darth Schneider 20:43 am 16.8.2023
@iasi
Ein Mattepainting braucht man doch aber vor allem dann wenn man das was darauf zu sehen ist, eben nicht einfach mit einer Kamera abfilmen kann…Weil es die Dinge die darauf...weiterlesen
iasi 14:29 am 16.8.2023
Gute Idee.
Wäre es denn nicht einfacher, ein Standbild des Videos fürs Mattepainting zu nutzen und dann alles im Schnittprogramm zusammenzufügen. Dann würden sich die Bilder...weiterlesen
Workshop: Compositing mit Blender Teil 3 Di, 24.April 2007 In den ersten beiden Workshops zu Blender wurde ein wichtiger Punkt ausgespart, weil er unter Windows und OS X einfach noch nicht richtig funktionierte: Die Animation. Das Problem ist mittlerweile mit der Version 2.43 behoben, weshalb wir uns im dritten Teil dieser Serie nun endlich darum kümmern können...
Workshop: Compositing mit Blender Teil 2 Fr, 22.September 2006 Nachdem wir uns im ersten Teil mit den echten Basics beschäftigt haben, gehen wir im zweiten Teil auf die grundsätzliche Arbeit mit Nodes ein.
Workshop: Workshop: Audio in After Effects 7.0 Do, 7.September 2006 Wenn die Rede von After Effects ist, dreht es sich fast immer um Bilder und selten um Ton. Dabei weiss jeder Motion Designer: Eine mittelmäßige Animation ist mit gutem Sound zu retten - aber ein schlechter Sound macht jede noch so brilliante Animation kaputt. Ton ist also wichtiger für unseren Gesamteindruck als das Bild.
Workshop: Compositing mit Blender Teil 1 Di, 11.Juli 2006 Der erste Teil dieses Workshops beschreibt sozusagen die Basic-Basics der Blender-Compositing Funktionen: Nämlich, wie man überhaupt erst einmal ein Bild zu sehen bekommt.