Logo Logo
/// 

Workshop : Mattepainting für Dummys - mit Photoshops Generative Fill Funktion

von Mi, 16.August 2023 | 3 Seiten | diesen Artikel auf einer Seite lesen

 Einleitung
 Beta ist (noch) Pflicht
 Rahmenbedingungen

Viruswarnung

Wir hatten schon einmal kurz in einer News darauf hingewiesen, dass sich Photoshops "Generative Fill"-Möglichkeiten auch mit einer kleinen Trickserei auf Bildteile mit bewegten Videoinhalten anwenden lassen. Und so ist das Sommerloch vielleicht die ideale Zeit, das ganze einmal schnell selbst mit einem Workshop in der Praxis auszuprobieren. Vielleicht lässt sich das ganze ja auch noch mit einer virtuellen Zoomfahrt zu garnieren, die beliebig lange dauern kann.



Beta ist (noch) Pflicht



Für diesen Workshop ist bis auf weiteres noch die spezielle, aktuelle Betaversion von Adobes Photoshop aus der Cloud vonnöten, denn in einer finalen Version sind die neuen KI-Funktionen noch nicht zu finden. Alternativ lässt sich dieses Verfahren auch mit Stable Diffusion nutzen, jedoch haben wir den Eindruck, dass unsere Leser eher die Adobe Creative Cloud als Stable Diffusion zur Hand haben. Bein entsprechendem Interesse können wir die notwendigen, alternativen Schritte in Stable Diffusion aber noch in einem eigenen Workshop nachreichen...

Die besagte Funktion in der aktuellen Photoshop Beta nennt sich "Generative Fill" und basiert auf einem generativen KI-Modell, welches maskierte Bereiche in einem Bild schlüssig ergänzen kann. Wie bei Stable Diffusion kann man hiermit nicht nur Objekte löschen oder verändern. Ein Bild kann hiermit ebenso über seinen Rahmen hinaus erweitert werden - indem Adobes KI das präsentierte Bildmotiv optisch "weiterspinnt".

Bei Bewegtbildern funktioniert eine solche Erweiterung allerdings nicht, weil hier für jeden Frame eines Videos ein anderer Inhalt erfunden wird - was die zeitliche konsistente Abfolge der Einzelbilder (zer)stört. Das Video wirkt im besten Falle sehr unruhig, im schlechtesten Fall bekommt man eine Abfolge unzusammenhängender Einzelbilder präsentiert.



Rahmenbedingungen



Was jedoch durchaus funktioniert, ist eine fiktive Rahmenerweiterung, solange die Kameraposition statisch ist - sprich mit einem Stativ aufgenommen wurde. Solange keine Objekte wie z.B. Vögel oder Schatten in den ursprünglichen Rahmen eintreten oder diesen verlassen, kann ein statischer Bereich um das Video "erfunden" werden. Zur Verfeinerung kann man noch mit virtuellen Kamerabewegungen die gefühlte Authentizität erhöhen. Theoretisch lässt sich dabei auch ein beliebig großer Rahmen erfinden, dessen virtuelle Zoomfahrt erst zum Schluss in einem wirklich bewegten Video endet.

Wie das recht einfach funktioniert, wollen wir nun einmal Schritt für Schritt exemplarisch erklären.

Die einzelnen Schritte


3 Seiten:
Einleitung / Beta ist (noch) Pflicht / Rahmenbedingungen
Die einzelnen Schritte
Der Output / Zoomfahrt durch den Latent Space
  

[3 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
iasi    21:01 am 16.8.2023
Statt das Video in Photoshop zu öffnen, könnte man auch diesen Weg gehen: 1. In Resolve ein Standbild aus dem Video speichern. 2. Das Standbild in Photoshop erweitern lassen...weiterlesen
Darth Schneider    20:43 am 16.8.2023
@iasi Ein Mattepainting braucht man doch aber vor allem dann wenn man das was darauf zu sehen ist, eben nicht einfach mit einer Kamera abfilmen kann…Weil es die Dinge die darauf...weiterlesen
iasi    14:29 am 16.8.2023
Gute Idee. Wäre es denn nicht einfacher, ein Standbild des Videos fürs Mattepainting zu nutzen und dann alles im Schnittprogramm zusammenzufügen. Dann würden sich die Bilder...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Workshop: Compositing mit Blender Teil 3 Di, 24.April 2007
In den ersten beiden Workshops zu Blender wurde ein wichtiger Punkt ausgespart, weil er unter Windows und OS X einfach noch nicht richtig funktionierte: Die Animation. Das Problem ist mittlerweile mit der Version 2.43 behoben, weshalb wir uns im dritten Teil dieser Serie nun endlich darum kümmern können...
Workshop: Compositing mit Blender Teil 2 Fr, 22.September 2006
Nachdem wir uns im ersten Teil mit den echten Basics beschäftigt haben, gehen wir im zweiten Teil auf die grundsätzliche Arbeit mit Nodes ein.
Workshop: Workshop: Audio in After Effects 7.0 Do, 7.September 2006
Wenn die Rede von After Effects ist, dreht es sich fast immer um Bilder und selten um Ton. Dabei weiss jeder Motion Designer: Eine mittelmäßige Animation ist mit gutem Sound zu retten - aber ein schlechter Sound macht jede noch so brilliante Animation kaputt. Ton ist also wichtiger für unseren Gesamteindruck als das Bild.
Workshop: Compositing mit Blender Teil 1 Di, 11.Juli 2006
Der erste Teil dieses Workshops beschreibt sozusagen die Basic-Basics der Blender-Compositing Funktionen: Nämlich, wie man überhaupt erst einmal ein Bild zu sehen bekommt.
Editorials: Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt Mi, 3.März 2021
News: Das Sterben der Stand-Alone Compositing Programme - Fusion und Natron vor dem Aus Mo, 14.Januar 2019
Grundlagen: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums Di, 13.November 2018
Tips: Schneller Breitbild Filmlook via 2.35:1 Cache in DaVinci Resolve Di, 8.August 2017
News: After Effects CC 2015 bald mit GPU-Compositing? Do, 26.Februar 2015
News: Die neuesten Videotechnologien von der Siggraph 2012 Mo, 20.August 2012
Test: DaVinci Resolve Lite für Windows - Erste Eindrücke Di, 31.Januar 2012
Test: CS5 Files, Teil 6 - After Effects Sandy Bridge RAM Einflüsse Di, 29.März 2011


[nach oben]


[nach oben]















Artikel-Übersicht



Artikel-Kategorien:



update am 1.Oktober 2023 - 17:48
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*